連載GLOBAL INSIGHT

【動画あり】大統領の表情も自在に操る。
進化する「フェイクニュース」、見破る術はあるか

細谷 元
  • Livit ライター 

シンガポール在住ライター。主にアジア、中東地域のテック動向をウォッチ。仮想通貨、ドローン、金融工学、機械学習など実践を通じて知識・スキルを吸収中。

関連タグ
  • TEXT BY GEN HOSOYA

ソーシャルメディア上では、フェイクニュース(偽情報)の伝達速度は事実に基づく情報より6倍速い。マサチューセッツ工科大学の研究者らの分析で、このような興味深い結果が明らかになった。フェイクニュースは、多くの場合センセーショナルで人の感情を大きく揺さぶるため、シェアされやすい傾向にあるためだ。

この分析結果を踏まえると、ソーシャルメディア上で拡散しているニュースはフェイクの可能性が高く、十分吟味する必要があるということになる。米ノースウェスタン大学の研究者の分析では、オンライン上のすべてのフェイクニュースの3割ほどがフェイスブックから発信されていることが明らかになっている。

事実に基づかない偽情報は、ときに社会や経済に多大なインパクトを与える場合があるが、ソーシャルメディアの普及で偽情報による影響のスピードと規模は過去とは比べ物にならないほど大きなものになっている。このためフェイクニュースを深刻な問題として取り上げ、対策を立てようという動きは出てきてはいる。一方、フェイクニュースは先端テクノロジーと融合し、より洗練され、その影響力を増そうとしている。

今回は、フェイクニュースとは関係のない文脈で開発されているものの、応用されてしまう可能性のある技術を紹介しながら、フェイクニュースがこの先どう進化していくのか考えてみたい。

SECTION
/

ソーシャルメディアの登場で、拡散スピードと影響力を増すフェイクニュース

偽情報や意図的に選定した情報で世論を誘導するのは「プロパガンダ」として昔からよく用いられている手法だ。昔は新聞、ラジオ、テレビなどマスメディアが情報拡散の役割を担っていた。

最近「フェイクニュース」というキャッチーな言葉でメディアに取り沙汰されることが多くなったのは、2016年米国大統領選挙でソーシャルメディアを介しフェイクニュースが急増したことがきっかけといわれている。

BBCによれば、2016年米国大統領選挙の際にソーシャルメディア上で拡散したフェイクニュースの多くは、東ヨーロッパの小国マケドニア(人口500万人ほど)から発信されていたという。現地には複数のフェイクニュース組織が存在し、アルバイトとして大学生を雇い、フェイクニュースを量産していた。アルバイト代は月に1800ユーロ(約24万円)と、現地の平均月収の5倍以上だった。フェイスブックなどのソーシャルメディアを通じて拡散したフェイクニュースは、選挙結果に大きな影響を与えたといわれている。

フェイクニュースは選挙だけでなく金融市場にも大きな影響を及ぼしていることも分かった。

2018年3月に英国ブライトンで開催されたロイヤル・エコノミック・ソサエティーで発表された最新の調査レポートによると、ボットが配信したフェイクニュースによって株式市場が影響を受けていることが明らかになったのだ。この調査によると、ツイッターボットが配信するフェイクニュースによって株式市場のボラティリティーと取引高が影響を受けることが分かった。ボットによるツイート量が1%増えると、ボラティリティーが0.38%、取引高が0.07%増えるという。

このように、これまで人手で作成されたフェイクニュース記事をボットが自動配信するというものがほとんどだったはずだ。しかし、いまでは人工知能を活用して個人の関心や思想に合わせたフェイクニュースを自動作成・配信できる技術も存在するといわれており、ますます対策が困難になっている状況といえるだろう。

SECTION
/

先端テクノロジーが悪用される可能性、フェイクニュースは文字から音・映像の世界へ

これらのフェイクニュースは基本的にテキスト情報であるが、現在開発されている技術を活用すると、音声や動画を含んだフェイクニュースを簡単に作成することができるようになる。

Adobeの「Voco」プロジェクトで開発されているのは、音声版Photoshopと呼ばれる人の声を自由自在に切り貼りできる技術だ。ポッドキャストやオーディオブックの録音自動化などを視野に入れ開発されているという。2016年末に開催された開発者イベント「Adobe MAX 2016」で発表されたが、発表後BBCなど複数のメディアが技術のすごさとともに悪用された場合の怖さを伝えている。

#VoCo. Adobe MAX 2016 (Sneak Peeks) | Adobe Creative Cloud

たとえば米国トランプ大統領の声を使い、北朝鮮、中国、ロシアを挑発するような発言も簡単に作成でき、もしそれらがソーシャルメディアを通じて拡散すれば、地政学的なリスクを高めるだけでなく、金融市場にも混乱をもたらすことが考えられる。

アルファベット傘下の人工知能企業ディープマインド社も、声真似システム「WaveNet」を開発している。この音声分野の技術は、人工知能の発達とともに進化していくことになるだろう。

音声だけでなく、映像を自由自在に操る技術も開発されており、フェイクニュースへの応用が懸念されている。

スタンフォード大学で開発された「Face2Face」は、映像のなかの人物の表情を自在に操る技術だ。以下の動画では、操作者がプーチン大統領、ブッシュ元大統領、そしてトランプ大統領の表情を自在に操作している様子が映し出されている。操作者の表情を読み取り、大統領などターゲットとなる映像にその表情を被せている。この技術は、音声に合わせて口の動きや表情も再現できる機能も備わっている。

Face2Face: Real-time Face Capture and Reenactment of RGB Videos (CVPR 2016 Oral)

現時点の映像を見る限り、若干の不自然さがあるので、フェイクであることを見破ることできるが、より精巧になっていけば本人が話しているのかどうか見分けがつかなくなる可能性は十分有り得る。

ワシントン大学の研究者らも同様の技術を開発している。こちらはオバマ元大統領の映像を使い、指定されたスピーチを話すオバマ氏を人工的に再現している。スピーチに合わせて口の動きや表情を極力自然に再現するプログラムが組まれており、どのようなスピーチもあたかも本人が話しているように映し出されている。Face2Faceと同様まだ若干の不自然さが残るが、研究が進めばよりスムーズになり、本人と見分けがつかなくなるだろう。

Synthesizing Obama: Learning Lip Sync from Audio

これらの先端技術が悪用されないことを願うばかりだが、悪用されないという保証はどこにもない。個人としてできる対策は、音声や映像を使ったフェイクニュースが登場するかもしれないという心の準備を行い、テキスト・音声・映像、どのような形式のコンテンツであっても批判的に見聞きし、考えるクセをつけることかもしれない。

こちらの記事は2018年05月17日に公開しており、
記載されている情報が現在と異なる場合がございます。

次の記事

記事を共有する
記事をいいねする

執筆

細谷 元

シンガポール在住ライター。主にアジア、中東地域のテック動向をウォッチ。仮想通貨、ドローン、金融工学、機械学習など実践を通じて知識・スキルを吸収中。

おすすめの関連記事

会員登録/ログインすると
以下の機能を利用することが可能です。

新規会員登録/ログイン