お客様のIP: 不明 · お客様の状況: 保護済み無防備不明

ディープフェイクとは?:意味やリスクについて解説

ディープフェイクとは、人工知能を使って加工された映像のことで、政府、法執行機関、個人にとって懸念が高まっています。このような合成メディアは、非常に説得力があり、いつの日か自分の目を信じる力を失わせる可能性があります。この記事では、「ディープフェイク技術とは何なのか?」そして、「なぜディープフェイクが危険なのか?」に迫ります。

ディープフェイクとは?:意味やリスクについて解説

ディープフェイクとは?

ディープフェイクとは、もともとディープラーニングを活用して画像や動画を部分的に交換する技術のことを指す言葉でした。そこから定義が拡大し、現在ではフェイク動画(偽動画)を指すことが多くなっています。

ディープフェイク技術によって、動画に登場する人物の顔や表情、声などを別の人物のものに置き換え、実際には行っていない動作を動画内で行わせたり、言っていないことを発言させたりして、説得力のある動画を作成することができます。

以前は、Photoshopなどの画像編集ソフトを使い、映像に登場する人物の顔を別の人物に置き換えることは行われていました。しかし最近では、AIの進化により、動画に登場する人物の顔を別の人物に置き換えることが可能になりました。

ディープフェイク技術の脅威

ディープフェイク技術は、映画のデジタル効果など正当な用途で利用されるケースもありますが、違法行為に使われることもあり、それが最近になって脅威となっている主な理由のひとつです。また、人工知能システムによって特定の人間の声を再現することができるため、優れたディープフェイクは強力で、危険をもたらす可能性があります。

ディープフェイク技術がもたらす脅威は、着実に増えています。ここからは、ディープフェイク技術の脅威の例を紹介します。

フェイクポルノ

現在、ディープフェイク技術の悪用が最も多いのは、ポルノ動画の人物の顔だけを別の人物に差し替えたフェイクポルノです。顔が入れ替わった本人の同意がないディープフェイクポルノは、ネット上に投稿された1万4000本以上のディープフェイク動画の約96%を占めています。

ディープフェイク技術は、海外だけでなく日本でも頻繁に使われており、日本の女優やアイドルの顔を使ったディープフェイクポルノ動画が多数制作され、拡散されています。

ディープフェイクポルノ動画の制作・拡散に関わった者は、名誉毀損や著作権法違反、わいせつ物頒布などの罪に問われる可能性があります。実際、2020年10月には、アダルトビデオ出演者の顔を女性タレントに差し替えた人たちが、名誉毀損と著作権法違反の疑いで逮捕されています。

なお、エロ動画でなくても、他人の顔を無断でディープフェイク動画に使用した場合は罪に問われる可能性があります。

フェイクニュースとプロパガンダ

説得力のある本物のようなディープフェイク動画は、政敵やライバル政府を中傷するプロパガンダとして利用することができます。

たとえば、2022年、ロシアがウクライナに侵攻した直後、ウクライナのゼレンスキー大統領が降伏する様子を映したディープフェイク動画がネット上に出回りました。この動画は偽物であることが明らかになりましたが、ディープフェイク技術の見分けが困難になれば、この戦略がどれほど大きなダメージを与えるかは容易に想像できるでしょう。

ディープフェイク技術は、政敵を中傷し、有権者に影響を与えるために使われる可能性があります。この技術が広く利用されることで、真に証拠能力をもつ映像が信用されなくなる可能性さえあります。

詐欺とソーシャルエンジニアリング

ディープフェイク技術は、個人情報の漏えいや、フィッシング攻撃に利用される可能性もあります。もし、あなたが友人から、SNS経由で「海外旅行中に交通事故に遭ったので資金が必要です」とメッセージがきたら、不審に思うかもしれません。そして、その友人のSNSアカウントやスマホが乗っ取られたと考えるでしょう。

同じシナリオで、メッセージの代わりに、友人から説得力のある本物のような動画が送られてきたとします。音声も映像も本物そのもので、実際に事故に遭ったことが一目でわかる場合、多くの人は心配になり、大切な友人のためにお金を送ることでしょう。しかし、これがディープフェイク動画だったらどうでしょう?友人のために送ったお金が、犯罪者の手に渡ってしまうのです。

機械学習システムが進化することで、詐欺師は近い将来、本物のようなディープフェイク動画を使って、個人情報や金銭を盗んだり、ソーシャルエンジニアリングや巧妙化した詐欺を働くリスクがあります。

情報漏えいやサイバー攻撃を避けるには、サイバーセキュリティについてもっと学習したり、VPNや優れたセキュリティ対策機能を導入したりしましょう。NordVPNはVPN接続だけではなく、有効なセキュリティ対策を講じるためのたくさんの機能を提供しています。

ディープフェイクのポジティブな活用事例

ディープフェイク技術は、偽情報やデマ、フェイクニュース、悪質なアダルトコンテンツに利用されているため、悪いイメージが先行していますが、ディープフェイク自体が「極悪」というわけではありません。

現在、ディープフェイク技術は、さまざまな悪用が可能であることが強く懸念されていますが、ポジティブな可能性も多くあります。そこで、ディープフェイクのポジティブな応用事例をまとめました。

映画のリアルな吹き替え

ディープフェイク技術をポジティブに活かすことで、言語の壁をとっぱらい、見違えるほど自然な吹き替えを作ることができます。

従来の吹き替えでは、映画の映像はそのままに、音声だけを多言語化していましたが、ディープフェイク技術を用いることで、あたかも俳優が同じ言語を話しているかのような映像を作り出すことができるのです。

ディープフェイク技術を使って声を複製したり映像を変えたりすることで、唇の動きを話された言葉と一致させられるので、オリジナルの俳優を使った映画を多言語化が実現します。

クリエイティブな作品を世界中のより多くの人に発信することができます。ディープフェイク技術は、エンターテインメントやコンテンツの多様性を向上させるポテンシャルを秘めているのです。

架空なのにリアルな人物の著作権フリー素材

ディープフェイク技術は、著作権フリー素材にも貢献しています。ディープフェイク術を活用することで、自動生成されたとは思えないほどクオリティの高い人物画像を生成することができます。

ディープフェイクを駆使して、性別、年齢、表情など、希望する条件を満たすものを選択することができます。

さらに、著作権フリーの人物画像は、使用時に著作権や肖像権などの権利侵害を心配する必要がないため、幅広い用途で利用できます。

映画の登場人物やキャラクターの再現

エンターテインメント業界では、ディープフェイク技術を積極的に活用した事例がたくさんあります。ディープフェイクは、映画の登場人物の一貫性を保つことができるからです。

たとえば、ある俳優が亡くなったとします。ディープフェイクの技術があれば、手に入るはずのない過去の俳優の似顔絵を再現することができます。つまり、俳優は亡くなっても、キャラクターは永遠に生き続けるのです。

あるいは、キャラクターが俳優よりも年上または年下である場合でも、ディープフェイクの技術が重宝されます。たとえば、故キャリー・フィッシャーが演じたレイア姫は、本人不在でもその若々しさを再現することに成功したのです。これは、ディープフェイク技術のもうひとつの有効な使い方である、エイジング(老齢化)とディエイジング(若齢化)の実証でもあります。

有益な教育用の素材

ディープフェイク技術は、教育にもポジティブな影響を与える可能性を秘めています。ディープフェイク技術によって、歴史の授業に革命を起こすことができるかもしれません。

一つ目の例は、2018年にイリノイ州ホロコースト博物館と教育センターが行ったホログラフィックによるインタビューの作成です。ディープフェイク技術を使うことで、来館者がホロコーストの生存者に質問をしたり、彼らの話を聞いたりして、交流することが可能になりました。ディープフェイク技術が進歩すれば、バーチャルな世界で、もっと広いスケールの歴史が実現できるかもしれません。

もう一つの例は、ジョン・F・ケネディ(JFK)を音声で「復活」させたケースです。ディープフェイク技術により、故JFK大統領が暗殺されなければ行っていたであろうスピーチを聞くことができるようになりました。

このように、ディープフェイク技術は、歴史の教科書に書かれている事実だけでなく、歴史上の出来事が実在の人物に与えた影響を保存するのに役立つと考えらています。

医療業界での新しい診断やモニタリングの手法の開発

ディープフェイク技術を使えば、まるで本物のような患者を作ることができます。これは、医療業界で必要なテストや実験のために、実際の患者を危険にさらす必要がなくなることを意味します。研究者は本物の患者さんのデータではなく、本物のようなディープフェイク患者を自由に使うことができるのです。

ディープフェイク患者を活用して得たデータから、新しい診断やモニタリングの方法を検証することもできますし、医療上の意思決定を支援する他のAIの訓練に利用することもできます。

ディープフェイク動画の作り方

ディープフェイク動画を作る際は、ディープラーニングと呼ばれるプロセスを用いてメディアを閲覧・再生する人工知能システム(AI)が利用されます。

ディープフェイクには通常、人物(通常は俳優や政治家などの有名人)の映像が含まれます。次に人工知能は、別の人物の画像を何百枚も見て、その特徴をリアルに再現します。そして、新しい顔の画像を人物の動きにマッピングし、表情や唇の動きを同期させるのです。

ディープフェイク技術はまだ改良段階ですが、現時点ですでに精度が非常に高く、迅速に結果を出すことができます。ここからは、ディープフェイク動画を作るための方法を紹介します。

  • FaceSwap(フェイススワップ):これはディープフェイク動画を作る上で最も一般的な方法で、身体はそのままで顔を交換します。信頼性の高いレンダリングを行うためには、プロポーションが似ている必要があります。
  • Face2Face(フェイス2フェイス):FaceSwapと原理は似ていますが、人の口だけを使うので、より繊細な表現をすることができます。イントネーションが同じであれば、何でもしゃべらせることが可能です。
  • Lip-Synching(リップシンク):このディープフェイクの方法は、リップシンク以外はオリジナルのメディアを何も変えずに作られおり、Face2Faceの課題であった、タイミングが悪いまばたき、顔の歪み、視覚的アーティファクト、同期していない唇の動きを改善することができます。

ディープフェイクを作れる人

ディープフェイク動画は、WomboやFaceAppなどのさまざまな無料アプリを使うと、誰でも簡単に作ることができます。

また、アプリを使わずにディープフェイク動画を作る人たちは、視覚効果アーティストとも呼ばれています。視覚効果アーティストたちは、年老いた俳優や、亡くなった有名人をスクリーンに蘇らせる方法を模索してきました。

たとえば、『ターミネーター』で、アーノルド・シュワルツェネッガーを若返らせたり、『ローグ・ワン/スター・ウォーズ・ストーリー』では、故ピーター・カッシングを復活させたりしています。

これらはディープフェイクではなく、視覚効果アーティストによる入念なデジタル復元でした。印象的なのは、多くのアマチュア視覚効果アーティストが、これらの映画関連シーンの独自バージョンを作成し、ディープフェイクソフトウェアを使って、さらに優れた顔の再現を生成したことです。これは、ディープフェイク技術の正当な使用例と言えます。

ディープフェイクを見抜く方法

ディープフェイクかどうかをを見抜くのは、必ずしも容易ではありません。表情が不気味かつシュールで、明らかに偽動画と一目でわかるものもありますが、より洗練されたものも存在します。

いくつかの要素から、ディープフェイク動画かどうかを判断することができます。もし、動画で顔が写っていたら、そこに注目し、以下の特徴を探してみましょう。

滑らかでぼやけたパッチ

ディープフェイク動画と本人の顔の接続部分が、妙に滑らかで質感がないように見える場合、ディープフェイクを疑いましょう。また、動画を見る際に、頭を急に動かしたり、照明を変えたりすると、顔の境界線が一瞬ぼやけたように見えることもあります。

顔以外の特徴が正確でない

政治家のような著名人の映像であれば、その人物の画像を探して比較してみましょう。手、髪、体型など、顔の特徴以外の要素で、ディープフェイクの疑いのある動画と、信頼できる映像ソースを見比べてみてください。

不自然な動き

少なくとも今のところ、ディープフェイクは被写体があまり動いていない方が、より本物のように見えます。被写体の体や頭が妙に硬い場合は、映像の制作者が、ディープラーニングAIがあまり動きを追わずとも、人物の顔に画像をマッピングしやすくしようとしているサインかもしれません。

説得力のない声

ディープフェイク技術は急速に進化していますが、今のところ、コンピュータに音声シミュレーションをさせることは、ディープフェイク画像や映像を合成することよりもハードルが高いようです。

ディープフェイクの制作者が被写体にしゃべらせる場合、AIが生成した音声を使うか、素材になりきることができる俳優を使うかの2つの選択肢から選ばなければなりません。有名人や政治家が話す音声と比較してみると、いくつかの違いに気がつくかもしれません。

ディープフェイクの未来

技術が進歩すればするほど、ディープフェイクを見抜くのは難しくなっていきます。コンピュータとビジュアルエフェクト(VFX)ソフトの基本的な知識がある人たち全員が、大統領がとんでもない発言をする動画を作れるようになったら、大変なことになるでしょう。

実際には、すでにディープフェイクを見破るのは難しいですが、近いうちに見破れなくなる可能性もあります。政治体制が二極化している現在、選挙活動の一環としてディープフェイクが使われる可能性は低くはありません。最近の映画やテレビ番組でディープフェイク技術が使用され、一般の人々の認識を高めるのに役立っていますが、それでも多くの人々が本物のような偽動画によって誤った情報を得る可能性があります。

ディープフェイク技術を活用する詐欺師がもたらすリスクに対して、今日からできる簡単な方法のひとつは、オンラインに投稿する画像の枚数を制限することです。AIが生成する動画の説得力を高めるには、再現したい被写体の写真や映像にシステムがアクセスする必要があります。SNSのプロフィールは非公開にし、自分の顔が写った画像を投稿しないことをおすすめします。


弊社はお客様のプライバシーを尊重します

本サイトでは、より安全でパーソナライズされた体験を提供するためにクッキーを利用しています。同意することにより、お客様は当社のクッキーポリシーに沿った広告および分析のためのクッキーの使用に同意したことになります。