この記事のポイント
- ディープフェイクは、人工知能を利用して人物の動画や音声を合成する技術です。
- ディープフェイクの活用は映画製作などにおけるコスト削減などの可能性を秘めていますが、偽ニュースの拡散や詐欺などのリスクも伴います。
- AI技術の進化とともに、ディープフェイクの検出技術や法的規制の必要性が高まっています。
- 利用者はディープフェイクの危険性と、正しい活用用途を理解する必要があります。
監修者プロフィール
坂本 将磨
Microsoft AIパートナー、LinkX Japan代表。東京工業大学大学院で技術経営修士取得、研究領域:自然言語処理、金融工学。NHK放送技術研究所でAI、ブロックチェーン研究に従事。学会発表、国際ジャーナル投稿、経営情報学会全国研究発表大会にて優秀賞受賞。シンガポールでのIT、Web3事業の創業と経営を経て、LinkX Japan株式会社を創業。
ディープフェイク技術は、AIを活用して動画や音声を合成・編集する手法です。この技術の発展により、実在する人物の映像や音声を精巧に合成できるようになりました。
エンターテインメント業界での応用から映画制作の効率向上に至るまで、その有用性が認識され始めている一方で、偽情報の流布や詐欺活動といったディープフェイクに起因する諸問題や、それに伴う倫理的な課題も顕在化しています。
本記事では、ディープフェイクの概要、その作成過程、そして伴うリスクや不正利用の事例について深堀りしつつ、技術の将来性についても解説していきます。また、検出技術の最新動向にも焦点を当て、ディープフェイク技術の健全な発展とリスク低減に向けた適切な対処方針を考察していきます。
ディープフェイクの発展に伴う影響は、AI開発に携わる人のみならず、全ての人々に関わる重要な課題です。正しい知識を身につけるためにも、ぜひ最後までご覧ください。
目次
ディープフェイク(deepfake)とは
定義
ディープフェイクは、ディープラーニング技術を用いて作成された合成メディアで、実在の人物が実際には行っていない行動や発言をしているかのように改変された偽の画像、動画、音声を指します。
こちらの動画でも、以下にディープフェイク技術が高度化しているのかお分かりいただけると思います😮💨
近年、このようなAI技術の発達により、ディープフェイクの作成が高度化・一般化し、誰でも簡単に作成できるようになってきています。
💡豆知識:ディープフェイクの語源
ディープフェイクという言葉は、人工知能技術の一つである「Deep Learning(深層学習)」と「Fake(偽物)」を組み合わせた造語です。
歴史
元々はエンタメ業界で使われていた技術ですが、近年、AI技術の発達により高度化・一般化し、ディープフェイクを使用した詐欺事件の発生など、悪用されるケースも増加しています。
時期 | 出来事 |
---|---|
初期 | 1990年代に学術機関でAIによる画像処理の研究が始まる。 |
2010年代半ば | ディープラーニング技術の進化と計算能力の向上により、ディープフェイク技術が発展。 |
2017年 | Redditユーザー"deepfakes"が有名人のディープフェイク動画を公開し、GANツールが広く知られる。 |
現在 | 生成AI技術の発展により、ディープフェイクはさらに高度化・巧妙化し、悪用による脅威が増大している。 |
ディープフェイクの技術
技術基盤
ディープフェイクの仕組み
ディープフェイクを作成する際に使われている代表的な手法は敵対的生成ネットワーク(GANs)です。
2つのAI(生成器と識別器)が競い合うように学習するGAN(敵対的生成ネットワーク)を用いることで、本物と見分けがつかない精巧な偽コンテンツが生成されます。
- 生成器:偽の画像や動画を作成します。
- 識別器:生成器が作成した画像や動画が本物かどうかを判定します。
また GANから派生した技術のStyleGANは、より高精度な画像生成が可能です。
StyleGANによって生成された画像は、人間が見ても本物と見分けることが困難なほど精巧です。
具体な応用例
- フェイシャルスワップ(Face Swap)
Apple Vision Pro Deepfake app concept #applevisionpro #apple #visionpro pic.twitter.com/Zx8KVW1uuY
— Jesse Richards (@iamjesserichard) February 3, 2024
ある人物の顔を別の顔に置き換える技術です。 多くのディープフェイク動画で利用されています。
こちらの投稿では、Apple Vison Proのアプリを使用してリアルタイムでフェイススワップを行っています。
2. リップシンク(Lip Sync):
音声に合わせて人物の唇の動きを生成する技術です。 ディープフェイク動画のリアリティを高めるために使用されます。Run a few tests to check whether Act 1 @runwayml uses LivePortrait.
— Stelfie the Time Traveller (@StelfieTT) October 23, 2024
I took one ref video from Act 1 and used it on a version of LP which I modified slightly.
My impression is Act 1 is better, probaly gan the face and handle better the movements pic.twitter.com/ugCJvXuEQt
- ボイスクローニング(Voice Cloning):
Eleven Multilingual is coming to the platform this week🌎!
— ElevenLabs (@elevenlabsio) April 24, 2023
Generate speech in multiple languages using a single prompt, while maintaining each speaker's unique voice characteristics. Uncover new possibilities for localization, accessibility & creativity.
Listen for yourself… pic.twitter.com/P3ZBCzI2Zw
ある人物の声をAIに学習させ、あたかもその人が話しているかのように音声を生成する技術です。 詐欺やなりすましに悪用される可能性もあります。
ディープフェイクの事例
エンタメ活用例
映画『ワイルド・スピード SKY MISSION』
映画『ワイルド・スピード SKY MISSION』では、故ポール・ウォーカーの姿をディープフェイク技術で再現し、彼の弟が代役として演じたシーンに合成されました。
ウォーカーは物語のクライマックスに登場し、ファンにとってはとびきりの感動的な瞬間となりました。
映画『ローグ・ワン/スター・ウォーズ・ストーリー』
映画『ローグ・ワン/スター・ウォーズ・ストーリー』では、故キャリー・フィッシャーが演じたレイア姫がディープフェイク技術を用いて再現されました。
この技術により、彼女の若い頃の姿を映像に取り入れることができ、物語の一貫性を保つことが可能になっています。
俳優ブルース・ウィリスのCM
俳優ブルース・ウィリスは、ディープフェイク技術を利用して広告に出演した事例があります。
これはブルース・ウィリスの画像を利用したスタートアップ企業Deepcakeによる広告制作の事例です。
ウィリスの顔を別の役者の顔と差し替えるディープフェイク技術を使用しました。
詳しい経緯はこちら
:::
参考:
- Bruce Willis denies selling rights to his face
- Bruce Willis’s deepfake face-off: AI double appears in Russian ad
悪用事例
振り込め詐欺への悪用
ディープフェイク技術の悪用事例として、なりすましによる振り込め詐欺があります。2019年にはAIを使用して企業のCEOの声を模倣し、緊急性を装って22万ユーロをの不正な転送を要求する事件が発生しました。
犯罪者はCEOの声のわずかなドイツ語訛りやトーンを模倣し、最終的に大金が犯罪組織へ転送される事件となってしまいました。
参考:Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case(WSJ)
その他にも、2024年、英エンジニアリング大手アラップも計2億香港ドル(約40億円)を失ったことが封じられています。
偽のテレビ会議で役員になりすましたデジタルクローンに資金移動を命じられたということです。
このような攻撃は、伝統的なサイバーセキュリティ対策では防ぐことが難しく、さらなる対策が求められています。
戦争時のプロパガンダへの悪用
また、特に影響が大きいとされるディープフェイクの悪用事例の1つは、プロパガンダへの利用です。2022年のウクライナ侵攻時、ゼレンスキー大統領になりすましたディープフェイク動画が出回り、降伏を呼びかける内容となっていました。
ウクライナ政府はこれを偽情報と速やかに否定しましたが、敵対勢力がディープフェイクで偽情報を流布し、相手の士気を下げ戦略的優位を狙う動きが明らかになりました。
Проти кого ми воюємо? Ці каліки навіть діпфейк не спромоглися нормальний зробити.... боже))) pic.twitter.com/RqAj0qLuSO
— junek (@_delanay) March 16, 2022
またそれに続き、ウクライナのザルジニー総司令官が同国ゼレンスキー大統領の政策批判するフェイク動画もXで拡散されました。
映像の信憑性が揺らぐディープフェイク時代には、偽情報が紛争を長期化・深刻化させるリスクがあり、規制の必要性が浮き彫りになった事例です。
参考:ウクライナ軍総司令官の偽動画が拡散 政府が注意呼びかけ
フェイクポルノ
ディープフェイク技術は、実在する人物の顔を無断でアダルトコンテンツに合成するフェイクポルノの作成にも利用されています。
フェイクポルノは、特に女性を標的とした被害が多く、99%が女性を対象にしているとされています。日本では、SNSやクローズドなグループ内での拡散が問題視されており、卒業アルバムなどから無断で使用された写真が加工されるケースが多発しています。
対策
個人レベル
個人レベルの対策
- 情報源の確認:
情報を受け取ったら、それが信頼できるものかどうかを確認することが重要です。公式ウェブサイトや信頼できるメディアの情報と照らし合わせて、情報の真偽を確かめましょう。
- コンテンツへの批判的思考:
ディープフェイクは非常に巧妙に作られている場合もありますが、不自然な点や違和感がないか注意深く観察することで、偽物を見抜ける可能性があります。
技術レベル
- ディープフェイク検出ツール
AI技術は、ディープフェイクを作成するだけでなく、それを検出するためにも利用できます。AIを用いた検出ツールは、偽コンテンツの特徴を分析し、真偽を判定するのに役立てることが可能です。
例えば、米NPO「トゥルーメディア」はディープフェイク検出技術を無償で一般公開しています。
この技術は、ユーザーが疑わしい動画を投稿すると、自動で判定結果を返す仕組みです。特に、2024年の米大統領選挙や日本の衆院選に向けて、この技術が注目されています。
また、2024年10月16日、富士通やNEC、慶應義塾大学などが連携し、偽情報の検知から真偽判定までを行う総合的なシステムを開発することを発表しました。このシステムは、偽の画像や映像を生成する「ディープフェイク」の手法を学習し、過去の偽情報の類似度や拡散速度から社会への影響も分析します。この取り組みは、SNSでの偽情報拡散が問題視される中で進められています。
参考:
ネット偽情報 検知から真偽判定まで行う総合的システム開発へ
- C2PA規格:
コンテンツの真正性を証明するための技術規格である C2PA (Coalition for Content Provenance and Authenticity) を活用することも有効です。C2PA 規格では、コンテンツの作成者や編集履歴をメタデータとして記録することで、改ざんを防止します。
例えば、Adobe FireflyはC2PAの来歴情報を自動的に付与する機能を実装しています🙌
また、OpenAIはDALL•E•3に、GoogleもC2PAの最新バージョンを自社製品に導入する計画を発表し、Google検索やYouTubeでデジタルコンテンツの出所や編集履歴を確認できる機能を追加する予定です。
参考:
- Understanding the source of what we see and hear online
- How we’re increasing transparency for gen AI content with the C2PA
法的・社会的対策
- 法整備
日本は生成AIで性的な画像や動画を作成する行為自体を取り締まる法がありません。警視庁が2020年、アダルトビデオ(AV)の出演者の顔を芸能人とすり替えたディープフェイクポルノをネット上にアップしたとして、男2人を逮捕しましたが、適用容疑は名誉毀損(きそん)とAV制作会社の著作権に対する侵害でした。
2024年9月、米カリフォルニア州では、ディープフェイクを用いた選挙広告を規制する法案が成立しました。この法律は、AIが生成した偽情報による選挙工作を防ぐことを目的としており、SNSプラットフォームに対して偽情報の削除やラベル付けを義務付けています。この動きは、日本でも同様の対策が求められる背景となっています。
参考:Governor Newsom signs bills to combat deepfake election content
- 啓蒙活動: :ディープフェイクの仕組みや危険性、対策方法に関する教育・広報活動も重要です。誤った情報に煽動されることがないように、多くの人が理解を深める事が大切です。
2024年、IEEEがディープフェイク検出手法に関する提言を発表しています。
機械学習と意味分析を用いた新しい手法が紹介されており、特に電子透かし技術が効果的であるとされています。
One of the most effective techniques is digital watermarking of the images generated using the generative AI platforms.
(Rahul Vishwakarma,IEEEシニアメンバー)
これにより、生成AIプラットフォームで作成された画像に埋め込まれたマークによって識別が可能になるとしています。
ディープフェイクの作成方法
作成フロー
実際に、ディープフェイクの制作プロセスを体験してみました。
- まずは差し替え元となる画像を用意します。今回はレオナルド・ディカプリオの画像を利用します。(画像引用元:SeaArt)
元となる画像を選択
- 次に、動画内で変更したい素材を用意します。今回はジョニー・デップの顔画像を利用します。
(画像引用元:Weikipedia)
変更したい顔画像をアップロード
- すると、素材を用意してボタンを一つ押すだけでディープフェイク動画が完成してしまいました。
完成したディープフェイク動画
ここで紹介した作成例を通じて、現代のディープフェイク技術がいかに簡単に利用できるようになったかをご理解いただけたかと思います。このように手軽に作成できる技術の進歩は驚異的ですが、それがもたらす潜在的なリスクも念頭に置く必要があります。
ディープフェイク技術の可能性を探る一方で、その使用には最大限の慎重さと倫理的配慮をもって臨んでください。
作成ツールの紹介
-
DeepSwap:PCとスマホ両方で使用できるディープフェイク動画ジェネレーターアプリです。数秒で顔を入れ替えることができ、プロの動画編集スキルがなくても簡単に利用できます。
-
Xpression: iPhoneとAndroidで使用可能なスマホ用アプリで、入れ替えたい顔の画像や動画を持っていると簡単にディープフェイク動画を作成できます。
-
Deepfakes web β: ウェブベースのアプリで、顔を入れ替えるための画像と動画をアップロードするだけで高精度なディープフェイク動画を制作できます。使用料は1時間あたり2ドルです。
-
FakeApp: 無料で利用できるPC用アプリですが、メモリ8GB以上のスペックが必要です。英語の解説動画があるため、手順は理解しやすいです。
-
Deepfake Studio: Google Playで提供されているアプリで、画像やビデオをトレーニングおよび生成するAIモデルを使用してデータセットを作成します。顔の最適化機能もあります。
ディープフェイクの未来
ディープフェイクの未来
1. 技術の進化
生成AI技術の発展に伴い、ディープフェイクは現在以上に精巧化していきます。既に真偽の判別が難しいレベルに達していますが、アルゴリズムの改良や計算能力の向上により、将来的にはさらにリアルなディープフェイクの生成が可能となるでしょう。
-
高度化するアルゴリズム: ディープフェイクの生成速度や品質が向上し、一般のユーザーでも簡単に高精度な偽造メディアを作成できるようになります。
-
真偽判定の困難化: 人間がディープフェイクを見分けることがほぼ不可能になるレベルにまで達することが予想されます。
2. 社会への影響
-
偽情報拡散と社会不安: ディープフェイクによる偽情報が広く拡散され、選挙や国際紛争、災害時において社会不安を引き起こす可能性が高まります。
-
情報の信頼性低下: 大量の偽情報が流通することで、社会全体の情報判断能力が低下し、正確な情報源を見極めることが難しくなる「情報の終焉」が現実のものとなる可能性があります。
3. 倫理的な課題
ディープフェイク技術の利用には、いくつかの倫理的問題が伴います。
- 肖像権の侵害: 他人の顔や声を無断で使用することで、肖像権の侵害やプライバシーの問題が発生します。
- 故人の利用: 故人のディープフェイクを使用したコンテンツに対して、倫理的な是非が問われることが多くなっています。
- 表現の自由と悪用: ディープフェイクを利用した表現活動と、それがもたらす社会的混乱の間で、表現の自由の限界に関する議論が進むでしょう。
これらの課題に対応するためには、法的枠組みやガイドラインの整備が不可欠です。
4. 新しい技術との融合
ディープフェイク技術は他の革新技術と組み合わせることで、新たな可能性を生み出すことができます。
-
ブロックチェーン技術との融合: ブロックチェーンの透明性と改ざん不可能な特性を活用し、ディープフェイクの真偽を容易に判定することができます。例えば、デジタルコンテンツにタイムスタンプを付けたり、ハッシュ値を使って改ざんを検出する仕組みが考えられます。
-
VR/AR技術との融合: ディープフェイク技術をVRやARと組み合わせることで、新たな体験を提供する可能性があります。
- 製品のバーチャル試着や使用感のシミュレーション
- 歴史的な人物や科学者との仮想対話
- 医療トレーニングや患者シミュレーションの精度向上
- ゲームやアプリで自分の顔をキャラクターとして使用する体験
ディープフェイク技術の進化は、利便性の向上と同時に、偽情報の拡散や倫理的課題などの新たなリスクをもたらします。技術の発展を有効活用するためには、社会的影響に対する対策や法的な規制、倫理的ガイドラインの整備が必要です。また、他の技術との連携により、ディープフェイクの可能性をさらに広げることも期待されています。
ディープフェイクについてよくある質問
Q.ディープフェイクの作成は合法ですか?
A.ディープフェイクの作成の合法性は、その目的や内容、および国や地域による法規制によります。
創作活動や教育的目的で使用される場合は合法の場合が多いですが、他人をだます目的や名誉毀損、脅迫などの犯罪に関連する場合は違法になります。
Q.ディープフェイクはどのように法律や倫理規範に影響しますか?
A.ディープフェイクの普及に伴い、法律や倫理規範の適用についても議論が活発化しています。特にプライバシーや著作権などの法的問題や、情報の信頼性や公正性に関する倫理的な問題が注目されています。
Q.ディープフェイクを見抜く方法はありますか?
A.
- 不自然な動きや表情: 被写体の動きがぎこちない場合や表情が不自然である場合、それはディープフェイクである可能性があります。
- 音声と映像の不一致: 音声と口の動きが一致しない場合も疑わしいです。
- ソース確認: 動画や画像の出所を確認し、不明なソースからの情報には注意することが重要です
まとめ
今回の記事ではディープフェイクについてその基本情報から、作成方法そして活用法から悪用例まで幅広く解説しました。
この技術は映像業界をはじめ、幅広いビジネス分野での活用が期待されている一方で、政治的な偽ニュースの生成や詐欺行為など、悪用への懸念も議論されています。そのため、ディープフェイク技術の発展には、検知技術の開発や法規制の導入など、慎重なアプローチが必要です。
読者の皆さんの中には、ディープフェイクに対して、不信感や恐怖といった否定的なイメージを持つ方もいらっしゃるかもしれません。しかし、ディープフェイクは適切に活用すれば、生活をより便利で魅力的なものにしてくれる可能性があります。
教育や啓発を通じて、この技術の正しい理解と安全な使用方法を普及させることが、社会全体にとっての最良の進め方です。
未来のテクノロジーを恐れるのではなく、それをどう活用し、コントロールするかが鍵となります。