電話から聞こえる声は、まさにあなたのお子さんそのもの
娘さんから電話がかかってきたと想像してください。泣きながら「交通事故に遭った、すぐにお金が必要」と訴えています。声は間違いなく娘のもの——口調も、抑揚も、「お母さん」と呼ぶときの癖まで同じです。しかし、電話の主は娘ではありません。機械が作り出した声なのです。
これがディープフェイクです——人工知能(AI)が人の声、顔、姿を驚くほど正確に再現して作り出す合成メディアのことです。かつてはハリウッドのスタジオと何百万ドルもの予算が必要だった技術が、今ではスマートフォンのアプリとわずか数秒の音声データだけで実行できるようになりました。
ディープフェイクとは具体的に何か?
「ディープフェイク」という言葉は、「ディープラーニング」(AIの一種)と「フェイク(偽物)」を組み合わせた造語です。ディープラーニングのアルゴリズムが実際の音声や映像のパターンを分析し、そのパターンを模倣した新しいコンテンツを生成します。音声クローンの場合、AIは対象者の話し方——声の高さ、リズム、アクセント、呼吸のパターンなど——を学習し、その人の声でまったく新しい文章を作り出します。
- 音声クローン——特定の人物そっくりに聞こえるAI生成音声
- 顔のすり替え——映像中の人物の顔を別人のものに差し替えたもの
- 全身パペット——本人がやっていないことを言ったりしたりしている合成映像
- 文体模倣——誰かの書き方を真似たAI生成テキスト
どれほど急速に広がっているのか?
ディープフェイク技術の成長は爆発的です。2019年には実験的な研究プロジェクトだったツールが、今では誰でも無料で使えるアプリになっています。参入障壁は崩壊しました。
FBIのインターネット犯罪苦情センター(IC3)によると、2023年にアメリカ人がインターネット犯罪で失った金額は125億ドルを超え、なりすまし詐欺は最も急成長しているカテゴリのひとつです。
実際に起きた音声クローン詐欺
2023年初頭、アリゾナ州のある母親が、15歳の娘そっくりの声で泣きながら助けを求める電話を受けました。その後、男の声に替わり身代金を要求されました。娘はずっと自宅に無事でいたのです——詐欺師がSNSの動画から娘の声をクローンしていました。
別の事件では、英国のCEOが親会社の上司だと信じて電話を受け、24万3,000ドルを送金してしまいました。その声はAIによるクローンでした。数時間後には資金は回収不能になっていました。
「あの声が娘じゃないなんて、命を懸けてもありえないと思いました。微塵も疑いませんでした。だからこそ、こんなに恐ろしいのです。」——音声クローン詐欺の被害に遭ったアリゾナ州の母親
なぜ身近な人たちが狙われるのか
詐欺師が利用するのは、冷静な判断力を鈍らせるたったひとつのもの——愛情です。大切な人が危険にさらされていると信じたとき、確認する余裕はありません。すぐに行動してしまいます。大切な人を守ろうとする本能こそが、ディープフェイク詐欺師に武器として悪用されるのです。
- 感情的な絆が、危機の際に冷静な判断力を上回る
- 大切な人の声はSNS、留守番電話、動画投稿などで広く入手可能
- 親や祖父母は、愛する人が危険だと信じれば素早く大金を支払う
- 身内の緊急事態というシナリオが切迫感を生み、確認を妨げる
- 世代の異なるメンバーがいるグループでは、テクノロジーへの理解度に差がある
今すぐできること
音声クローン詐欺に対する最も効果的な防衛策は、セーフワード——グループだけが知っている秘密の言葉やフレーズです。大切な人を名乗る緊急電話がかかってきたら、セーフワードを尋ねてください。AIにはそれを推測することはできません。
ディープフェイク技術はなくなりません——毎月、より高性能に、より安価になっています。しかし、認識することが最初の防衛線です。電話で聞こえるどんな声も偽物の可能性がある、と理解することは信頼の考え方における根本的な転換です。幸いなことに、セーフワードのようなシンプルでローテクな対策は、最も高度なAIに対しても非常に効果的です。