昨年、我々は定期的なレポートを通じてAIが生み出すリアルタイム音声ディープフェイクの潜在的な脅威について警鐘を鳴らしました。
しかし、警告が具体的な事例として現れるまでには時間がかからなかったようです。
今月、香港で衝撃的な事件が発生しました。ディープフェイク技術を使った音声と映像が、ある企業の会計担当者を騙し、莫大な金額を詐欺グループに送金させる事態に至りました。
この事件では、英国のCFOになりすました詐欺師からの連絡を受けた会計担当者が、ビデオ会議で偽の同僚たちと交流しました。会議の参加者が見た目も声も本物の同僚と同じであるため、最初の疑念が払拭され、結果的に38億円の送金を承認してしまいました。
この衝撃的な事件の調査により、ビデオ会議に現れたCFOや同僚の映像が、公に公開されている映像を基にディープフェイク技術で生成されたものであることが明らかになりました。
香港警察は、ディープフェイクを使用した詐欺事件が増加傾向にあると警告しています。実際、過去数ヶ月間でディープフェイクを利用した詐欺行為により、複数の人物が逮捕されました。これには、身分証明書の不正利用も含まれており、AI技術を用いて顔認識を回避する手法が用いられていることが報告されています。
このような事件は、ビデオ会議での本人確認だけに依存することの危険性を浮き彫りにしました。
ディープフェイク技術の急速な進化に伴い、私たちはより複雑な本人確認手段を検討し、導入する必要があります。企業や個人は、この種の詐欺から身を守るために、常に警戒心を持ち、最新のセキュリティ対策に精通しておくべきです。
この事件は、AIとディープフェイク技術がもたらすポテンシャルとリスクの両面を示しています。技術の進歩は多くの可能性を秘めていますが、それを悪用する詐欺師から身を守るためには、私たち自身も進化し続ける必要があります。