まるで本人の声で詐欺電話が?音声ディープフェイクが広がる今、私たちにできる対策とは

TOKYO, JP | 2025年07月30日


Deepfake

Pindropのリサーチャーによると、AIで生成された音声のディープフェイクが、組織にとって重大な脅威になりつつあります。

音声生成ツールを使用することで、ほとんどリアルタイムで本人そっくりの声を作り出すことが可能になっており、攻撃者が被害者の知人になりすまして会話を仕掛けることができると、リサーチャーは警鐘を鳴らしています。

さらに最近では、こうしたツールが人間の感情を巧みに再現できるようになっており、ソーシャルエンジニアリング攻撃の説得力が一段と増しています。

リサーチャーは次のように述べています。「音声の合成技術の進化により、text-to-speach(TTS)音声でも、喜び、怒り、共感、悲しみといった感情を表現できるようになりました。AIモデルは人間の音声から感情のトーンを学習し、それを再現できるようになっています。」

こうしたツールは誰でも簡単に入手できるため、高度な技術を持たない攻撃者でも、巧妙なソーシャルエンジニアリング攻撃を行うことが可能になります。

「サイバー犯罪者は声のピッチ、リズム、トーン、音量を操作し、他人になりすますことで、受信者を混乱させています。スマートフォン上で音声変換アプリを使用できる今では、身元を隠すのも容易になっています」とリサーチャーは指摘します。

実際、ある米大手小売業者は、バーチャルリーガルアシスタントを装った音声で、顧客のアカウント解約を依頼する攻撃が急増していると報告しています。オープンソースのAIプラットフォームの普及により、現実的なディープフェイクを作成するハードルは大幅に下がりました。

2024年だけでも、AIオープンソースのHugging Faceには2,400以上のTTSモデルと1,800以上のテキスト音声変換モデルが公開されており、正規の開発用途で使われる一方、詐欺目的でも簡単に利用できてしまう状況です。

リサーチャーは次のように述べています。「認証プロセスの強化、リアルタイムのリスク分析、そしてコールセンター担当者への継続的なトレーニングは、進化し続ける攻撃手口への有効な防御策となります。」

KnowBe4のセキュリティ意識向上トレーニングは、従業員のセキュリティ意識を高め、日々求められるセキュリティ上の判断に従業員一人ひとりが的確な意志決定を下すことを可能にします。世界の7万社を超える企業や団体がKnowBe4を採用して、防御の最終ラインとして「人」による防御壁を構築して、セキュリティ文化の形成につなげています。

詳細については、Pindropの記事を参照してください。

原典:KnowBe4 Team著 2025年6月18日発信 https://blog.knowbe4.com/warning-voice-deepfakes-continue-to-improve

Topics: フィッシング, KnowBe4 SATブログ, セキュリティ文化

Get the latest about social engineering

Subscribe to CyberheistNews