AIは、より高度で迅速、かつ広範囲なサイバー攻撃を可能にします。
これまで私は何度も講演などでAIとその脅威について説明してきました。脅威の話などを聞いて、顔が強張る方もいましたが、「AIを使った攻撃はいつか発生しますが、皆さまが目にするまでにはまだ時間がかかる」という事実を伝えると、全員が安堵の表情を浮かべている光景を何度も見てきました。
しかし、今年はそう言えなくなってきました。今、被害に遭ってしまうかもしれないサイバー攻撃にはAIが関与している可能性が高いです。今となっては、AIが攻撃に活用されることは当たり前になっていて、来年には間違いなく、AIが攻撃の中心である時代になると私は考えています。
AIは、人類が長年抱えてきた課題を解決し、生産性を高め、これまで実現が難しかった発明やソリューションをもたらす可能性を秘めています。その一方で、AIはサイバー攻撃者にとっても、これまで以上に効率的で強力なハッキング手段を提供するリスクがあります。
本記事では、AIが攻撃者にとってどのような利点をもたらすのか、そしてAIによってサイバー攻撃がどう変わっていくのかを紹介します。ここで述べるのは、遠い未来の話ではありません。すでに起きていること、あるいは今年から来年にかけて当たり前になっていく変化についてです。
最も多いサイバー攻撃の手口
まずは、サイバーセキュリティの歴史における基本的な背景から説明します。攻撃者のほとんどは、初期侵入の手口として「ソーシャルエンジニアリング」および「ソフトウェアやファームウェアの脆弱性」という2つの手口から発生しています。他にも、設定ミスや盗聴などもありますが、実際のところ大半の攻撃はこの2つに集約されます。
ソーシャルエンジニアリングは全体の70〜90%の攻撃に関与しており、ソフトウェアの脆弱性の悪用による攻撃は33%を占めます。これら2つを合わせると、全体のサイバーリスクの90〜99%を占めていると言えます。
ソーシャルエンジニアリングとは、攻撃者がユーザーに対して何らかの行動(たとえば機密情報の提供、不正リンクのクリック、トロイの木馬の実行など)を取らせるよう仕向ける行為です。
攻撃者がユーザーについて多くの情報を持っていればいるほど、説得力のある攻撃が可能になります。特定の人物やグループを狙ったフィッシング(スピアフィッシング)は、そうした情報を活用した代表的な例です。
Barracuda Networksによると、スピアフィッシングはメールを使った攻撃全体の0.1%未満にすぎませんが、成功した侵害の66%に関与していたと報告されています。これは極めて高い割合です。
AIがソーシャルエンジニアリングにもたらす影響
AIを活用したソーシャルエンジニアリングボットは、次のような理由で攻撃の成功率を高めていくことが予想されます。
とくに、OSINTによるターゲットの精査とその結果に基づく攻撃の自動化は、AIによって一段と高度になります。攻撃者が企業名を指定すれば、AIボットがその企業の全社員、メールアドレス、電話番号、勤務地、所属先、関心事、担当プロジェクトなどを調べ上げ、最も効果的と思われるフィッシングメールを自動生成して送りつけるようになります。そして、その成功率は人が作る攻撃よりも高くなることが予想されます。
このようにAIが活用された攻撃は「ハイパー・パーソナライズ」や「ハイパー・リアリスティック・ソーシャルエンジニアリング」と呼ばれ始めています。
すでにAIを使った攻撃の方が人が作成したものを上回る場面も増えています。
ChatGPT 2.0の登場以降、セキュリティ専門家たちはAIボットと人によるソーシャルエンジニアリングの精度を比較する調査を数多く実施してきました。2023年には人の方が優位でしたが、2024年には勝敗がほとんどつかないレベルになり、2025年にはついにAIボットが勝ち始めています。
「人間に頼ると成功率が下がる」と犯罪者の間で、そう認識される時代がすぐそこまで来ています。
AIを活用したフィッシング攻撃
現在のフィッシング攻撃の多くは「フィッシングキット」や「Phishing-as-a-service(フィッシング・アズ・ア・サービス)」と呼ばれるツールによって実行されています。攻撃者は1件ずつ手作業でメールを送るようなことはしていません。ツールがメール文面を自動で作成し、用意された送信リストに一括で送信し、さらには偽のWebサイトやコンテンツの作成や管理まで行っています。最も優れたツールは、情報の収集、金銭などの収益分配まで、ほぼ自動で行われます。すべて手作業で行っている攻撃者などいません。
これらのフィッシングツールのほとんどは、すでにAI対応となっています。KnowBe4傘下のEgressによると、82.6%のフィッシングメールがAIツールによって作成されており、82%のフィッシングツールが広告に「AI搭載」を明記していると報告されています。年末までには、ほぼすべてのツールがAI搭載型になるでしょう。
AIによるディープフェイク
誰でも他人の顔写真と6〜60秒程度の音声があれば、その人物が何かを話しているように見えるリアルなディープフェイク動画や音声を作成できます。特別な知識や有料ツールは必要ありません。実際、ディープフェイクサイトにアカウント登録する時間の方が、動画を作成する時間より長くかかるほどです。
ディープフェイクを使えば、偽の音声、偽の動画、偽の画像を本物のように見せることができます。犯罪者は、偽の電話をかけたり、偽の留守番電話を残したり、偽のZoom会議を開いたりすることができるようになります。
以前は「怪しいメールに注意しましょう」と呼びかけていました。次に注意が必要になったのは、SMSやWhatsAppの不審メッセージ。そして今、音声や映像までもが警戒対象に加わっています。
しかし、問題はそれだけではありません。
リアルタイムディープフェイク
今では、誰でもリアルタイムで他人になりすまして会話ができるようになっています。クラウドやPC上のソフトウェアを使えば、外見も声も、他人に変身できます。有名人でも誰でも模倣可能です。
私の同僚であるPerry Carpenterのポッドキャストでは、この技術が紹介されています。
この技術では、ユーザーの動作や話し方をリアルタイムで模倣し、音声や表情をそのまま別人に変換して配信することが可能です。話せば話す、動けば動く、完全に連動した映像が表示されます。
さらに、なりすましは、ワンクリックで別人に切り替えることが可能です。今はTaylor Swift、次の瞬間にはNicolas Cage、さらにその次にはLiam Neesonに。切り替えは一瞬です。
この技術は、半年前に中国のサイトでサービスとして販売されていました。その後、米国のサイバーセキュリティ専門家が無料のクラウドサービスとして公開し、今では誰でもPCにソフトをインストールすれば使用可能になっています。必要なのは、数回のクリックだけです。
PerryはこのリアルタイムディープフェイクをZoomに統合できるプラグインも見つけています。
リアルタイムのAIチャットボットによる会話
今では、AIがリアルタイムで会話に参加し、人間と区別がつかないほど自然な応答をすることが可能になっています。私が最初にこの技術を見たのは、KnowBe4が2025年4月に開催した「KB4-CON」でのPerryのデモでした。
彼は、自作のチャットボットに数ページにわたる「悪意あるプロンプト」を与え、被害者から機密情報を引き出す、あるいは偽の誘拐による身代金要求をシミュレーションするボットを作成しました。Taylor Swiftの人格を与えたり、観客を楽しませるために「悪いサンタクロース」といったキャラを演じさせたりもしていました。
ボットと人間がリアルタイムで会話するその様子は、恐怖を感じるほど自然です。多くの観客が手を止め、画面に集中し、事態の深刻さを理解していました。
ボットが自らの「技術サポートとしての困った事情」を語りながら、情報提供を求めてくると、見ている側も思わず同情してしまうほどです。「悪いサンタ」が暴言を吐いて身代金を要求する場面では、悲鳴が上がることすらあります。
これは強く感情に訴えかける体験であり、AIがまさに意図的にそう仕向けているのです。
ただ、観客の多くは、この未来が「数年後」ではなく「数ヶ月後」であることに気づいていません。
PerryはこのデモをRSAなどの世界的なセキュリティカンファレンスやCNNなどの主要メディアでも実施しており、毎回大きな反響を呼んでいます。
リアルタイムのAIチャットボットは、まだ一部の技術者にしか扱えませんが、近いうちに誰でも使えるようになるでしょう。すでに複数のデモでは、攻撃と防御の両方に活用されている様子が確認されています。
より速く脆弱性が悪用される未来
昨年、発表された脆弱性の件数は40,200件を超えました。そして2023年には、初めてゼロデイを悪用した攻撃が、既存の脆弱性を使った攻撃数を上回りました。
今後は、新たな脆弱性の発見数、ゼロデイの活用数、そして脆弱性が発見されてから悪用されるまでのスピードが、さらに加速していくでしょう。
私自身、20年間バグハンティングをしていた経験から、脆弱性の発見は人とツールの共同作業でした。ツールが異常値を見つけ、それを人間が深掘りして真の脆弱性を特定する。そんなプロセスが一般的でした。
しかし現在では、AIによる自律型のバグ発見ツールが次々と登場し、すでにHackerOneでは報告者の20%がAIを活用したハックボットを使っているとのことです。この割合は今後ほぼ100%に達するでしょう。発見される脆弱性の数も、ゼロデイの数も、爆発的に増えていくと予想されます。
さらに、パッチが公開されれば、AIはそれを高速でリバースエンジニアリングし、悪用コードを生成します。AIボットは、未パッチの脆弱性を素早く見つけ出し、即座に攻撃を仕掛けます。
これまで「パッチ適用まで1ヶ月程度の余裕がある」とされていた常識は、すでに「1週間」にまで短縮されつつあります。そして近い将来、「数日」あるいは「数時間」以内にパッチを適用しなければならない時代がやってくるでしょう。
防御側も、AIを使って自動パッチ適用を行わなければ間に合わなくなります。AIによる脆弱性検出ボットよりも先に対応するには、同じくAIによる防御しかありません。
初期侵入から目的のターゲットまでの移動も、AIによって高速化されます。たとえばBloodhoundというオープンソースのツールは、Active Directoryの構成を自動で分析し、どこを突破すればよいかを示してくれます。すでに多くのレッドチームが、これを使って「ワンクリック侵害」を実現しています。
今後は、こうしたAI対応の脆弱性スキャナやツールが、ハッキングの「標準装備」となるでしょう。「難しくハックするより、簡単にハックする」そんな時代がすぐそこまできています。
エージェンティックAIマルウェア
エージェンティックAIマルウェアは、OSINT、初期侵入、情報資産の抽出といった攻撃者の一連の活動を、人間よりも迅速かつ高精度でこなします。
すでに、顔認証を悪用して銀行口座から資金を盗むディープフェイクマルウェアは存在しており、これは古いニュースになりつつあります。指紋、虹彩、声など、あらゆる生体認証が攻撃対象です。
ここで注目すべきは、AIによる自律型マルウェアが、以下の一連のプロセスを自動で実行するという点です。
・標的となる被害者を特定
・必要な調査を実行
・ソーシャルエンジニアリングや脆弱性の悪用による侵入方法を確立
・価値のある情報や資産を搾取
・攻撃者のもとへデータを送信
たとえば攻撃者が「年商1億ドル以上のヒューマンリスクマネジメント企業に侵入し、メインバンクの給与口座から金を盗め」と命じれば、AIマルウェアは自律的に対象を選定し、最適な侵入経路と攻撃方法を決定し、実行します。
これについては、こちらの記事でも詳しく紹介しています:「Agentic AI Ransomware Is On Its Way」
ディスインフォメーション(偽情報)
現在、偽情報の拡散はかつてないほどの規模で進んでいます。私自身、注意しているつもりでも、ときおり誤って偽情報を拡散してしまうことがあります。
最も危険なのは、信頼性の高い報道機関がAIによる偽情報を信じて報じてしまうケースです。実際、AIが生成した偽ニュースがAPIなどを介して他のAIやメディアに共有され、連鎖的に拡散される事例が確認されています。
たとえば、あるロシアのプロパガンダ組織は、AIを使って3.6百万本の偽記事をネット上に流通させました。その一部は、正規のメディアがAI経由で再配信してしまっています。つまり、AIがAIに偽情報を広めているのです。
こうした大規模な偽情報攻撃は、もはや難しいことではありません。
すべて「今」起きていること
上記で紹介した技術や攻撃の多くは、すでに実際に確認されているものか、今後1年以内に確実に一般化されるものです。
なぜ私がそう断言できるのか?
私は歴史が大好きで、「過去の傾向は未来を予測する最良の指標」であると信じています。そしてこれまでの傾向を見ると、AI研究者が「悪用できるかもしれない」と考えた技術は、平均6〜12ヶ月でマルウェアや詐欺ツールに取り込まれ、広く使われるようになっています。
今回紹介した技術群も、例外ではありません。
防御側の戦い方
もしこの記事を読んで未来に絶望を感じたなら、次の事実を思い出してください。AIを発明したのは、正当な意思を持った人たちです。AIの開発を進めているのも、圧倒的に正しい使い方をしているの人々が多いです。
これは「悪者だけがAIを使う」非対称な戦いではありません。すでにすべての主要なサイバーセキュリティ企業がAIを活用しており、エージェンティックAIを含めた製品改善に取り組んでいます。
KnowBe4は、7年以上前からAIを活用しており、今もなおAIとエージェンティックAIの導入に組織全体を挙げて取り組んでいます。私たちの会議では、日常的に「AIでどうお客様を守れるか」というトピックが議題に上ります。
私たちは、AIによる製品改善の成果を、実際のお客様からのフィードバックという形で確認しています。すでに客観的な成果として得られているのです。
防御側もまた、エージェンティックAIによる脅威ハンター、パッチャー、設定ミス検出ボットなどを活用し、守りを固めていくことになります。ユーザーごとに弱点に合わせた擬似攻撃を実行し、必要なトレーニングへとつなげることもできます。悪意あるAIボットの侵入を未然に防ぐボットも登場するでしょう。
さらに、インターネットそのものの構造も、今後はより安全で堅牢なものへと進化していくはずです。悪意あるボットが身を潜める余地は、徐々に狭まっていくでしょう。
今後は、サイバーセキュリティ業界に優秀なアルゴリズム設計者や数理専門家が流れ込む時代になるはずです。これまで金融業界(ウォール街)に進んでいたような人材が、今度は社会全体の安全を守るために活動してくれると期待しています。
そして私は、36年のキャリアの中で初めて、「未来の方が安全になる可能性がある」と本気で感じています。絶望ではなく、希望が見えてきました。防御が、最終的には勝つのです。
だからこそ、皆さんも声を上げてください。AIによる攻撃はすでに始まっており、今後ますます増えていきます。しかし、私たちもまた、AIを使って戦っていくのです。
原典:Roger Grimes著 2025年7月10日発信 https://blog.knowbe4.com/ai-attacks-are-coming-in-a-big-way-now