KnowBe4 Blog (JP)

エージェンティックAI時代は人とAIを守る「二重の防御」が必須に

作成者: TOKYO, JP|Nov 19, 2025 12:00:01 AM

サイバーセキュリティはいま、最大級の転換期にあります。その中心に、業務でのAI活用があります。

AIはすでに業務に欠かせない存在です。Goldman Sachsは、2030年までにエージェンティックAIやAIエージェントがソフトウェア市場の約60%を占めると推計します。また、Gartnerはエンタープライズ向けのアプリケーションの40%が2026年までにタスク特化型のAIエージェントを組み込むと予測しています(現在は5%未満)。このようにAIの利用が増えていく結果、新たなアタックサーフェスが広がり、従来にないセキュリティ戦略が求められるようになりました。

長年、サイバーセキュリティの現場は「最大の脆弱性は人」という前提で動いてきました。実際、侵害の60%以上にはヒューマンエラーが関与し、フィッシングやソーシャルエンジニアリングは常に効果的な攻撃手口の上位にあります。

しかし、AIエージェントの普及に伴い、今後の課題は人の脆弱性にとどまりません。その中心にあるのが、人とAIのやり取りに起因する複合リスクで、すでに攻撃者がその弱みを狙い始めています。

サイバーセキュリティにおけるAIの二面性

サイバーセキュリティにおけるAIの難しさは、利点とリスクが同時に生じる点にあります。防御面では、異常検知やレスポンスの自動化、脅威情報の即時分析など、人手では難しい規模と速度で機能します。

一方で、攻撃の巧妙化も加速させます。攻撃者はすでにAIを活用し、フィッシングやディープフェイクの生成、偵察活動の自動化などを行っています。

また、AIそのものが攻撃対象にもなり得ます。例えば、プロンプトインジェクションやデータポイズニング、敵対的サンプルといった手法でAIが狙われます。

ゲートウェイセキュリティのその先へ

従来のアプローチは、ゲートウェイ対策やファイアウォール、侵入検知(IDS/IPS)、エンドポイントセキュリティに重点が置かれてきました。これらは今でも重要ですが、AIエージェントが増える中、これらだけでは不十分です。

最大のギャップは、従業員がAIエージェントを使う「インタラクション層」にあります。インタラクション層とは、業務でAIエージェントと指示やデータをやり取りする場面です。ここでは、従来の対策では防ぎきれない新たな脆弱性が顕在化しています。

以下は、このギャップを悪用した脅威の例です:

  • プロンプトインジェクション攻撃:不正な指示でAIエージェントを欺き、許可されていない操作の実行、機密情報の引き出し、セキュリティ機能のバイパスを狙います

  • AIエージェントのなりすまし:正規ツールを装った不正なAIエージェントを展開し、従業員の認証情報や機微情報を窃取します

  • AIを逆手に取ったソーシャルエンジニアリング:従業員のAIへの信頼を突き、侵害されたAIエージェントを内部脅威として悪用する高度な攻撃です

なぜ人とAIの「インタラクション層」が重要か

AIを導入しても、セキュリティにおける「人」の要素はなくなりません。だからこそKnowBe4は、現代のセキュリティで最も重要かつ脆弱な2つの要素を守ることを使命としています。

1. ヒューマンレイヤー: 従業員がAIと安全にやり取りし、悪意のある操作の試みを見抜き、AIが出力した情報を検証できるようにす

2. エージェントレイヤー: AIエージェントを不正プロンプト、データ持ち出し、無許可のツール実行から保護する

KnowBe4のHRM+プラットフォームは、この双方のレイヤーを守ることを中心に設計されています。両レイヤーを組み合わせることで、他にない「二重の防御」を実現します。

トレーニングの進化:セキュリティ意識からAIリテラシーへ

これまでほとんどの企業は、フィッシングや不審なリンクを見抜くためのセキュリティ訓練に時間をかけてきました。これからは、AIリテラシーの普及が不可欠です。単にAIを「使える」ようになるだけではなく、誤用や侵害の兆候を見極められることが重要です。

効果的なAIセキュリティ教育で重視すべき点は次のとおりです。

  • AIエージェントの管理能力: AIエージェントを使った出力を確認・検証すること。重要な意思決定に関わる出力であればあるほど重要になります

  • 安全なプロンプト作成: AIエージェントが無許可の操作や情報流出を起こす恐れのあるプロンプトを見極め、使わない

  • AIの挙動を理解: AIエージェントが想定外のふるまいをしていないかを見分けられるようになる

AI時代のリスクをどう定量化するか

リスクアセスメントは、AI特有の脆弱性を織り込んでアップデートする必要があります。従来のユーザー行動・端末・ネットワーク中心の指標に加え、次の観点もリスクスコアに組み込みます。

  • 個人リスクの高さ: AIを介した攻撃の影響をどれだけ受けやすいか
  • AIエージェントのセキュリティ体制: 従業員がやり取りするAIエージェントのガードレールと監査の整備状況
  • データの機密性: 人とAIのやり取りで扱う情報の機密レベル
  • 業務への影響: AIエージェントが侵害された場合の影響の大きさ

「人×AI」のセキュリティ文化を築くには

技術だけに依存する戦略は効果的ではありません。最終的にセキュリティを左右するのは人の行動です。

AIを前向きに使いつつ、出力を鵜呑みにせず、必ず検証と裏取りを行う文化を育てましょう。

いま必要なのは適応型のセキュリティ

脅威は高速で進化し、AIは攻撃も防御も加速させます。強靭さを保つためには、学習しながら設定・運用・教育を継続的に更新できる適応型のセキュリティプログラムが必要です。

年1回の一斉トレーニングから脱却し、状況と役割に応じて内容と頻度を更新する個別最適化の教育に切り替えましょう。AIで検知・対応を自動化しつつ、従業員がAIの出力を監督・検証できる力を育てることが重要です。

未来のセキュリティは「二重の防御」

人とAIの境界はこれからますます曖昧になります。この現実を受け止め、人とAIの包括的なセキュリティ教育に投資する組織こそが、未曽有の技術変化の時代において強靭な体制を維持できるでしょう。

メッセージは明確です。AIの時代、セキュリティは「人がシステムから攻撃されないように守る」「システムを人から守る」だけでは足りません。人間の知性とAIの知性が交わる動的な相互作用そのものを守ること。そこに最大の脆弱性と、最大の防御力の両方が存在します。

KnowBe4は、人という要素を弱点から強みに変えることを常に使命としてきました。いま私たちはこの使命をAIのワークフォースへも拡張し、組織のデジタルチームの一員である人もAIも、ポリシーに沿って安全かつ責任あるかたちで機能するよう支援します。

詳細については、これまでに公開した各機能の概要と、2025年4月のKB4-CONカンファレンスで発表された製品デモをご覧ください。

原典:Stuart Clark著 2025年10月8日発信 https://blog.knowbe4.com/securing-the-human-ai-boundary-why-the-future-of-cybersecurity-must-train-people-and-ai-agents