ヒューマンリスクとエージェンティックAIのリスクマネジメントを包括的に支援する世界的サイバーセキュリティプラットフォームベンダーであるKnowBe4 Japan合同会社(本社:東京都港区、職務執行者社長:力 一浩)は本日、日本国内の企業・団体に勤める従業員を対象に実施した「AIエージェントのセキュリティへの影響に関する意識調査」の結果を発表しました。
本調査は、昨年の「生成AIのセキュリティへの影響に関する意識調査」に続き、自律的にタスクを遂行する「AIエージェント」の普及に伴うセキュリティリスクの意識と実態把握を目的に実施しました。
調査の結果、AIエージェントの利用拡大への期待が高まる一方、情報漏洩や著作権侵害といった「ヒューマンリスク」への懸念と、従業員のリスク理解の停滞という課題が改めて浮き彫りになりました。特に、AIが自律的に動く「エージェンティックAI」時代において、リスク許容範囲の定義や、予算・ルールの決定権限の所在が曖昧な「ガバナンスの空白」が生じている現状が明らかになりました。
AIエージェントが業務に深く浸透する過渡期において、組織的な責任共有の議論と、技術の進化に即したセキュリティ文化の醸成が急務となっています。
主な調査結果
調査レポートの全文は、こちらからご覧いただけます。
■調査から見えた3つの大きな課題
■KnowBe4 Japan 合同会社 職務執行者社長 力 一浩のコメント
「従業員の68%がAIエージェントのセキュリティリスクを大きいと感じている一方で、自社の従業員のリスク理解が浸透していると回答した割合は30%にとどまり、リスクへの不安に対して実際の知識が伴っていない現状が明らかになりました。現場は正しいルールを理解しないまま、不安と利便性の間で揺れる『ガバナンスの空白地帯』に置かれていると考えられます。
AIエージェントは単なるツールを超え、業務を自律的に遂行する『パートナー』へと進化しました。同時に、ソーシャルエンジニアリング攻撃もAIによって極めて自然なものへと巧妙化しており、『システムでブロックする』といった従来の対策はもはや限界を迎えています。AI時代のリスク管理は、システムによる物理的な壁を築くこと以上に、組織全体の倫理観と判断力を底上げし、人間側に強固な『ヒューマン・ファイアウォール』を構築するフェーズにあります。
自律的に動くエージェントだからこそ、それを統制する側の人間に正しく扱う責任を課す体制構築が欠かせません。『誰が責任を持つのか』というガバナンスの空白を埋めるため、明確なガイドライン策定を行い、知識を実際の行動に変える必要があります。セキュリティを『やらされるもの』ではなく『組織の当たり前』にするセキュリティ文化の醸成と、進化し続けるリスクに適応する『継続的な教育』への投資こそが、2026年の最優先事項となります。」
■調査概要
調査名:AIエージェントのセキュリティへの影響に関する意識調査
調査期間:2025年12月〜2026年1月
調査対象:日本国内の企業・団体に勤務する従業員
回答者数:362
調査方法:日経クロステックActiveリサーチによるオンラインアンケート
<KnowBe4について>
KnowBe4 は、従業員が日々、より賢明なセキュリティ判断を下せるよう支援します。世界中で70,000 以上のお客様に支持され、セキュリティ文化の強化とヒューマンリスクマネジメントの実現を支援しています。ヒューマンリスクマネジメントのための包括的で AI ドリブンな「ベスト・オブ・スイート」プラットフォームで、人の行動を変容し、最新のサイバー脅威に柔軟に対処できる防御層を構築します。KnowBe4が提供するHRM+プラットフォームには、セキュリティ意識向上およびコンプライアンストレーニング、クラウドメールセキュリティ、リアルタイムコーチング、クラウド型アンチフィッシング、AI ディフェンスエージェントなどが含まれます。AIがビジネスオペレーションにますます組み込まれるようになる中、KnowBe4は、人間とAIエージェントの両方がセキュリティリスクを認識し、対応できるようにトレーニングすることで、現代の従業員を育成します。この統合アプローチを通じて、KnowBe4は「ワークフォース・トラスト・マネジメント」と防御戦略をリードしています。詳細はこちらをご確認ください。