プレスリリース | KnowBe4

KnowBe4 Japan調査、AIエージェントに対する従業員のセキュリティ意識が明らかに

作成者: TOKYO, JP|2026年3月31日

従業員のリスク理解は30%に停滞。セキュリティ責任が「全員にある」と考える層はわずか25%。AIエージェント普及の裏で広がる「ガバナンスの空白」が浮き彫りに

ヒューマンリスクとエージェンティックAIのリスクマネジメントを包括的に支援する世界的サイバーセキュリティプラットフォームベンダーであるKnowBe4 Japan合同会社本社:東京都港区、職務執行者社長:力 一浩)は本日、日本国内の企業・団体に勤める従業員を対象に実施した「AIエージェントのセキュリティへの影響に関する意識調査」の結果を発表しました。

本調査は、昨年の「生成AIのセキュリティへの影響に関する意識調査」に続き、自律的にタスクを遂行する「AIエージェント」の普及に伴うセキュリティリスクの意識と実態把握を目的に実施しました。

調査の結果、AIエージェントの利用拡大への期待が高まる一方、情報漏洩や著作権侵害といった「ヒューマンリスク」への懸念と、従業員のリスク理解の停滞という課題が改めて浮き彫りになりました。特に、AIが自律的に動く「エージェンティックAI」時代において、リスク許容範囲の定義や、予算・ルールの決定権限の所在が曖昧な「ガバナンスの空白」が生じている現状が明らかになりました。

AIエージェントが業務に深く浸透する過渡期において、組織的な責任共有の議論と、技術の進化に即したセキュリティ文化の醸成が急務となっています。

主な調査結果

  • AIエージェントの利用状況と活用意向:回答者の40%が自組織でAIエージェントをすでに導入しており、今後の利用拡大を見込む回答は70%(「そう思う」36%、「ややそう思う」34%)に上ります。昨年の生成AI調査では導入率が62%、拡大見込みが73%でしたが、AIエージェントは生成AIと比較してより専門性・自律性が高いツールであることから、導入はより慎重に進んでいる状況がうかがえます。
  • セキュリティリスクの認識と懸念:AIエージェントの利用に伴うセキュリティリスクを「大きい」と認識している回答者の割合は68%(「そう思う」27%、「ややそう思う」41%)でした。特に懸念として多く挙げられたのは「機密情報の漏洩」が最多で、次いで「著作権などの侵害」「ハルシネーション(誤情報の生成)」という、いずれも人の判断や操作に起因するヒューマンリスクが上位を占めました。
  • リスク理解の現状:AIエージェントを利用する際のセキュリティリスクを「従業員が理解している」と答えた回答者の割合は合計30%(「そう思う」6%、「ややそう思う」24%)にとどまりました。昨年の生成AI調査(32%)と比べてほぼ横ばいであり、AIの形態が変わっても「組織としてのリスク理解」が追いついていない現状が続いています。
  • セキュリティ責任の所在:AIエージェントを利用する際のセキュリティへの責任が、経営者、IT/セキュリティ部門、AIエージェントを使う従業員の「全員にある」と考える回答者はわずか25%にとどまりました。
  • AI悪用の脅威認識:AIを悪用したサイバー攻撃について、「脅威に感じる」と回答した割合は合計83%(「そう思う」46%、「ややそう思う」37%)となり、昨年の74%から9ポイント上昇しました。深刻化が懸念される攻撃として「フィッシングメール/SMS」「ランサムウェア」「ビジネスメール詐欺(BEC)」がほぼ同数で上位に並び、ソーシャルエンジニアリング系攻撃のAIによる高度化への警戒感が強まっています。
  • 強化すべき対策:AIエージェント利用に伴うリスク低減策として最も多く選ばれたのは「セキュリティ教育・リテラシー教育の実施」、次いで「利用規定〔ポリシー〕の策定と周知」「エージェントへのアクセス制御の強化」でした。また、AIを悪用したサイバー攻撃への対応策も「セキュリティ訓練/教育」が最多となり、技術的対策にとどまらず「人」へのアプローチを重視する傾向は今年も変わりませんでした。

調査レポートの全文は、こちらからご覧いただけます。

調査から見えた3つの大きな課題

  1. 普及の加速に追いつかない組織教育:AIエージェントの利用拡大は確実視されていますが、従業員のリスク理解度は30%と、前年(32%)から改善が見られません。技術の進化スピードに対し、組織の教育体制が取り残されています。
  • 「ガバナンスの空白」が生む不測の事態への脆弱性:AIエージェント利用の責任が「全員にある」と回答した層はわずか4分の1(25%)でした。役割に応じた責任分散の議論が不足しており、AIが自律的に動く中で事故が起きた際、対応の遅れや特定部署への過度な負担を招く「ガバナンスの空白」が生じています。
  • 技術が進化しても、リスクの核心は「人」:懸念されるリスクの上位には「機密情報漏洩」「著作権侵害」「ハルシネーション(もっともらしい嘘)」が並びます。AIがどれほど自律化しても、それを利用・管理する「人」の判断が最大の防御層(ヒューマン・ファイアウォール)であることに変わりはありません。

■KnowBe4 Japan 合同会社 職務執行者社長 力 一浩のコメント

「従業員の68%がAIエージェントのセキュリティリスクを大きいと感じている一方で、自社の従業員のリスク理解が浸透していると回答した割合は30%にとどまり、リスクへの不安に対して実際の知識が伴っていない現状が明らかになりました。現場は正しいルールを理解しないまま、不安と利便性の間で揺れる『ガバナンスの空白地帯』に置かれていると考えられます。

AIエージェントは単なるツールを超え、業務を自律的に遂行する『パートナー』へと進化しました。同時に、ソーシャルエンジニアリング攻撃もAIによって極めて自然なものへと巧妙化しており、『システムでブロックする』といった従来の対策はもはや限界を迎えています。AI時代のリスク管理は、システムによる物理的な壁を築くこと以上に、組織全体の倫理観と判断力を底上げし、人間側に強固な『ヒューマン・ファイアウォール』を構築するフェーズにあります。

自律的に動くエージェントだからこそ、それを統制する側の人間に正しく扱う責任を課す体制構築が欠かせません。『誰が責任を持つのか』というガバナンスの空白を埋めるため、明確なガイドライン策定を行い、知識を実際の行動に変える必要があります。セキュリティを『やらされるもの』ではなく『組織の当たり前』にするセキュリティ文化の醸成と、進化し続けるリスクに適応する『継続的な教育』への投資こそが、2026年の最優先事項となります。」

■調査概要

調査名:AIエージェントのセキュリティへの影響に関する意識調査

調査期間:2025年12月〜2026年1月

調査対象:日本国内の企業・団体に勤務する従業員

回答者数:362

調査方法:日経クロステックActiveリサーチによるオンラインアンケート

<KnowBe4について>

KnowBe4 は、従業員が日々、より賢明なセキュリティ判断を下せるよう支援します。世界中で70,000 以上のお客様に支持され、セキュリティ文化の強化とヒューマンリスクマネジメントの実現を支援しています。ヒューマンリスクマネジメントのための包括的で AI ドリブンな「ベスト・オブ・スイート」プラットフォームで、人の行動を変容し、最新のサイバー脅威に柔軟に対処できる防御層を構築します。KnowBe4が提供するHRM+プラットフォームには、セキュリティ意識向上およびコンプライアンストレーニング、クラウドメールセキュリティ、リアルタイムコーチング、クラウド型アンチフィッシング、AI ディフェンスエージェントなどが含まれます。AIがビジネスオペレーションにますます組み込まれるようになる中、KnowBe4は、人間とAIエージェントの両方がセキュリティリスクを認識し、対応できるようにトレーニングすることで、現代の従業員を育成します。この統合アプローチを通じて、KnowBe4は「ワークフォース・トラスト・マネジメント」と防御戦略をリードしています。詳細はこちらをご確認ください。

LinkedInXTikTokInstagramもぜひご覧ください。