AIエージェントは味方かリスクか?いま見直すべきヒューマンリスクマネジメント

TOKYO, JP | 2026年04月29日

AdobeStock_1460873969

AIは単なる新しいトレンドではなく、イノベーションとリスクの両方を一気に増幅させる存在です。先日、KnowBe4 Bryan Palma CEOとForresterのジナン・バッジ氏によるAIウェビナーが開催されました。そこで語られたメッセージは、非常に明確なものでした。そのメッセージとは、AIやAIエージェントの台頭がヒューマンリスクのあり方を根本から変えており、リーダーには迅速な対応が不可欠だ、というものです。

AIに関連するインシデントの44%増加や、24時間稼働する自律型AIシステムの普及など、セキュリティは大きな転換点を迎えています。これまで別と考えられてきた「人のリスク」と「テクノロジーのリスク」の境界線は消えつつあります。それに代わって現れたのは、人とマシンが混在する組織全体のリスクをどう管理するかという、新たな複合的な課題です。

AIにより拡大する攻撃対象領域

Palmaが指摘したように、AIは脅威の規模、スピード、巧妙さを一段と押し上げています。企業は今、次の2つの課題に直面しています。

  • 意図しないリスク:従業員が悪気なくAIツールを誤って使ってしまうこと
  • 悪用によるリスク:攻撃者がディープフェイク、ビッシング、プロンプトインジェクションなどにAIを使うこと

Jinan Budge氏は、今まさに求められている対応の緊急性について、次のように警鐘を鳴らしています。

「AIエージェントは『無限の意志』を持つように訓練されており、それこそがAIの驚異的な点です。しかし同時に、だからこそ私たちはAIに対して適切なガードレール(制約)を設ける必要があるのです。」

人間とは異なり、AIエージェントは眠ることも、手を止めることも、ためらうこともありません。その結果、攻撃可能な時間が大幅に拡大しており、攻撃者はすでにその隙を突き始めています。

シャドーAIは新たなシャドーIT

今回のウェビナーで特に印象的だったのは、従業員の最大40%が、気づかないうちに大規模言語モデル(LLM)へ機密情報を入力したことがあるという指摘です。これは単なる技術の問題ではありません。組織文化の問題です。

セキュリティが業務を支える存在ではなく、邪魔をする存在になってしまうと、ユーザーは回避策を探します。回避策が見つかれば、一気に広がっていきます。

Budge氏は次のように説明しています。

「セキュリティ部門が『ダメ』と言うだけの存在になってしまうと、結局、誰もが回避策を探すようになります。それは決して悪意があるからではなく、単に自分の仕事を終わらせたいだけなのです。」

ここで重要になるのが、ヒューマンリスクマネジメントです。単にユーザーをトレーニングするためではなく、行動をリアルタイムで把握し、適切な行動を促すことまでが重要になります。

AIエージェントとは管理の及んでいない「新入社員」

多くの組織はAIエージェントの導入を急速に進めていますが、従業員ほど厳密に管理されてはいません。導入時の研修も、バックグラウンドチェックも、ガバナンスもないのが現状です。Palma氏は、この状況を次のように指摘しました。

「人を採用し、働いてもらうまでには、審査やトレーニング、そして日々のモニタリングといったプロセスが欠かせません。ですが、AIエージェントに対しては、まだそうした仕組みがありません。」

このギャップが、リスクを招いています。多くの組織では、AIエージェントがどこで稼働し、何を行い、どのデータにアクセスできるのかといった基本的な状況も把握できていません。

基盤となるガバナンスと、立ち遅れる現状

AIガバナンスの枠組みやポリシー、監視委員会の整備は、ようやく始まったばかりです。しかし、この遅れが重大なリスクを招きます。Jinan氏は、多くの組織がいかに後手に回っているかを指摘しました。

効果的なAIセキュリティには、次のような包括的なアプローチが求められます。

  • ガバナンス、リスク、コンプライアンス(GRC)
  • ID・アクセス管理
  • データセキュリティとプライバシー
  • ゼロトラストの原則

これは一つの製品で解決できる問題ではありません。組織全体で取り組むべき課題です。

セキュリティ部門とIT部門のリーダーが押さえるべき5つのポイント

ウェビナーに参加できなかった方に向けて、今すぐ行動につなげるべき重要なポイントを5つに整理します。

1. AIはヒューマンリスクをなくすのではなく、拡大させる

AIはヒューマンリスクを解消するのではなく、むしろ増幅させます。従業員が自ら判断し、ツールを使い、リスクを招くという構図は変わりません。ただ、そのスピードと規模がこれまで以上に拡大しています。

2. AIエージェントは従業員と同じように扱い、同じように守る必要がある

AIエージェントを守るには、まずエージェントを労働力の一部として扱う必要があります。つまり、オンボーディング、ガバナンス、ID管理、継続的なモニタリングをするということです。人を監督なしで現場に出さないのであれば、AIエージェントにも同じ基準を求めるべきです。セキュリティ、説明責任、ガードレールは、あってもよいものではなく、前提条件です。

3. 可視化が第一歩になる

見えていないものは守れません。まずは、次の点を明確に把握することから始める必要があります。

  • 利用されているAIツール
  • 導入済み、または開発中のAIエージェント
  • AIシステムに共有されているデータ
4. リスクは思い込みではなく、測定する必要がある

AIエージェントを守るには、感覚ではなく、測定できるリスクに基づいて判断する必要があります。現代のヒューマンリスクマネジメントは、人に対してだけでなく、今後はAIエージェントに対しても、行動ベースのリスクスコアリングを重視していきます。これにより、画一的なトレーニングではなく、リアルタイムで的を絞った対応が可能になります。

5. セキュリティ文化そのものを進化させる必要がある

最も本質的な変化が求められているのは、技術ではなく文化です。人とAIエージェントが並んで働く時代において、組織は「セキュリティ文化」とは何かを、改めて見直さなければなりません。

まとめ

AIは非常に大きなチャンスです。ただし、その恩恵を得られるのは、規律を持って向き合える組織に限られます。

AIを無視することも、ただ禁止することもできません。そして、これまでの戦略のままでは、今の脅威から組織を守り切ることも不可能です。セキュリティリーダーが進むべき道は明確です。AIを積極的に受け入れ、厳格なガバナンスを効かせ、その中心にあるヒューマンリスクを管理すること。今、それが求められています。

Topics: フィッシング, KnowBe4 SATブログ, セキュリティ文化

Get the latest insights, trends and security news. Subscribe to CyberheistNews.