KnowBe4 Blog (JP)

止まらない“シャドーAI”の拡大──便利さの裏に潜むリスクとは?

作成者: TOKYO, JP|May 20, 2025 12:00:00 AM

誤解のないように申し上げると、私は日常的にリサーチや執筆のために生成AIを活用しています。この記事は、知識が不十分なままAIを使い、結果的に勤務先の組織にリスクをもたらしてしまう可能性があるユーザーについての話です。

止まらない“シャドーAI”の拡大──便利さの裏に潜むリスクとは?

誤解のないように申し上げると、私は日常的にリサーチや執筆のために生成AIを活用しています。この記事は、知識が不十分なままAIを使い、結果的に勤務先の組織にリスクをもたらしてしまう可能性があるユーザーについての話です。

シャドーITは長年にわたり、企業の環境において未承認のアプリケーションやクラウドサービス、放置されたBYOD(Bring Your Own Device)システムといった形で存在してきました。さらに、シャドーAIは技術の進化につれて、より検知が困難で、制御が難しい姿へと変わりつつあります。従業員が業務効率化のためにAIを使用することで、新たなリスクをもたらす可能性があるのです。

Claudeを使ったコンテンツ作成やGeminiに機密コードを入力するといった行為は、生産性や利便性は上がりますが、適切な管理がなければ、組織にとって大きなリスクとなりかねません。

ChatGPTの社内利用のうち、74%が個人アカウントを通じて利用されています。つまり、DLP(Data Loss Prevention)や暗号化、ログの記録といったエンタープライズ向けの管理機能が一切適用されていないのです。さらに、38%の従業員が上司の許可なく業務上の機密情報をAIツールに入力していると答えています。これは意図的ではないとはいえ、フィッシングメールのリンクをクリックする行為と同じくらい危険で、深刻な内部脅威となっています。

見過ごされがちなセキュリティリスク
シャドーAIによるリスクは、偶発的なデータ漏えいだけにとどまりません。一例を上げると、AI搭載のコーディングアシスタントを利用する開発者が、レビューや検証を経ていない不適切なコードをアプリケーションに組み込んでしまう可能性があります。

また、カスタマーサポート部門がAIチャットボットを利用して問い合わせに対応すると、顧客の個人情報が外部のツールを通じて処理され、プライバシーリスクが生じる場合もあります。さらには、AI機能付きのブラウザプラグインが、入力フォームのデータやクリップボードの内容、会議の録音データまで密かに収集してしまう可能性もあります。

ネットワーク面でも課題があります。従業員がAI搭載のプロキシやVPNを使ってアクセス制御を回避することで、組織のセキュリティポリシーが損なわれ、攻撃者にとっての侵入する隙を与えることになります。会議の文字起こしなどに使われるAIツールも、機密情報をITの管理外にある外部環境に保存することがあります。

今や、こうした単発のリスクではなく、利便性と生産性の追求によって組織の攻撃対象領域が拡大しているのです。

シャドーAIへの対策
AIを使用するリスクがあるとはいえ、生成AIプラットフォームのすべてをファイアウォールでブロックすべきというわけではありません。そのような対策方法はダムのひび割れを指で水漏れを止めようとするようなものです。水が別の道を探すように、ユーザーもまた抜け道を見つけるだけです。

シャドーAIへの対策は、 “透明性”が重要になります。組織は、AIの利用に関する明確な利用規約を策定し、何が許され、どのようなデータが入力可能なのか、使用して良いツールはどれかといったルールを明確に伝える必要があります。

教育面では、セキュリティ意識を超え、ヒューマンリスクの管理に焦点を当てるべきです。従業員は悪意があってAIを利用しているわけではなく、自身の問題を解決しようとしているだけです。したがって、教育は脅しではなく、理解の促進であるべきです。AIに入力するひとつのプロンプトがデータ漏えいやコンプライアンス違反につながることを実際に示すことで、自身の行動とその影響を実感してもらうことができます。

また、AI利用の可視化も不可欠です。ブラウザのテレメトリ、エンドポイント検知、ネットワークトラフィック分析などを通じて、未承認のAIツールの利用を検知できるような監視体制が求められます。ただし、すべてをブロックするのではなく、ユーザーのニーズを把握することが必要です。生成AIへのアクセスが必要な場合、生成AIポータルを導入することで、ユーザーはAPI経由で複数のAIプラットフォームが利用でき、管理者はフィルターを設け、機密情報が外部に漏れないようにすることができます。

さらに、AIツールの利用を承認する前に、調達プロセスにおいて適切なレビューを行う必要があります。ユーザーが新しいAIツールの導入を希望する場合、そのニーズやビジネス上の目的を明確化したうえで、法務部門、広報、IT、サイバーセキュリティ部門が連携してデータ保護の観点から適合性を確認するプロセスが必要です。

上記のプロセスでは、データの保存、処理、共有方法に加え、暗号化、シングルサインオン(SSO)、監査ログといったエンタープライズ向け機能の有無を確認します。これらの要件を満たさないツールは、組織のITインフラに組み込むべきではありません。

事例:Samsungで起きたシャドーAIインシデント
シャドーAIのリスクを大きく広めた出来事が、2023年にSamsungで起きました。同社のエンジニア数名が、コードのデバッグや業務最適化のためにChatGPTを利用したところ、社内の機密情報や独自のソースコードをアップロードしました。このインシデントを受け、SamsungはOpenAIに対し、該当データを学習データから削除するよう要請しました。さらに、社内全体で生成AIツールの使用禁止措置を導入しました。

この件は、悪意なく行われたことであり、マルウェアもフィッシングも関係ありません。従業員が自身の業務をより良くしようとした結果、知的財産を危険にさらしてしまったのです。

事例:AIガバナンスプログラムの構築
あるFortune 500の金融企業では、マーケティング、法務、IT部門などの従業員は、ドキュメントの要約やレポートの作成、SNS投稿の原稿作成などに生成AIを使用していました。が見られ始めました。経営陣はシャドーAIの兆候を認識し、6ヶ月にわたる取り組みを開始しました。

まず、どのAIツールがどのような目的で使われているかを把握するために調査を実施しています。その結果、20種類以上の未承認ツールが使用されており、その多くが安全でないAPI経由でデータを処理していることが判明しました。次に、利用可能なツール、禁止される用途、従業員の責任を明記したAI利用規定を策定しました。

規定を定めた後、ガバナンス体制を構築する必要がありました。承認済みのAIツールをホワイトリストとして整備し、ブラウザのテレメトリツールを導入して未承認ツールの使用を検知できるようにしました。また、AIツールの使用レビューを監査項目に追加しました。さらに、ヒューマンリスクへの対策として、生成AIとAIリスクに関する四半期ごとのトレーニングを実施し、最新のトレンドや脅威について継続的に従業員を教育しました。

この取り組みにより、シャドーAIの使用は4ヶ月で60%減少した上で、必要なツールが整備されたことで従業員満足度も高い水準を維持しました。

求められるのはセキュリティ文化の変革
シャドーAIはテクノロジーの課題ではなく、「人」です。また、他のインサイダーリスクと同様、悪意のない行動が原因となります。これを単なるポリシー違反として取り締まるだけでは不十分です。セキュリティ文化を育み、ユーザーが安心してサポートを受けられる環境を整えた組織こそが、今後も一歩先を行くことができるのです。

以下を自問してみてください:

  1. 組織のAI利用状況を正確に把握できていますか?

  2. 従業員は、AI利用のどこまでが許容範囲なのかを理解していますか?

  3. AIポリシーやシステムは、実際の業務実態に適していますか?

もし答えが「いいえ」であれば、今こそ課題を解決する時です。シャドーAIは、すでに大きなリスクであり、自然と消えることはありません。

原典:James McQuiggan著 2025年4月10日発信 https://blog.knowbe4.com/shadow-ai-a-new-insider-risk-for-cybersecurity-teams-to-tackle