人工知能(AI)技術の進歩に伴い、ソーシャルメディアへの影響がさらに広がっており、課題が山積しています。特に、AIが生成したコンテンツと本物のコンテンツを人が見分ける能力が問われています。
驚くべきことに、回答者の3分の1が、SNSプラットフォームでAIが生成したコンテンツを見分ける能力に自信がないことを認めており、調査対象の半数が、AIが生成した画像、メッセージ、その他のコンテンツを使用してユーザーを騙している可能性がある詐欺アカウントを頻繁に見かけていると報告しています。
さらに28%の回答者は、AIは一般的にソーシャルメディアのデータ、情報、SNS上での交流のセキュリティに悪影響を及ぼすと考えていました。
この傾向は増加しており、ユーザーの信頼、セキュリティ、そしてオンラインでの交流の将来に影響に暗い影を落としています。
ソーシャルメディアにおけるAI生成コンテンツの増加
AI生成コンテンツ(AIGC)の精度が高まっており、検出することが困難になっています。ディープフェイク動画からAIによって生成される文章まで、本物とAIの生成物との境界線はますます曖昧になっています。これらのテクノロジーは、実在しない人物の画像を作成したり、超現実的な動画を生成したり、驚くべき精度で人間の文章を模倣して作成したりすることができます。さらに、AIGCには、人の認識や政治的な見方や考え方に影響を及ぼす力もあります。
AIの能力には目を見張るものがありますが、その爆発的な成長が問題をもたらす恐れがあります。Metaの会長兼CEOであるマーク・ザッカーバーグ氏は2022年のフィードコンテンツの15%がAIによって生成されたものであり、2023年末までにこの数字は2倍以上になるとMetaが予想していると述べています。AIGCを見分けることが困難だと感じているユーザーがいるのも当然なのです。
AI生成コンテンツを識別することが難しいのは、技術的な知識だけの問題ではありません。AIコンテンツは本物らしく見えるように設計されていることから、眼識のあるユーザーでも騙されることがあります。例えば、AIは実際の人のような説得力のある写真、経歴、投稿を組み合わせた偽のプロフィールを生成できます。これらのアカウントは、誤情報の拡散から、警戒心の薄いユーザーに商品を購入させたり投資させたりする詐欺に至るまで、さまざまな目的で悪用される恐れがあります。
詐欺アカウントの脅威
ソーシャルメディアで詐欺アカウントが拡散することも懸念されています。調査によると、回答者の半数が、AI生成コンテンツを使って他人を騙している可能性があるアカウントに頻繁に遭遇するか、時々遭遇すると回答しています。これらの詐欺アカウントは、フィッシング詐欺、IDの詐取、誤情報の拡散などの悪意のあるさまざまな行為で使用される場合があります。
AIが生成する画像がもたらす課題は特異なものです。AIを使用すれば、実在しない人物を本物のように見せる画像を作成することが可能になっています。これらの画像は、本物のように見える偽のプロフィールを作成するために悪用されています。サイバー攻撃者は、ユーザーの画像を家族や友人になりすましたアカウントから入念に仕組まれたロマンス詐欺などで簡単に悪用できます。
さらに、AIはコンテンツを大規模に生成できるため、詐欺師は、最小限の労力で何千もの偽アカウントを作成できます。多くの場合、これらのアカウントは、ユーザーを騙し、人が本来持っている他者との交流やつながりへの欲求を悪用するように設計されています。
信頼への影響
ソーシャルメディアにおいてAI生成コンテンツや詐欺アカウントの存在感が増していることは、ユーザーからの信頼に重大な影響を及ぼしています。ソーシャルメディアプラットフォームが成長しているのは、ユーザーが目にするコンテンツやつながりを信頼しているためです。しかし、オンラインで遭遇するコンテンツの真正性をユーザーが疑い始めると、プラットフォーム全体に対する信頼が損なわれる可能性があります。
プラットフォームの信頼が低下することは、特に企業やインフルエンサーにとってダメージが大きくなります。マーケティングや顧客エンゲージメントにソーシャルメディアを活用している企業は、ユーザーが表示されるコンテンツに懐疑的になれば、オーディエンスとつながることが難しくなるでしょう。同じように、信頼を得て評判を築いてきたインフルエンサーは、偽のコンテンツが溢れるプラットフォームで自身の信頼性を維持するのに苦労するかもしれません。
対策
もちろん、AIは新しい時代を創り出しており、多くの人に刺激を与えています。友人や家族、同僚がAIフィルターを試したり、ソーシャルメディアで楽しむためにAI画像ジェネレーターを使用したりしているのを見たことがあるでしょう。しかし、サイバー犯罪者は利益を得るために、こうした新しいテクノロジーを悪用することがあります。AIGCや潜在的に有害なコンテンツを見抜くための意識を養うことが不可欠です。この問題に取り組むには、当然多方面から対策を講じなければなりません。
例えば、ソーシャルメディアプラットフォームを運用・管理している企業は、AI生成コンテンツや不正行為を特定できる高度な検知ツールに積極的に投資する必要があります。これらの投資には、AI生成画像やテキストの微細な矛盾を発見できるシステムや、アカウントを実際に利用している人間がいることを確認する強固な検証プロセスが含まれるでしょう。
プラットフォームレベルでこれらの問題を解決することに加えて、ユーザーの教育と意識向上も極めて重要です。ソーシャルメディアのユーザーは、偽のコンテンツを見抜き、詐欺から身を守るためのツールを活用したり、知識を身につけたりする必要があります。これらの対策には、AI生成コンテンツの一般的な兆候、注意すべきレッドフラッグ、不審なアカウントとやりとりするリスクについてユーザーを教育するためのキャンペーンが含まれます。
さらに、AI生成コンテンツの特異な課題に対処するために、規制の枠組みを更新する必要もあるかもしれません。政府や規制機関は、ソーシャルメディアにおけるAI利用の透明性と責任の基準を確立する上で、間違いなく重要な役割を果たすことができるはずです。これには、AI生成コンテンツであることの開示や、詐欺アカウントを拡散した場合にプラットフォーム側に責任を求めることなどが含まれるでしょう。
AIと正しく向き合い、AIをさらに価値のあるものにする
AIがソーシャルメディアに与える影響は拡大するはずです。しかし今、これからさらに成長するための壁にぶつかっているのかもしれません。しかし、ちょっとした準備を行い、正しい懐疑心を養い、ユーザーの意識を向上すれば、信頼とセキュリティが失われることはありません。
ユーザーの3分の1はAI生成コンテンツを識別する能力に自信がなく、半数は詐欺アカウントに頻繁に遭遇しています。ユーザー側とプラットフォーム側の双方がこの新しい現実を受け入れて対策を進める必要があることは明らかです。検出ツールに投資し、ユーザーを教育し、規制の枠組みへの今後の更新に注意を払うことで、詐欺と戦い、AIの時代により安全で安心できるオンライン環境を創り出すことができるでしょう。
原典:Javvad Malik著 2024年8月23日発信 https://blog.knowbe4.com/deceptive-ai-a-new-wave-of-cyber-threats