AI の脅威: 2024 年のアメリカの選挙はどのように危険にさらされるのか?



政治専門紙の「THE HILL」に、2024年米国大統領選にAIが与える影響に対する懸念が高まっているという記事が掲載されていましたが、興味深い内容なのでその一部を紹介します。

画像1-Jan-25-2024-01-32-08-7415-AMAIテクノロジーがさらに進歩し、テキスト、画像、音声、ディープフェイク動画をさらに容易に生成できるようになれば、偏った政治主張を助長するディスインフォメーション(意図的な偽情報)が加速し、有権者の選挙への信頼が損なわれることが懸念されています。

シカゴ大学のEthan Bueno de Mesquita氏は、2024年の選挙を「AI選挙」と呼び、AIが政治にもたらす新たな課題について警告しています。同氏は、AIチャットボットが基本的な選挙情報について有権者に誤解を与える可能性や、AI が候補者や争点に反する虚偽の情報を作成して広めるのに使用される可能性があるとの懸念があると述べています。

世論調査の結果でも、米国国民の間でAIが虚偽の情報を広めることへの懸念が高まっていることが明らかになりました。AP通信とシカゴ大学全米世論調査センター(NORC)が実施した世論調査では、AIによるディスインフォメーションの増加を懸念する意見が、共和党か民主党、どちらを支持するかに関わらず、過半数を占めました。同様に、データインテリジェンス企業のMorning Consult社とニュースサイトのAxiosの共同調査では、AIが候補者の広告や選挙結果に対する信頼に悪影響を及ぼすと考える米国の成人が増加していることを示しています。回答者の約60%が、AIが広めるディスインフォメーションとそれが大統領選に影響を及ぼすと考えています。

AIの政治利用はすでに表面化しています。例えば、AIが生成したトランプ前大統領の音声が政治広告に使われ、トランプ陣営が敵対勢力を批判するナレーションを入れた動画が改変され投稿されています。そして、政治キャンペーンを支援する世界初のAIを搭載したDJ アシュリーも登場していますが、このようなAIの利用には懸念の目も向けられています。

選挙へのAIの利用には規制を求める動きがあります。Googleは現在、選挙広告の依頼主に対し、AIで生成または変更された選挙広告について情報を開示するよう求めています。Metaは、写真のようにリアルな描写で加工された政治広告についても同様の開示を要求しています。バイデン大統領は、安全性の基準やコンテンツ認証のガイドラインに関するAIに関する大統領令を発しました。

この分野での専門家は、有権者リストの整備や争点に基づく候補者のマッチングなど、選挙でAIを積極的に活用することの有用性も認めています。しかし、AIが誤った情報を生成し、巧妙にターゲット層を絞って展開することへの懸念は残ります。市民団体「Protect Democracy」のNicole Schneidman氏は、AIが新たな脅威をもたらさないかもしれないものの、既存の脅威を増幅させる恐れがあると警鐘を鳴らしています。AIが利用されるあらゆるケースを想定するのではなく、既知の脅威を防ぐことに重点を置くべきなのかもしれません。

Schneidman氏は、「ディスインフォメーションの存在を事前に認識する”プレバンキング(偽情報に対する予防接種)”の利点は、繰り返されるディスインフォメーションを予測し、効果的に対抗するためのメッセージを作成できることです。このようなメッセージによって、有権者にディスインフレーションに対する”抗体”を作ることができ、選挙前に”抗体”を適切に取り入れることが可能になります」と述べて、この記事を締めくくっています。私もこの意見に同感です。ソーシャルエンジニアリングやディスインフォメーションの脅威を認識するように従業員をトレーニングすることは、ヒューマンファイアウォールを構築して強化するために欠かすことができません。

記事全文はこちらから参照してください。https://thehill.com/homenews/campaign/4371959-ai-artificial-intelligence-2024-election-deepfake-trump/

原典:Stu Sjouwerman著 2023年12月26日発信 https://blog.knowbe4.com/the-ai-threat-how-americas-2024-election-could-be-compromised

Topics: ディープフェイク, KnowBe4 SATブログ, AI, ディスインフォメーション

Get the latest about social engineering

Subscribe to CyberheistNews