ディープフェイク版TikTok? OpenAIの Sora 2 の実態

TOKYO, JP | 2025年10月22日

live-webinar-living-in-world-deepfakes-security-awareness-defence-strategies-showcase_image-3-w-5722

OpenAIが、動画と音声を生成する新しいAI「Sora 2」を発表しました。精巧なAIがさらに身近になる一方で、ディープフェイクの悪用リスクへの懸念も高まっています。

The Vergeは次のように報じています。「Sora 2は動画生成における“ChatGPT”になり得るとOpenAIは説明しています。また、一般の利用者がまるで本物の映像と言葉を作って遊べるソーシャルアプリも同時に用意しています。これは実質、意図的にディープフェイクを広めるためのアプリです。」

このソーシャルアプリ「Sora」では、友人の姿を使った動画を作成することができます。現時点では招待制で、対象は米国とカナダのiOSユーザーに限定されていますが、拡大は時間の問題でしょう。

The Vergeの説明によると、Soraアプリの使い勝手はTikTokに近く、縦型動画が集められた「For You」ページを備えています。特徴的なのが「Cameos」機能です。ユーザーはアプリ内で短い動画を撮影(頭を左右に動かし、指定された数字を読み上げるなど)し、顔と声の利用を許可します。アップロード後は、テキストによる指示文(プロンプト)で自分や他人の姿を使った映像や音声を生成できます。

自分のみ/承認した人のみ/相互フォローのみ/全員など、誰が自分の「Cameo」を使ってよいかは細かく制御できます。 また、他社が作成した動画でも、自分の姿が使用されているユーザーにも管理権限があり、作成権限を取り消し、動画の削除などが可能です。ブロック機能もあり、公開前の下書きを本人が確認できる仕組みもあります。将来的に本人の最終承認が必須となる可能性はあるものの、現時点では未実装とのことです。

OpenAIは、保護者向けの管理機能など各種セーフティー設定を用意し、悪用の芽を摘む狙いです。ただし、こうした安全策はしばしば回避されます。実際、他社の生成AIでは権利無視や不適切な画像・動画の生成が報告されています。また、著名人のディープフェイクが簡単に作られた事例もあります。OpenAIも今回の公開では「著名人の扱いを制限する」としていますが、将来の取り扱いがどうなるかは不透明です。

なお、弊社のChief Human Risk Management StrategistであるPerry CarpenterとCISO AdvisorのJames McQuigganが早期アクセスでSora 2を試用中です。機能の具体例は以下の動画(英語のみ)をご覧ください。

KnowBe4のセキュリティ意識向上トレーニングは、従業員のセキュリティ意識を高め、日々求められるセキュリティ上の判断に従業員一人ひとりが的確な意志決定を下すことを可能にします。世界の7万社を超える企業や団体がKnowBe4を採用して、防御の最終ラインとして「人」による防御壁を構築して、セキュリティ文化の形成につなげています。

詳細については、The Vergeの記事を参照してください。

Topics: フィッシング, KnowBe4 SATブログ, セキュリティ文化

Get the latest insights, trends and security news. Subscribe to CyberheistNews.