bytedanceは、AIに生成されたディープフェイクがどれほど現実的になっているかを示しています

  • バイテダンスは、1つの画像からリアルなディープファークビデオを生成するように設計されたAIモデルをデモしました。
  • Bytedanceは、Ted TalksとTalking Albert AinsteinのテストDeepfakeビデオをリリースしました。
  • GoogleやMetaを含むハイテク企業は、ディープフェイクをよりよく検出するためのツールに取り組んでいます。

Tiktokの親会社であるBytedanceの研究者は、1つの画像とオーディオから全身のディープファークビデオを生成するように設計されたAIモデルを紹介しました。結果は恐ろしく印象的です。

Bytedance氏によると、顔や上半身のみをアニメーション化できるいくつかのディープファークモデルとは異なり、そのオムニフマン-1は、ジェスチャーや表情をスピーチや音楽と同期する現実的なフルボディアニメーションを生成できると述べました。

Bytedanceは、AIに生成されたTEDトークやTalking Albert Ainsteinのビデオなど、数十個のテストビデオを公開しました。 オムニフマンラブ プロジェクトページ。

AIコミュニティの注目を集めた月曜日に発行された論文で、バイテダンスは、モデルが異なる身体の割合とアスペクト比をサポートし、出力をより自然に見せると述べました。

「ディープフェイクのリアリズムは、バイテダンスによるオムニフマン-1のリリースでまったく新しいレベルに達しました」と、計算社会科学を専門とするノースウェスタン大学の助教授であるマット・グロは火曜日のXの投稿で述べました。

Omnihuman-1は、中国のハイテク企業の最新のAIモデルであり、先月Deepseekの市場を揺るがすR1モデルのリリースに続いて研究者の注目を集めています。

Plivoと呼ばれるハイテク企業の創設者兼CEOであるVenky Balasubramanianは、火曜日のX投稿で次のように述べています。 「

Bytedanceは、約19,000時間分の人間のモーションデータで訓練された新しいモデルは、メモリ制限内であらゆる長さのビデオクリップを作成し、異なる入力信号に適応できると述べました。

研究者は、Omnihuman-1はリアリズムと精度のベンチマークで他のアニメーションツールを上回ったと述べました。

ディープフェイク検出

ディープフェイクは、テクノロジーがより洗練されているため、検出が困難になりました。 Google、Meta、およびOpenaiは、SynthIDやMetaのビデオシールなどのAI透かしツールを導入して、合成コンテンツにフラグを立てています。

これらのツールはいくつかの保護手段を提供しますが、彼らはディープファークテクノロジーの誤用に追いつきをしています。

AIに生成されたビデオと音声クローンは、ハラスメント、詐欺、サイバー攻撃を促進し、犯罪者はAIの生成声を使用して犠牲者を詐欺しています。米国の規制当局はアラートを発行し、議員はディープファークポルノに取り組むための法律を導入しました。

a 世界経済フォーラムの記事 先月、テクノロジーがセキュリティの欠陥をどのように暴露しているかを強調しました。