ByteDanceの研究チームが、驚くほどリアルなディープフェイク動画を生成するAIシステム「OmniHuman-1」を発表した。デモンストレーションでは有名アーティストの実在しないパフォーマンスや、有名人の存在しないトーク場面などが公開されているが、恐らく偽物と言われなければ(いや、例えそう言われたとしても)これがディープフェイクであるとは分からないレベルになっている。
現実と区別不能? ByteDanceが「OmniHuman-1」を発表
TikTokの親会社であるByteDanceの研究者たちが、驚くほど写実的なディープフェイク動画を生成する新たなAIシステム「OmniHuman-1」を発表した。公開されたサンプル動画を見る限り、従来のディープフェイク技術をはるかに凌駕し、現実と区別がつかないレベルに到達しているようだ。
ディープフェイクAI技術自体は、既にコモディティ化しており、写真に人物を挿入したり、実際には発言していないことをあたかも言っているかのように見せかけるアプリは数多く存在する。しかし、既存のディープフェイク、特に動画においては、不気味の谷現象を超えることができず、AIによる生成であることが容易に判別できるものがほとんどであった。
しかし、「OmniHuman-1」は異なる。ByteDanceチームが公開した選りすぐりのサンプル動画では、そのリアリティは驚異的だ。
例えば、架空のTaylor Swiftのパフォーマンス動画や、存在しないTEDトーク、Einsteinの講義動画などが公開されている。
ByteDanceの研究者によると、「OmniHuman-1」は、参照画像1枚と音声データのみをインプットとして、任意の長さの動画クリップを生成できるとのことだ。動画のアスペクト比や、被写体の体の比率も調整可能だという。
非公開の情報源から得た19,000時間もの動画コンテンツで学習した「OmniHuman-1」は、既存の動画編集も可能で、人物の腕の動きまで修正できる。その結果は、驚くほど説得力がある。
課題も残るものの、既存技術を凌駕
もちろん、「OmniHuman-1」は完璧ではない。ByteDanceのチームは、「低品質」な参照画像では最高の動画は生成されないと述べており、特定ポーズが苦手なようだ。サンプル動画の中には、ワイングラスの扱いが不自然な例も見られる。
それでも、「OmniHuman-1」は既存のディープフェイク技術を大きく凌駕しており、今後の技術動向を占う上で重要な指標となるであろう。ByteDanceはまだシステムを公開していないが、AIコミュニティは、このようなモデルをリバースエンジニアリングするのに時間をかけない傾向がある。
懸念される悪用と規制の現状
この技術がもたらす影響には、懸念すべき点も多く存在する。
昨年は、政治的なディープフェイクが世界中で急速に拡散した。台湾の選挙日には、中国共産党と関係のあるグループが、親中派候補への支持を表明する政治家のAI生成による誤解を招く音声データを投稿した。モルドバでは、Maia Sandu大統領が辞任するディープフェイク動画が拡散された。南アフリカでは、ラッパーのEminemが南アフリカの野党を支持するディープフェイク動画が、選挙前に広まった。
ディープフェイクは、金融犯罪にもますます利用されている。消費者は、著名人のディープフェイクによって不正な投資機会を信じ込まされ、企業はディープフェイクのなりすましによって数百万ドルの詐欺被害にあっている。Deloitteによると、AI生成コンテンツは2023年に120億ドル以上の詐欺損失を引き起こしており、2027年までに米国だけで400億ドルに達する可能性があるとされている。
今年の2月には、AIコミュニティの数百人が、ディープフェイクに対する厳格な規制を求める公開書簡に署名した。米国連邦レベルでディープフェイクを犯罪とする法律がない中、10以上の州がAIによるなりすまし行為を取り締まる法律を制定している。カリフォルニア州の法律(現在は停滞中)は、ディープフェイクの投稿者に対して削除命令を下し、従わない場合は金銭的罰則を科すことを裁判官に認める最初の法律となる可能性があった。
残念ながら、ディープフェイクの検出は困難である。一部のソーシャルネットワークや検索エンジンは、その拡散を制限するための対策を講じているが、オンライン上のディープフェイクコンテンツの量は、驚くべき速さで増え続けている。
ID認証企業Jumioが2024年5月に行った調査によると、過去1年間にディープフェイクに遭遇したと回答した人は60%に上る。また、回答者の72%が、日常的にディープフェイクに騙されることを懸念しており、大多数がAI生成フェイクの拡散に対処する法規制を支持している。
Source
コメント