テクノロジーと科学の最新の話題を毎日配信中!!

音声クローニングはSFのように聞こえるが、すでに実現している

Y Kobayashi

2024年10月13日

人工知能(AI)の急速な発展は、利点とリスクの両方をもたらしている。

懸念すべき傾向の1つが音声クローニングの悪用である。詐欺師は数秒で音声をクローニングし、友人や家族が緊急に金銭を必要としていると人々を欺くことができる。

CNNを含むニュース媒体は、この種の詐欺が何百万人もの人々に影響を与える可能性があると警告している。

技術の進歩により犯罪者が私たちの個人的な空間に侵入しやすくなっているため、その使用に対して警戒することがこれまで以上に重要になっている。

音声クローニングとは何か?

AIの台頭により、画像、テキスト、音声の生成や機械学習の可能性が生まれた。

AIは多くの利点を提供する一方で、詐欺師に金銭を搾取するための新たな手段も提供している。

ディープフェイク」という言葉を聞いたことがあるかもしれない。これはAIを使用して、しばしば有名人や政治家を含む偽の画像、動画、さらには音声を作成するものである。

音声クローニングは、ディープフェイク技術の一種で、短い音声サンプルから話者の発話パターン、アクセント、呼吸を捉えて、その人物の音声のデジタルレプリカを作成する。

発話パターンが捉えられると、AI音声生成器はテキスト入力を対象者の音声に酷似した非常にリアルな音声に変換できる。

技術の進歩により、わずか3秒の音声サンプルで音声クローニングが可能になっている。

「もしもし、誰かいますか?」といった簡単なフレーズでも音声クローニング詐欺につながる可能性があるが、より長い会話は詐欺師がより多くの音声の詳細を捉えるのに役立つ。したがって、発信者の身元が確認できるまでは通話を短くすることが最善である。

音声クローニングは、エンターテインメントや医療分野で有用な応用がある。アーティストのリモート音声作業を可能にし(死後でも)、発話障害のある人々を支援する。

しかし、それは深刻なプライバシーとセキュリティの懸念を引き起こし、保護措置の必要性を浮き彫りにしている。

犯罪者によるどのような悪用が行われているか

サイバー犯罪者は音声クローニング技術を悪用して、有名人、当局者、または一般の人々になりすまし、詐欺を行っている。

彼らは緊急性を作り出し、被害者の信頼を得て、ギフトカード、電信送金、または暗号通貨を通じて金銭を要求する。

このプロセスは、YouTubeやTikTokなどのソースから音声サンプルを収集することから始まる

次に、技術が音声を分析して新しい録音を生成する。

音声がクローニングされると、それは欺瞞的なコミュニケーションに使用され、しばしば発信者IDのなりすましを伴って信頼できるように見せかける。

多くの音声クローニング詐欺事件が話題となっている。

例えば、犯罪者はアラブ首長国連邦で企業の取締役の音声をクローニングして、5100万豪ドルの強奪を画策した。

ムンバイのビジネスマンは、ドバイのインド大使館からの偽の電話を含む音声クローニング詐欺の被害に遭った。

最近オーストラリアでは、詐欺師がクイーンズランド州首相Steven Milesの音声クローンを使用して、人々をビットコインへの投資に騙そうとした。

YouTube video

ティーンエイジャーや子供も標的にされている。アメリカでの誘拐詐欺では、ティーンエイジャーの音声がクローニングされ、両親が要求に応じるよう操作された。

どの程度広がっているのか?

最近の研究によると、昨年イギリスの成人の28%が音声クローニング詐欺に直面し、46%がこの種の詐欺の存在を知らなかったという。

これは重大な知識のギャップを浮き彫りにし、何百万人もの人々が詐欺のリスクにさらされていることを示している。

2022年には、オーストラリアで約24万人が音声クローニング詐欺の被害に遭い、5億6800万豪ドルの金銭的損失につながった。

個人や組織はどのように身を守ることができるか

音声クローニングによるリスクには学際的な対応が必要である。

個人や組織は、音声クローニング技術の悪用から身を守るためにいくつかの対策を講じることができる。

第一に、公共の認識向上キャンペーンと教育は、個人や組織を保護し、この種の詐欺を軽減するのに役立つ。

官民の協力により、音声クローニングに関する明確な情報と同意オプションを提供できる。

第二に、個人や組織は、生体認証にライブネス検出を使用することを検討すべきである。これは、偽の音声ではなく生の音声を認識し検証する新しい技術である。また、音声認識を使用する組織は多要素認証の採用を検討すべきである。

第三に、音声クローニングに対する捜査能力の向上も法執行機関にとって重要な対策である。

最後に、関連するリスクを管理するための正確で最新の規制が各国に必要である。

オーストラリアの法執行機関はAIの潜在的な利点を認識している。

しかし、この技術の「暗黒面」に関する懸念から、「被害者を標的にするための人工知能」の犯罪利用に関する研究が求められている。

また、この問題に対処するために法執行機関が使用できる可能性のある介入戦略も求められている。

このような取り組みは、予防的、反応的、修復的戦略に焦点を当てた「サイバー犯罪と戦うための国家計画」全体と連携すべきである。

その国家計画は、オーストラリア政府の新しい法律に反映されているように、サービスプロバイダーに注意義務を課している。

この法律は、詐欺を防止、検出、報告、阻止するための新たな義務を目指している。

これは、通信会社、銀行、デジタルプラットフォームプロバイダーなどの規制対象組織に適用される。目標は、詐欺を含む欺瞞的なサイバー詐欺を防止、検出、報告、阻止することによって顧客を保護することである。

リスクの軽減

サイバー犯罪がオーストラリア経済に推定420億豪ドルの損失をもたらしていることから、公共の認識と強力な保護措置が不可欠である。

オーストラリアのような国々は、増大するリスクを認識している。音声クローニングやその他の詐欺に対する対策の効果は、その適応性、コスト、実現可能性、規制遵守に依存する。

政府、市民、法執行機関など、すべての利害関係者が警戒を怠らず、被害のリスクを減らすために公共の認識を高める必要がある。


本記事は、Leo S.F. Lin氏、Duane Aslett氏、Geberew Tulu Mekonnen氏、Mladen Zecevic氏らによって執筆され、The Conversationに掲載された記事「The dangers of voice cloning and how to combat it」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。

Follow Me !

\ この記事が気に入ったら是非フォローを! /

フォローする

コメントする