オーストラリア連邦議会は、16歳未満の人々が特定のソーシャルメディアプラットフォームでアカウントを持つことを禁止する法案を可決した。
この決定において、専門家たちからの助言や、「政府が実務的な運用方法も定まらないまま、詳細を適切に検討する時間も取らずに法案を議会で急いで成立させた」と指摘したAustralian Human Rights Commissionの意見は無視された。
しかし、新しい世論調査によると、この禁止措置はオーストラリア人の77%が支持している。この法律は少なくとも12ヶ月間は施行されない。
では、それまでに何が行われるのだろか?
最終法案の内容
この法案は現行のOnline Safety Act 2021を改正し、「年齢制限対象ユーザー」を16歳未満の者と定義している。ただし、禁止対象となる具体的なプラットフォームは指定していない。
代わりに、法案では「年齢制限対象ソーシャルメディアプラットフォーム」を以下のようなサービスと定義している:
- 「唯一の目的、または重要な目的」が人々の間の「オンラインでの社会的交流」を可能にすることである
- 利用者がサービス上で他者と「つながったり、交流したり」できる
- 利用者が「コンテンツを投稿」できる
- 法案に定められたその他の条件に該当する
法案では一部のサービスが「除外」されると記載されているが、具体的なプラットフォーム名は挙げていない。例えば、「オンラインでの社会的交流」を提供するサービスは禁止対象に含まれるが、「オンラインでのビジネス交流」は含まれない。
どのソーシャルメディアプラットフォームが禁止対象となるかは依然として不明確だが、対象となるプラットフォームが16歳未満の利用者のアカウント作成を防ぐための「合理的な措置」を講じない場合、最大5,000万豪ドルの罰金が科される。
YouTubeは除外されるという報道があるが、政府はこれを明確には確認していない。現時点で明確なのは、16歳未満の人々は多くのプラットフォームのコンテンツをアカウントなしで閲覧することは可能という点である。
法案ではWhatsAppやMessengerなどのメッセージングアプリや、Minecraftなどのゲームプラットフォームについては具体的な言及がない。ただし、報道によると政府はこれらを除外すると述べており、「エンドユーザーの健康と教育を支援することを主な目的とするサービス」も除外するとしている。これらの場合、どのプラットフォームが除外されるかは不明確だ。
最終法案の可決にあたり、政府は当初の提案に追加の修正を加えた。例えば、テクノロジー企業はパスポートや運転免許証などの政府発行の身分証明書を「唯一の手段」として年齢確認に使用することはできない。ただし、「他の代替的な年齢確認方法がユーザーに提供されている場合」は、政府発行の身分証明書を収集することができる。
また、2年後には「独立した審査」を行い、プライバシー保護の「妥当性」やその他の問題を検討しなければならない。
テクノロジー企業にとっての今後
アカウントを作成しようとする人々の年齢を確認しなければならないだけでなく、テクノロジー企業は既存のアカウント所有者の年齢も確認する必要がある – これは年齢に関係なく全員が対象となる。これは大きな実務的な課題となる。ソーシャルメディアアカウントを持つすべてのオーストラリア人が、ある特定の日にログインして年齢を証明しなければならないのだろうか?
さらに大きな懸念は、テクノロジー企業がどのようにユーザーの年齢を確認するかという点である。法案ではこの点についてほとんど明確な説明がない。
ソーシャルメディアプラットフォームが採用する可能性のある選択肢がいくつかある。
一つの選択肢として、クレジットカードをアプリストアのアカウントにリンクさせて、それを年齢確認の代用とする方法がある。Communications MinisterのMichelle Rowlandは以前、この戦略が現在実施中の年齢確認試験に含まれると述べている。例えば、YouTubeは以前、年齢制限付きコンテンツへのアクセスをクレジットカードで可能にしていた。
しかし、この方法では16歳以上という年齢要件は満たしているものの、クレジットカードを持っていない人々が除外されてしまう。
別の選択肢は顔認識技術の使用である。この技術は、ソーシャルメディアプラットフォーム(16歳未満対象)とオンラインポルノグラフィー(18歳未満対象)の両方の年齢制限に関して、政府が試験している様々な戦略の一つである。この試験はイギリスを拠点とするAge Check Certification Schemeが主導するコンソーシアムによって実施されており、結果は2025年半ばまでは判明しない。
しかし、顔認識システムには重大なバイアスと不正確さが含まれているという証拠が既に存在する。
例えば、商業的に利用可能な顔認識システムは、白人男性の場合のエラー率が0.8%であるのに対し、有色人種の女性の場合は約35%である。現在使用されている最高性能のシステムの一つであるYoti(Metaが世界展開に先立ってオーストラリアのユーザーに提供している)でさえ、13歳から16歳の人々に対して平均して約2年のエラーがある。
デジタル注意義務についてはどうか?
今月初め、政府はテクノロジー企業に「デジタル注意義務」を課すことを約束した。
これにより、企業はプラットフォーム上のコンテンツについて定期的に徹底的なリスク評価を実施する必要がある。また、企業は消費者からの苦情に対応し、潜在的に有害なコンテンツを削除しなければならない。
この注意義務は、私自身を含む専門家たちとHuman Rights Law Centreによって支持されている。ソーシャルメディア禁止法案に関する議会の調査でも、政府にこの立法化を勧告している。
政府がこの約束を果たす具体的な時期は依然として不明確である。
しかし、注意義務が法制化されたとしても、デジタルリテラシーへのさらなる投資の必要性は変わらない。保護者、教師、子どもたちは、ソーシャルメディアプラットフォームを安全に利用する方法を理解するためのサポートを必要としている。
結局のところ、ソーシャルメディアプラットフォームはすべてのユーザーにとって安全な場所であるべきである。これらは全年齢層の人々に価値ある情報とコミュニティ参加の機会を提供している。現在、16歳未満の若者のアクセスを制限する責任はテクノロジー企業にある。
しかし、私たち全員の安全を確保し、テクノロジー企業が提供するコンテンツに対して説明責任を果たすために必要な取り組みは、まだ始まったばかりである。
コメント