⏩ 来年に迫った大統領選への影響を懸念、Meta 特有の理由も
⏩ 背景には規制当局との対立も
⏩ 法律による生成 AI 広告規制の可能性も示唆
2023年11月8日(現地時間)、 Meta は生成 AI を利用した政治的な広告に対し、AI を利用したことの明示を2024年より義務付けることを発表した。
この規則は、ディープフェイクによる偽情報の拡散を防ぐことが主な目的で、同社の運営する Facebook や Instagram に適用される予定だ。同様の規制は Google や Microsoft でも進められており、業界大手がそれぞれ自主的にルール作りを進めている形となっている。
Meta がこうした取り組みを発表した背景には、来年2024年に行われる米大統領選挙での偽情報対策と、同社と当局との対立が挙げられる。
米大統領選挙を巡っては、すでに生成 AI を利用した偽情報の拡散が懸念されている。2023年4月にドナルド・トランプ前米大統領が起訴、出頭要請が報じられた際には、生成 AI によって作成された逮捕時とされる画像が拡散するなど、実社会への偽情報の影響が生じている。日本でも、岸田首相を悪用した生成 AI が話題となったことは記憶に新しい。
中でも Meta は、2016年の米大統領選挙における疑惑もあり、注目度は高い。トランプ陣営の選挙コンサルティングを担当していた Camgridge Analytica (CA)には、 Facebook のユーザーの個人情報を不正に取得、利用していた疑惑がある。
また、同社は各国当局と対立している。2019年、米住宅都市開発省(HUD)は、同社の住宅広告に人種や性別などによる差別があったとして同社を訴えた。2022年に和解が成立したものの、2026年までは連邦裁判所による監視が行われることとなった。さらに2023年7月17日、ノルウェーのデータ保護当局は同社によるターゲティング広告の禁止を発表した。その後、欧州議会の規制当局によってその禁止範囲はEU全域にまで拡大した。
2024年に控えているのは、米大統領選挙だけではない。欧州議会選挙や米連邦議員選挙、アジアでもインドネシア大統領選挙、インドでも総選挙が予定されている。
米国の消費者支援団体は、ディープフェイクが民主主義の脅威となる可能性を指摘し、連邦選挙管理委員会に法規制を求める請願書を提出した。また、イーロン・マスク氏も「(偽情報が)争点になる初の選挙になるだろう」と語るなど、いかにしてディープフェイクから選挙を守るかが議論となっている。
選挙を前にこうした懸念が上がる中、 Meta による今回の自主規制は何を目指すものなのだろうか?そして、今後のポイントはどこにあるのだろうか?