⏩ 一定の開発コストを超えるモデルを規制、同州で事業展開する企業が対象
⏩ 生物兵器や化学兵器、サイバー攻撃などによる重大な被害を想定
⏩ AI 業界でも論争、各企業の立場は?
8月21日(現地時間)、OpenAI は、カリフォルニア州の AI 規制法案に反発する声明を出した。
同法案が注目を集める理由は、シリコンバレーおよび AI 企業が多く位置するカリフォルニア州で審議されているという点にとどまらない。それが可決されれば、州内で事業をおこなう企業に適用されるだけでなく、今後国内外における規制法の前例になると考えられているからだ。
同法は5月にカリフォルニア州議会の上院を通過しており、今月中に下院で審議にかけられる。法案のポイントはどこにあり、何をめぐって論争が交わされているのだろうか。
規制法案のポイントは?
カリフォルニア州の AI 規制法案(通称 SB1047)は、2月にスコット・ウィーナー上院議員が提出して以来、8月22日までの間に10回の修正が施されてきた。その修正に Anthropic が一役買った点は後述する。
同法は、AI による「重大な危害」や実存的リスクを防ぐことを目的としており、大きく3つのポイントがある(太字は引用者による、以下同様)。
1つ目は、対象企業だ。一定の規模とコストを超える大規模な AI モデルを作成する企業、具体的には、トレーニングに1億ドル(約150億円)以上のコストがかかる AI モデルを構築する企業が対象となる(*1)。
ウィーナー議員によれば、この基準によって、スタートアップが対象となることはない。また、同議員は、法案の適用対象には、カリフォルニア州に拠点を構える企業だけでなく、同州で事業を展開する企業も含まれると明言している。
2つ目は、「重大な危害」の意味だ。法案によれば、それは AI モデルの使用によって引き起こされた、あるいは「実質的に可能となった」損害を指す。
具体例としては、大量の死傷者を出すような「化学兵器、生物兵器、放射線兵器、核兵器の製造または使用」や、5億ドル(約750億円)以上の損害を出すサイバー攻撃が想定されている(*2)。
3つ目は、義務の内容だ。AI 開発企業は、モデルをリリースする前に、安全性をテストする必要がある。加えて、同法には「フル・シャットダウン」条項が含まれており、開発企業は高度な AI をいつでも完全に停止できることが要求され、違反企業には罰金が科される。
そして、フロンティア・モデル委員会(BFM:Board of Frontier Models)を新設し、AI や生物兵器の専門家など9名のメンバーが、リスクなどに関するガイダンスを発行する。
(*1)この他、対象となるモデルについて、2027年1月1日以前の段階で、1026回以上の整数および浮動小数点演算の能力でトレーニングされたという基準が設けられている。現状、この水準を超える AI モデルは開発されていないが、ビッグテックのモデルは徐々に規模が大きくなっているため、近いうちに対象となるとも示唆されている。
(*2)参考として、7月に起きた CrowdStrike の障害は54億ドル(約8,100億円)の被害を招いたと推計されている。