SB 1047とはどんな法案だったのか

SB 1047(Safe and Secure Innovation for Frontier Artificial Intelligence Models Act)は、2024年にカリフォルニア州議会で審議されたAI規制法案だ。州上院議員のスコット・ウィーナー氏が提出し、「まだ存在しないほど高度なAIモデルがもたらす壊滅的リスクを軽減する」ことを目的としていた。

具体的には、訓練コストが1億ドルを超えるAIモデルの開発者に対して、リリース前のリスク評価を義務付ける内容だった。内部告発者保護の規定も盛り込まれ、AIの安全性に関する情報を開発者が公開しやすくする仕組みも提案されていた。

賛否が分かれた理由

法案はカリフォルニア州議会の上院・下院をいずれも通過した。賛成派は「AIの安全性を確保するためのガードレールが必要」と主張し、ジェフリー・ヒントン氏やヨシュア・ベンジオ氏といったAI研究の大御所も支持を表明した。

一方、反対派には大手テック企業が名を連ねた。GoogleやMetaは「イノベーションを阻害する」と批判し、OpenAIも反対の立場を取った。スタートアップへの負担が重すぎるという指摘や、連邦レベルでの統一規制を先に整備すべきだという意見もあった。

ニューサム知事が拒否権を行使

2024年9月29日、ギャビン・ニューサム知事は拒否権を行使してSB 1047を葬った。知事は「このような広範な規制を1つの法案で導入するのは適切ではない」とし、「AIの安全性は重要だが、よりきめ細かいアプローチが必要」と説明した。

背景にはカリフォルニア州がAI産業の中心地であることへの配慮もあった。厳しすぎる規制が企業の州外流出を招くリスクは無視できない。

世界のAI規制の動き

EUでは2024年にAI Act(EU AI規制法)が成立し、リスクベースのAI規制が2025年から段階的に施行されている。高リスクAIの透明性要件や禁止されるAI利用のカテゴリーが明確に定義されたことは大きな前進だ。

米国連邦レベルでは、バイデン前政権が2023年にAIに関する大統領令を発令し、安全性テストや透明性の基準を設けた。ただし包括的な連邦法は未成立で、州ごとの規制がパッチワーク状に進む状況が続いている。

日本でも2025年にはAIガバナンスに関する指針が強化され、企業へのガイドライン整備が進んでいる。ただし欧米と比べると法的拘束力のあるルールはまだ少ない。

SB 1047の失敗から何を学べるか

この法案の顛末は、AI規制の難しさを端的に示している。規制が緩すぎればリスクが放置され、厳しすぎればイノベーションが停滞する。そのバランスをどう取るかは、世界中の政策立案者が頭を悩ませている問題だ。

2025年にはカリフォルニア州で新たなAI規制法案が複数提出されており、SB 1047の精神を引き継ぎつつ、より実行可能な形での法制化が模索されている。AI技術の進化スピードを考えれば、規制の議論にゴールはない。