2024年、世界が注目したAI規制法案がありました。カリフォルニア州のSB 1047です。AIの安全性テストを義務化する画期的な法案でした。しかし、ニューサム知事によって拒否されました。なぜこの法案は成立しなかったのでしょうか。そして、AI安全規制は世界でどう進んでいるのでしょうか。SB 1047の拒否理由と世界的なAI規制の動向を詳しく解説します。

SB 1047法案の概要とAI安全規制の狙い

SB 1047の正式名称は「安全で安心なフロンティアAIモデル法」です。スコット・ウィーナー上院議員が提出しました。この法案は大規模AIモデルを対象としています。具体的には、訓練コスト1億ドル以上のモデルが対象です。また、計算量が10の26乗FLOP以上のモデルも含まれます。

法案の主な要求事項は明確です。まず、リリース前のリスク評価が義務づけられます。さらに、「壊滅的被害」を防ぐ安全対策の実装が求められます。しかも、内部告発者の保護条項もありました。つまり、AI企業に安全性への真剣な取り組みを求める法案だったのです。

なお、対象となる「壊滅的被害」には具体的な定義がありました。5億ドル以上の経済被害を引き起こすケースです。また、大規模なインフラ障害も含まれます。このように、法案は極端なリスクに焦点を当てていました。

ニューサム知事がSB 1047を拒否した5つの理由

2024年9月29日、知事は拒否権を行使しました。その理由は主に5つあります。まず、法案が大規模モデルだけを対象にしていた点です。小規模でもリスクの高いAIが規制外になります。これでは安全性に「偽の安心感」を生むと判断されました。

次に、AIの使用環境を考慮していなかった点です。同じAIモデルでも使い方で危険度が変わります。しかし、法案は計算量だけで線引きしていました。さらに、州レベルの規制の限界も指摘されました。AI企業はグローバルに活動しています。そのため、一つの州の規制では実効性に疑問があるのです。

加えて、シリコンバレーへの影響も考慮されました。カリフォルニアはAI産業の中心地です。厳しすぎる規制は企業の州外移転を招く恐れがあります。ただし、知事はAI規制自体は否定していません。より包括的な枠組みを求めています。

SB 1047をめぐる賛成派と反対派の議論

この法案は業界を真っ二つに割りました。反対したのはGoogle、Meta、OpenAIなどの大手企業です。連邦議会のメンバーにも反対者がいました。彼らの主張は「イノベーションの阻害」です。

一方で、113人以上のAI企業従業員が賛成しました。OpenAI、Google DeepMind、Anthropicの現役・元社員です。しかも、AI研究の第一人者も支持を表明しています。ヨシュア・ベンジオ氏やジェフリー・ヒントン氏です。つまり、AI安全性の専門家ほど規制を支持する傾向があったのです。

特に興味深いのはOpenAI内部の対立です。会社は反対の立場でした。しかし、複数の従業員は個人として賛成しています。このように、経営判断と研究者の見解には大きなギャップがありました。

世界のAI安全規制はどう進んでいるか

SB 1047は廃案になりました。しかし、世界的にはAI規制が加速しています。EUのAI Actは2024年8月に施行されました。これは世界初の包括的AI規制法です。リスクに応じてAIを4段階に分類しています。

また、イギリスはAI安全研究所を設立しました。2023年のAIサミットがきっかけです。さらに、日本でもAI戦略会議がガイドラインを策定中です。具体的には、広島AIプロセスで国際的なルール作りを主導しています。

しかも、中国も独自のAI規制を進めています。生成AI管理弁法を2023年に施行しました。このように、AI規制は世界同時進行で動いています。だからこそ、国際的な協調が重要になっているのです。

SB 1047の拒否後に何が起きたか

SB 1047の拒否後も議論は続いています。実際、ニューサム知事は別のAI関連法案には署名しました。AB 2013はAI透明性法案です。生成AIの出力にラベルをつけることを義務づけます。つまり、部分的な規制は進んでいるのです。

さらに、2025年にはSB 1047の後継法案も提出されています。前回の教訓を踏まえた修正版です。そのため、カリフォルニア州のAI規制は今後も注目が必要です。とはいえ、連邦レベルの規制も議論が始まっています。

要するに、SB 1047は一つの法案に過ぎません。しかし、AI安全規制の世界的な議論を加速させました。これからもAI技術の進化とともに規制のあり方は変わっていくでしょう。だからこそ、最新動向を把握しておくことが大切なのです。