2024年、カリフォルニア州でAI安全規制法案が提出されました。「SB 1047」と呼ばれるこの法案です。AIモデルの安全性テストを義務づける画期的な内容でした。しかし、OpenAIをはじめとする大手企業が猛反対しました。最終的にニューサム知事が拒否権を行使し廃案になっています。ところが、この過程でOpenAI内部から衝撃的な告発が出たのです。SB 1047法案の全貌と、AI安全性をめぐる内幕を詳しく見ていきましょう。
SB 1047法案の内容 – AI安全規制の全容
SB 1047はウィーナー上院議員が提出した法案です。正式名称は「安全で安心なイノベーション法」です。具体的には、大規模AIモデルの安全性テスト義務を定めていました。また、AI被害時の企業責任も明確にしようとしていました。つまり、AIの暴走を未然に防ぐ予防的な法案だったのです。
対象は訓練コスト1億ドル以上のAIモデルです。たとえば、OpenAIのGPTシリーズが該当します。Googleの Geminiも対象になります。さらに、安全性報告書の提出が求められました。「壊滅的被害」がないことの証明も必要でした。なお、この閾値以下のモデルは対象外です。
法案にはもう一つ重要な要素がありました。内部告発者の保護条項です。AI開発の安全上の問題を報告した従業員を守る仕組みです。しかも、企業には「キルスイッチ」の実装も求められました。AIが制御不能になった場合の緊急停止機能です。このように、かなり踏み込んだ内容だったのです。
OpenAIがSB 1047に反対した理由と論理
OpenAIは公式に反対の立場を表明しました。主張は「州レベルではなく連邦レベルで規制すべき」です。各州がバラバラに規制するとイノベーションが阻害されると。しかし、この理屈には疑問もあります。なぜなら、連邦レベルのAI規制はまだ実現していないからです。
また、OpenAIは「壊滅的被害」の定義が曖昧だと批判しました。どこからが壊滅的なのかの基準が不明確だと。さらに、安全性テストの方法論も確立されていないと主張しました。つまり、技術的に実行困難だという立場です。
ただし、業界の見方は分かれています。一部の専門家はOpenAIの主張を「規制逃れの口実」と批判しました。実際、OpenAIは安全性より収益化を優先しているという見方も根強いです。このような背景が、内部告発につながっていきます。
元従業員の内部告発が明かした真実
特に注目すべきは内部告発者の存在です。元社員のダニエル・ココタイロ氏が声を上げました。「OpenAIは安全性より商業利益を優先している」と。彼はOpenAIの安全性チームに在籍していた人物です。そのため、証言の信憑性は高いと評価されています。
さらに深刻な事態も発生しました。安全性チーム「Superalignment」の責任者が辞任したのです。ヤン・ライケ氏がその人物です。彼は「安全性の文化が後退している」と述べました。チームへのリソース配分が不十分だったと明かしています。実際、このチームはOpenAIの計算資源の20%を使う約束でした。しかし、その約束は守られなかったとされています。
しかも、113人以上の業界関係者がSB 1047を支持しました。公開書簡に署名したのです。その中にはAI研究の第一人者も含まれます。ヨシュア・ベンジオ氏やジェフリー・ヒントン氏です。このように、経営陣と研究者には深い溝がありました。
ニューサム知事が法案を拒否した背景
2024年9月、知事は拒否権を行使しました。理由は「高リスクAIだけに焦点を当てている」からです。小規模でもリスクのあるAIへの対応が不十分だと。つまり、法案の範囲が狭すぎるという判断でした。
ただし、テック企業のロビー活動の影響も指摘されています。シリコンバレーの企業は巨額のロビー費用を投じました。一方で、知事はAI規制自体は否定していません。そこで、より包括的な規制の構築を指示しました。実際、その後も複数のAI法案が検討されています。したがって、規制議論は続いているのです。
AI安全規制をめぐる世界的な動向
SB 1047は廃案になりました。しかし、AI安全規制の議論は世界に広がっています。たとえば、EUは2024年8月にAI Actを施行しました。また、イギリスはAI安全研究所を設立しています。国際的な連携も強まっています。
しかも、アメリカ連邦レベルでも動きが加速中です。バイデン前大統領はAI安全性の大統領令を発令しました。NISTによる安全基準の策定も進んでいます。さらに、日本でもAIガバナンスの議論が活発化しています。このように、SB 1047の問題提起は世界に波及したのです。
AI安全性と技術革新のバランスの取り方
この問題の核心はバランスにあります。規制が厳しすぎれば技術が停滞します。緩すぎれば社会にリスクが及びます。特にAGI実現が近づく今、この問題は切実です。
それでも、多くの専門家は規制の必要性で一致しています。要するに「有無」ではなく「設計」が問題なのです。だからこそ、技術者と政策立案者の対話が欠かせません。OpenAIの姿勢がどう変わるかも重要です。AI安全性は私たち全員に関わるテーマです。SB 1047が投げかけた問いは、今も答えを待っています。
