さらに、2024年、カリフォルニア州で提案されたAI規制法案「SB 1047」をめぐり、OpenAIの安全性に対する姿勢が大きな議論を呼んだ。さらに、同社の元研究者たちが公に異議を唱え。AI業界全体のガバナンスのあり方に一石を投じた出来事だった。
SB 1047法案とは何だったのか
さらに、SB 1047は、カリフォルニア州のスコット・ウィーナー上院議員が提出したAI安全法案だ。大規模AIモデルの開発者に対して。なお、安全性テストの実施や、壊滅的な被害を防ぐための「キルスイッチ」の設置を義務付ける内容だった。具体的には、訓練コストが1億ドルを超えるモデルが対象で、第三者による監査やインシデント報告も求められていた。
さらに、この法案は2024年8月に州議会を通過したが。最終的にニューサム知事が拒否権を行使して廃案となった。知事は「特定の規模のモデルだけを対象にする科学的根拠が薄い」と説明している。
元従業員たちの告発
また、問題の発端は、OpenAIの元研究者であるダニエル・ココタイロとウィリアム・サンダースが公開書簡を出したことだ。さらに、2人は安全性への懸念から2024年に退職しており。「OpenAIは無謀な覇権争いを繰り広げている」と警告していた。
さらに、書簡の中で彼らは次のように述べている。「元上司のサム・アルトマンは、AIの規制を繰り返し求めてきた。しかし、実際の規制が検討されると、それに反対する。この矛盾こそが問題の本質だ」。なお、OpenAIが公には安全性を重視する姿勢を見せながら。具体的な規制には反対するという二重基準が鮮明になった。
AI安全性議論のその後
加えて、SB 1047の廃案後も、AI規制をめぐる議論は続いている。さらに、2025年に入り、ウィーナー上院議員は修正版の法案を再提出した。今度は特定のモデル規模に限定せず。なお、AIシステムの実際のリスクに基づいた規制を目指す内容だ。
さらに、一方、OpenAI自身も変化を見せている。2024年末にはAI安全性に関する新しい社内フレームワーク「Preparedness Framework」を公開し。なお、モデルの安全性評価プロセスを強化したと発表した。ただし、批判者たちは「外部からの検証が不十分」と指摘し続けている。
具体的には、この一連の出来事は、AI企業が安全性を語ることと実際の行動の間にギャップがあることを浮き彫りにした。業界の自主規制だけでは不十分で。さらに、適切な法的枠組みが必要だという認識は広がりつつある。AI技術が急速に進化する中。規制と革新のバランスをどう取るかは、引き続き社会全体で議論すべきテーマだろう。
