2026年2月、Anthropicの安全性研究チームを率いていたMrinank Sharma氏が退職しました。退職の理由が「詩を学ぶため」という、テック業界では異例のものだったこともあり、大きな話題になっています。
Anthropic AI安全性研究者の退職:何が起きたのか
Sharma氏はXに投稿した辞職書の中で、「世界は危機にある。AIやバイオ兵器だけでなく、今まさに展開されている一連の相互に関連する危機から」と述べています。かなり強い言葉ですよね。
彼の在籍中の貢献は多岐にわたります。AIがユーザーにおべっかを使う「sycophancy」問題の調査、AIを悪用したバイオテロリスクへの対策、そして「AIアシスタントが人間性を損なう可能性」の研究などです。どれもAI安全性の最前線と呼ぶにふさわしいテーマばかりでした。
「価値観に従って行動することの難しさ」という告白
興味深いのは、Sharma氏がAnthropicに対しても率直な指摘をしている点です。「本当に大切なことを脇に置く圧力に、絶えずさらされている」という趣旨の発言は、AI安全性を掲げる企業であっても、商業的なプレッシャーとの葛藤があることを示唆しています。
Anthropicは「公益法人」を名乗り、AIの恩恵を確保しつつリスクを軽減することを使命としている企業です。しかし、Anthropicが300億ドルを調達した話でも触れたように、急速な成長の中で安全性と商業性のバランスを取ることは簡単ではないのでしょう。
AI安全性研究者の流出は業界全体の問題
実はこうした退職は初めてではありません。OpenAIからも安全性チームのメンバーが相次いで退職しており、AI業界全体で安全性研究者の流出が問題視されています。AIエージェントの倫理違反率が30〜50%に達するという研究もある中で、安全性の専門家が現場を離れていくのは気がかりな傾向です。
一方で、Sharma氏の退職を「単なる燃え尽き」と片付けるのは違うように感じます。「詩を学ぶ」「目に見えない存在になりたい」という選択は、テクノロジーの世界から意識的に距離を置く決断であり、それ自体がメッセージになっているのではないでしょうか。
安全性と商業性の綱引き
AI企業にとって安全性研究は「やらなければならないこと」ですが、同時に製品開発のスピードを落とす要因にもなりえます。とくに競合との開発競争が激化している現在、安全性チームにどれだけのリソースと権限を与えるかは経営判断として非常に難しい問題です。
Sharma氏のケースが示しているのは、表面的には安全性を重視していても、組織内部では常に緊張関係があるという現実かもしれません。これはAnthropicだけの問題ではなく、BBCの報道でも指摘されているように、業界全体の構造的な課題だと思います。
まとめ:Anthropic AI安全性研究者の退職が問いかけるもの
一人の研究者の退職が、これほど注目を集めること自体が、AI安全性への関心の高さを物語っています。技術の進化は止められませんが、その方向性を決める人々が現場を離れていくことのリスクは、もう少し真剣に考えた方がいいのかもしれません。
Sharma氏が詩の中に何を見つけるのかはわかりませんが、「テクノロジーから離れる」という選択肢が一つの答えになりうる時代に来ているのだと感じました。
参考リンク:
BBC – AI safety researcher quits with ‘world in peril’ warning
Mrinank Sharma氏の辞職書(X)
