OpenAIが2026年2月に発表した「ChatGPT Lockdown Mode」をご存じでしょうか。これはプロンプトインジェクション攻撃による情報漏洩を防ぐための、新しいセキュリティ設定です。
AIがWebブラウジングや外部アプリとの連携を行うようになった今、悪意ある第三者がプロンプトに仕込んだ指示でデータを盗み出すリスクが現実のものになってきました。そこで、こうしたリスクに対処するための仕組みとして登場したのがLockdown Modeです。
ChatGPT Lockdown Modeとは
Lockdown Modeは、ChatGPTが外部システムとやり取りする方法を厳しく制限するオプション設定です。企業の経営層やセキュリティチームなど、高度な脅威にさらされるユーザーを主な対象としています。
一般のユーザーにとっては必須ではないものの、機密性の高い情報を扱う場面では心強い選択肢になりそうですね。
ChatGPT Lockdown Modeの主な機能
具体的にどんな制限がかかるのか、主要なポイントを整理してみました。
Webブラウジングの制限
Lockdown Mode有効時、Webブラウジングはキャッシュ済みコンテンツに限定されます。ライブのネットワークリクエストがOpenAIの管理ネットワーク外に出ることはありません。これにより、ブラウジング経由でのデータ漏洩リスクを大幅に低減できます。
外部ツール・アプリとの接続制御
データの安全性を確定的に保証できない機能は完全に無効化される仕組みになっています。ただし、業務で必須のアプリについてはワークスペース管理者がきめ細かく制御できるので、利便性とセキュリティのバランスは取れるようになっていますね。
Elevated Riskラベル
Lockdown Modeと同時に導入されたのが「Elevated Risk」ラベルです。ChatGPT、ChatGPT Atlas、OpenAI Codexの各製品で、追加リスクを伴う機能に統一的なラベルが表示されるようになりました。
たとえばCodexでネットワークアクセスを許可する設定画面には、このラベルとともにリスクの説明が表示されます。ユーザーが自分で判断して有効化するかどうかを決められるわけです。
プロンプトインジェクションとは何か
そもそもプロンプトインジェクションとは、AIに対して悪意のある指示を紛れ込ませる攻撃手法のことです。たとえばWebページやメールの中に隠された指示をAIが読み込んでしまい、会話内容や接続済みアプリのデータを外部に送信してしまうケースが報告されています。
AIがツール連携を深めるほど、この攻撃面は広がります。MCP(Model Context Protocol)のようなAIとツールを接続する仕組みが普及するなかで、セキュリティ対策の重要性は増す一方です。
ChatGPT Lockdown Modeの対象プラン
現時点でLockdown Modeが利用できるのは以下のプランです。
- ChatGPT Enterprise
- ChatGPT Edu
- ChatGPT for Healthcare
- ChatGPT for Teachers
管理者がWorkspace Settingsから新しいロールを作成して有効化する流れになっています。個人向け(コンシューマー向け)への提供も数ヶ月以内に予定されているとのことですね。
企業のセキュリティ担当者が知っておくべきこと
Lockdown Modeは「決定的(deterministic)」な保護を提供する点が特徴的です。AIの挙動を確率的に制御するのではなく、危険な経路を物理的に遮断するアプローチを取っています。
また、Compliance API Logs Platformを使えば、アプリの使用状況や共有データ、接続ソースの詳細な監査ログを確認できるようになっています。コンテナセキュリティと同様、AIツールにおいても多層防御の考え方が浸透してきた印象です。
まとめ
ChatGPT Lockdown Modeは、AIのセキュリティを一段階引き上げる重要な機能だと感じました。特にプロンプトインジェクション攻撃は、ChatGPTの利用が企業で拡大するにつれてリスクが高まっている分野です。
一般ユーザーへの開放も予定されているので、セキュリティに関心のある方は今のうちに仕組みを理解しておくと良いかもしれません。詳細はOpenAI公式ブログで確認できます。