2026年2月、OpenAIがChatGPTに「Lockdown Mode」と「Elevated Riskラベル」を導入しました。AIが外部と連携する場面が増える中、セキュリティリスクへの対策として注目されています。
この記事では、ChatGPT Lockdown Modeの仕組みと、実務で活用する際のポイントを解説します。特にプロンプトインジェクション対策の観点から整理します。
ChatGPT Lockdown Modeが登場した背景
AIシステムがWebや外部アプリと連携する場面が増えています。しかし、それに伴いプロンプトインジェクションのリスクも高まっています。
プロンプトインジェクションとは、第三者がAIに悪意ある指示を読み込ませる攻撃です。たとえば、WebページにAIへの隠し指示を埋め込み、機密情報を引き出そうとするケースがあります。
このような脅威に対応するため、OpenAIはLockdown Modeを開発しました。つまり、高リスク環境のユーザー向けに防御を強化したわけです。
ChatGPT Lockdown Modeの具体的な制限内容
Lockdown Modeを有効にすると、いくつかの機能が制限されます。
まず、Web閲覧がキャッシュ済みコンテンツに限定されます。したがって、リアルタイムの情報取得はできなくなります。また、応答に画像を含めることもできません。
さらに、Deep ResearchとAgent Modeが無効化されます。Canvasで生成したコードからのネットワークアクセスも禁止されます。加えて、データ分析のためのファイルダウンロードも制限されます。
要するに、外部との接続ポイントを徹底的に塞ぐ設計です。利便性は下がりますが、情報漏洩のリスクを大幅に低減できます。
ChatGPT Lockdown Modeの対象ユーザー
現時点ではChatGPT Enterprise、Edu、Healthcare、Teachers向けに提供されています。今後は個人ユーザーにも拡大予定とのことです。
想定される利用者は、ジャーナリスト、活動家、セキュリティチームなどです。つまり、デジタルリスクが高い環境で働く人向けの機能です。一般ユーザーが日常的に使う場面は少ないかもしれません。
Elevated Riskラベルとは
Lockdown Modeと同時に「Elevated Riskラベル」も導入されました。これは特定の機能に対してリスクの存在を明示するラベルです。
たとえば、WebやアプリとAIを連携させる機能にラベルが表示されます。ユーザーはそのラベルを見て、どんなリスクがあるかを理解した上で利用判断ができます。
このように、リスクを隠すのではなく可視化するアプローチです。実際にセキュリティ意識の高い組織では、このラベルに基づいて利用ルールを作る動きが出ています。
実務でChatGPT Lockdown Modeを活用するポイント
企業でChatGPTを運用する場合、Lockdown Modeの活用を検討する価値があります。
まず、全ユーザーに一律適用するのではなく、部署や役職に応じた運用がおすすめです。たとえば、経営層やセキュリティチームにはLockdown Modeを有効化します。一方で、マーケティングチームなどWeb情報が必要な部署は通常モードにします。
また、Elevated Riskラベルを社内の利用ガイドラインに組み込むのも効果的です。「このラベルが付いた機能を使う場合は上長承認が必要」といったルールを決めておくと、リスク管理がしやすくなります。
まとめ
ChatGPT Lockdown ModeはAIセキュリティの新しい選択肢です。特にプロンプトインジェクション対策として、高リスク環境では導入の価値があります。ただし、利便性とのトレードオフがあるため、組織の状況に合わせた運用設計が重要です。
