ChatGPTの業務利用が広がっています。しかし、セキュリティ面の不安は根強いです。特に経営層や機密情報を扱う部門では深刻な課題です。そこでOpenAIが導入したのがLockdown Modeです。この機能は高リスクユーザー向けの保護設定です。プロンプトインジェクション攻撃を防ぐ仕組みとして注目されています。

Lockdown Modeの基本的な仕組み

Lockdown Modeは任意で有効化する設定です。ChatGPTと外部システムの通信を厳しく制限します。具体的には、攻撃者がデータを抜き取る経路を遮断します。たとえば、悪意あるプロンプトで会話内容を外部送信させる手口があります。この種の攻撃を構造的にブロックするのが目的です。

また、Webブラウジング機能にも制限がかかります。ライブのネットワーク通信は行いません。キャッシュ済みコンテンツのみ参照します。つまり、外部サーバーへの不正な通信経路がなくなります。さらに、画像出力やファイルダウンロードも無効化されます。

Lockdown Modeの対象ユーザーと導入環境

この機能はすべてのユーザー向けではありません。主な対象は企業の経営層です。また、セキュリティチームも想定されています。特に著名な組織で標的型攻撃のリスクがある人向けです。

現在はChatGPT Enterpriseで利用可能です。さらにChatGPT Eduでも使えます。加えて、Healthcare版やTeachers版も対応済みです。なお、一般消費者向けにも今後提供予定とされています。実際に導入するかは組織のリスク判断次第です。

Elevated Risk Labelsとの連携

Lockdown Modeと同時に導入された機能があります。それがElevated Risk Labelsです。これはリスクの高い操作に警告を表示する仕組みです。たとえば、外部アプリとの接続時に注意喚起が出ます。つまり、ユーザーが意思決定しやすくなります。

しかし、この警告は操作をブロックしません。あくまで情報提供が目的です。したがって、最終判断はユーザー自身が行います。このように、制限と情報提供の二段構えで安全性を高めています。

実務での導入判断のポイント

導入を検討する際の基準を整理します。まず、機密データをChatGPTで扱うかどうかです。扱う場合はLockdown Modeの有効化が推奨されます。ただし、機能制限があることも理解が必要です。Webブラウジングが制限されます。画像生成も使えなくなります。

そのため、業務内容とのバランスが重要です。たとえば、文書作成のみなら制限の影響は小さいです。一方、リサーチ業務では不便が生じます。実際の運用では部門ごとに設定を変える方法が現実的です。

従来のセキュリティ対策との違い

企業ではすでにDLP製品を導入しているケースが多いです。しかし、プロンプトインジェクションはDLPでは防げません。なぜなら、攻撃はAIモデルの内部で発生するからです。Lockdown Modeはこの盲点を補います。

また、API経由のアクセスとも異なる対策です。APIでは入出力フィルタリングが可能です。しかし、ChatGPTのUI利用では別の防御が必要です。だからこそ、Lockdown Modeの意義があります。特に非技術者が使う場面で効果的です。

今後の展望とまとめ

OpenAIはLockdown Modeを一般向けにも広げる予定です。これはAI安全性への関心の高まりを反映しています。とはいえ、万能な防御策ではありません。組織全体のセキュリティ方針と組み合わせることが大切です。

要するに、Lockdown Modeは「制限をかけて安全を確保する」設計です。すべてのユーザーに必要なわけではありません。しかし、高リスク環境では有力な選択肢です。自社の脅威モデルを整理した上で検討してみてください。