AIアシスタントは業務を効率化します。しかし、そのAIが機密メールを勝手に要約していたとしたらどうでしょう。2026年2月、Microsoft 365 CopilotがDLP(データ損失防止)ポリシーを回避して機密メールを要約するバグが発覚しました。そこで今回は、この問題の詳細と機密情報を守る運用設計の見直しポイントを解説します。

Microsoft 365 Copilot DLP回避問題の経緯

問題は2026年1月末から発生していました。つまり、約3週間にわたって機密メールがAIに読まれていたのです。具体的には、Copilot ChatのWork Tabで問題が起きました。

Outlookデスクトップで使用した際に、送信済みアイテムと下書きフォルダからコンテンツを取得していました。しかし、これらのメールには「Confidential」の感度ラベルが設定されていました。つまり、DLPポリシーではアクセスがブロックされるべきでした。しかし、コードのバグによりこの制限が無視されていたのです。

さらに、影響範囲は明確にされていません。Microsoftは「調査の進捗に応じて範囲が変わる可能性がある」としています。なお、英国のNHS(国民保健サービス)はこの問題を内部でインシデントとして報告しました。実際、医療分野での機密データ漏洩は深刻な問題です。

Microsoftは2月初旬から修正の展開を開始しました。また、根本原因は特定されたと報告しています。しかし、完全な修復の最終タイムラインは示されていません。

なぜCopilotがDLPを回避できてしまったのか

この問題の本質はアクセス制御の設計にあります。従来のDLPはユーザーの行動を制御していました。しかし、AIアシスタントの行動は別の経路を通ります。

具体的には、Copilotはユーザーに代わってメールデータにアクセスします。このとき、ユーザーのアクセス権を使ってデータを読みます。しかし、感度ラベルのチェックが適切に行われなかったのです。つまり、アクセス権はあるが閲覧制限がかかっているデータを区別できなかったわけです。

さらに、AIアシスタントのデータアクセスは従来のセキュリティモデルに組み込みにくい部分があります。なぜなら、AIは大量のデータを一括で処理するからです。たとえば、ユーザーが1通のメールを開くのと、AIが数百通を要約するのではリスクのレベルが異なります。したがって、AI向けのアクセス制御は従来とは別の設計が必要です。

機密情報を守る運用設計の見直しポイント

この問題から学べる運用設計のポイントをいくつか紹介します。

まず、AIツールのアクセス範囲を最小限にすることです。つまり、Copilotがアクセスできるデータソースを必要最小限に制限します。具体的には、機密レベルの高いフォルダやラベルを除外する設定が有効です。しかし、利便性とのバランスが難しい点です。

次に、AIの出力を監査する仕組みを整備しましょう。たとえば、Copilotが要約した内容のログを取得します。さらに、機密ラベル付きのコンテンツが出力に含まれていないかを自動チェックします。特に、DLP違反のアラートをリアルタイムで発報する設定が重要です。

また、段階的な導入アプローチも推奨されます。具体的には、まず一般的なデータのみでCopilotを使い始めます。問題がないことを確認してから、徐々にアクセス範囲を広げます。したがって、いきなり全データへのアクセスを許可するのは避けるべきです。

加えて、ベンダー任せにしないことも大切です。なぜなら、今回のようなバグは事前に予測できないからです。実際、Microsoftは修正に数週間かかりました。そのため、自社側でも多重のセキュリティ対策を講じておく必要があります。

AIアシスタント時代のDLP戦略を考える

今回の問題はMicrosoftだけの話ではありません。むしろ、AIアシスタント全般に共通する課題です。

まず、ゼロトラストの原則をAIにも適用すべきです。つまり、AIアシスタントも「信頼しない」前提で設計します。具体的には、毎回のデータアクセスで権限を検証する仕組みです。さらに、AIの行動ログを人間が定期的にレビューする運用も有効です。

また、感度ラベルの運用を見直す機会でもあります。たとえば、ラベルの付与が適切に行われているか確認しましょう。特に、ラベルの自動付与ルールを見直すことが重要です。しかし、過度にラベルを付けすぎるとAIの有用性が損なわれます。とはいえ、機密情報の保護が最優先です。

だからこそ、分類基準を明確にしてから自動ラベリングを設定しましょう。このように、AIの利便性とセキュリティの両立には継続的な改善が欠かせません。

Microsoft 365 Copilot DLP回避問題のまとめ

Copilot のDLP回避バグは、AIアシスタント時代のセキュリティの脆弱性を示す重要な事例です。しかし、この問題を機に運用を見直せばリスクを軽減できます。だからこそ、AIのアクセス範囲の制限と出力の監査を今すぐ始めましょう。まずは自社のCopilot設定を確認して、機密ラベル付きデータへのアクセス状況を把握してみてください。