持続的な興奮の良い年を経て、ついに二日酔いがやってきました。現在は穏やかなもので(今のところ)、市場は主要プレーヤー(Nvidia、Microsoft、Googleなど)の株価を修正し、他のプレーヤーは市場を再評価し、優先順位を調整しています。ガートナーはこれを「失望の谷」と呼び、関心が薄れ、実装が約束された突破口を提供できないときに起こります。技術の生産者は淘汰されるか、失敗します。投資は、生き残った提供者が初期導入者の満足を得る製品を改善する場合にのみ続きます。

はっきりさせておきたいのは、これは常にこうなる運命だったということです:AIの支持者が約束した人間後の革命は、現実的な目標ではなく、初期の大規模言語モデル(LLM)によって引き起こされた驚異的な興奮は、市場の成功に基づいていませんでした。

AIはここに留まる

では、AIの次は何でしょうか?もしガートナーのハイプサイクルに従うなら、深刻な崩壊の後には啓蒙の傾斜が続き、技術が成熟し足場を再獲得し、利点が明確になり、ベンダーが第二世代、第三世代の製品を市場に投入することになります。そして、すべてがうまくいけば、主流の採用が始まる「生産性の高原」が続き、技術の広範な市場の魅力が推進力となります。ガートナーは、いくつかの大きな「もし」があることを強調しています:すべての技術が崩壊の後に回復する運命にあるわけではなく、重要なのは製品が市場にすぐに適合することです。

現在、AIはここに留まる可能性がほぼ確実に見えます。AppleとGoogleは、技術を小さく消化しやすく使いやすい形に再包装した消費者向け製品を市場に投入しています(写真編集、テキスト編集、高度な検索)。品質はまだ非常に不均一ですが、少なくとも一部のプレーヤーは、消費者と自社の利益の両方にとって意味のある形で生成的AIを製品化する方法を見つけたようです。

LLMは私たちに何をもたらしたのか?

さて、これは企業顧客、特にサイバーセキュリティアプリケーションにとって何を意味するのでしょうか?生成的AIには、スケールでの採用を妨げる重要な欠点がまだ存在します。その一つは、生成的AIの本質的に非決定的な性質です。技術自体が確率モデルに基づいているため(これは機能であってバグではありません!)、出力にはばらつきが生じます。これは、古典的なソフトウェアの挙動を期待する業界のベテランを怖がらせるかもしれません。また、生成的AIは既存のツールの代替品ではなく、既存のツールの強化や拡張であることも意味します。それでも、攻撃者にとって予測が難しい多層防御の一層として機能する可能性があります。

採用の摩擦を引き起こすもう一つの欠点はコストです。モデルのトレーニングには非常に高いコストがかかり、この高コストは現在モデルの消費者に転嫁されています。その結果、クエリあたりのコストを下げることに多くの焦点が当たっています。ハードウェアの進歩とモデルの洗練における画期的な成果により、AIモデルの運用エネルギー使用量の大幅な削減が約束されており、(少なくともテキストベースの出力は)利益を生むビジネスに変わるという合理的な期待もあります。

安価でより正確なモデルは素晴らしいですが、これらのモデルを組織のワークフローに統合する作業が大きな課題になるという認識も高まっています。社会として、私たちはまだAI技術を日常業務に効率的に統合する方法についての経験を持っていません。また、既存の人間の労働力が新技術をどのように受け入れ、どのように働くかという問題もあります。例えば、私たちは、人間の労働者や顧客が正確さよりも説明可能性を重視するモデルとの対話を好むケースを見てきました。2024年3月のハーバード医科大学の研究では、AI支援の効果が不一致であり、放射線科医のテストサンプル全体で変動があったことが分かりました。一部の放射線科医はAIを使用してパフォーマンスが向上し、他の放射線科医は悪化しました。推奨は、AIツールを臨床実践に導入する際には、患者に最適な結果を提供するために、微妙で個別化された注意深いアプローチを取るべきだということです。

前述の市場適合性についてはどうでしょうか?生成的AIは(おそらく)プログラマーを置き換えることはないでしょうが(いくつかの企業が主張することに関わらず)、AI支援のコード生成はさまざまなシナリオにおいて有用なプロトタイピングツールになっています。これはサイバーセキュリティの専門家にとってすでに有用です:生成されたコードや設定は、何かを迅速に構築するための合理的な出発点となり、その後に洗練を加えることができます。

大きな注意点:既存の技術は、熟練した専門家の作業を迅速に進めるチャンスがありますが、生成されたテキスト(コードや設定)を迅速にデバッグし修正できるからです。しかし、分野のベテランでないユーザーにとっては潜在的に破滅的な結果を招く可能性があります:安全でない設定や不正なコードが生成される可能性が常にあり、それが本番環境に移行すれば、組織のサイバーセキュリティの姿勢を低下させることになります。したがって、他のツールと同様に、使い方を知っていれば有用ですが、知らなければ悪影響を及ぼす可能性があります。

ここで、現在の生成的AIツールの特別な特性について警告する必要があります:それらは結果を宣言する際に信じられないほど自信満々に聞こえます。たとえテキストが明らかに間違っていても、現在のすべてのツールは自信に満ちた態度でそれを提供し、初心者ユーザーを容易に誤解させます。したがって、心に留めておくべきことは、コンピュータは自分がどれだけ確信しているかについて嘘をついており、時には非常に間違っていることがあるということです。

もう一つの効果的なユースケースは顧客サポート、具体的にはレベル1サポートです – マニュアルや掲載されたFAQを読まない顧客を支援する能力です。現代のチャットボットは、簡単な質問に合理的に答えることができ、より高度な問い合わせを上位のサポートにルーティングできます。これは顧客体験の観点からは理想的ではありませんが、コスト削減(特に多くの未訓練のユーザーを抱える非常に大きな組織にとって)は重要である可能性があります。

AIがビジネスにどのように統合されるかに関する不確実性は、経営コンサルタント業界にとっては追い風です。たとえば、ボストンコンサルティンググループは現在、AI関連プロジェクトから20%の収益を得ており、マッキンゼーは今年、収益の40%がAIプロジェクトから来ると予想しています。IBMやアクセンチュアなどの他のコンサルティング会社も参加しています。ビジネスプロジェクトは非常に多様で、広告を一つの言語から別の言語に翻訳するのを容易にしたり、供給者を評価する際の調達における検索を強化したり、妄想を避け、信頼性を高めるために情報源への言及を含む堅牢な顧客サービスチャットボットを作成したりしています。INGでは、5000件の顧客問い合わせのうち200件がチャットボット経由で行われていますが、回答の質が向上するにつれて、この数は増加すると予想されます。インターネット検索の進化に類似して、データの泥沼で探し回るのではなく「ボットに尋ねる」ことが反射的な反応になる転換点を想像することができます。

AIガバナンスはサイバーセキュリティの懸念に対処する必要があります

特定のユースケースに関係なく、新しいAIツールは全く新しいサイバーセキュリティの頭痛をもたらします。過去のRPAと同様に、顧客向けチャットボットには、企業システムへの適切で時には特権的なアクセス権を持つ機械アイデンティティが必要です。たとえば、チャットボットは顧客を特定し、CRMシステムからいくつかの記録を引き出す必要があるかもしれません – これはIAMのベテランにとってすぐに警鐘を鳴らすべき事柄です。この実験的技術の周りに正確なアクセス制御を設定することは、実装プロセスの重要な側面となります。

DevまたはDevOpsプロセスで使用されるコード生成ツールについても同様です:コードリポジトリへの正しいアクセスを設定することで、何かがうまくいかない場合の影響範囲を制限できます。また、AIツール自体がサイバーセキュリティの負担になる場合、潜在的な侵害の影響を減少させることができます。

そしてもちろん、常に第3者のリスクがあります:このような強力で理解されていないツールを導入することで、組織はLLM技術の限界を探る敵に対して自らを開放しています。ここでの成熟度の相対的な不足は問題になる可能性があります:私たちはまだLLMを強化するためのベストプラクティスを持っていないため、機密性の高い場所での書き込み権限を持たせないようにする必要があります。

IAMにおけるAIの機会

この時点で、アクセス制御やIAMにおけるAIのユースケースと機会が形成され、顧客に製品として提供されています。役割マイニングや権限推奨などの従来のクラシックMLの分野は、現代的な手法やUIの光の下で再検討されており、役割の作成と進化がアウトオブボックスのガバナンスワークフローやUIにより密接に結びつけられています。ピアグループ分析、意思決定推奨、行動駆動型ガバナンスなど、最近のAIに触発された革新も、アイデンティティガバナンスの世界では標準的なものになりつつあります。顧客は、ユーザーの行動やセッションに基づいてAI駆動の異常検知や脅威検知を提供することを、SSOアクセス管理システムや特権アカウント管理システムのような強制ポイント技術に期待しています。

自然言語インターフェースは、これらのすべてのIAMソリューションカテゴリにおいてUXを大幅に向上させることを始めています。私たちはまだ静的なレポートやダッシュボードを必要としていますが、異なる責任やニーズを持つ人々が自然言語で表現し、検索結果をインタラクティブに洗練する能力は、組織がこれらのシステムから価値を実現するために必要なスキルやトレーニングを低減します。

これは始まりの終わり

ひとつ確かなことは、2024年中頃のAI技術の状態がどうであれ、この分野の終わりではないということです。生成的AIやLLMはAIの一つのサブフィールドに過ぎず、ハードウェアの進歩や政府および民間の研究資金の豊富さのおかげで、他のAI関連分野も急速に進展しています。

成熟した企業向けAIがどのような形を取るにせよ、セキュリティのベテランはすでに生成的AIが防御姿勢にどのような潜在的利益をもたらすか、これらのツールが既存の防御を突破するために何ができるか、そして実験が失敗した場合にどのように影響範囲を制限できるかを考慮する必要があります。