武器として利用されるインテリジェンス

武器として利用されるインテリジェンス

著者   |  9 分間で読了  | 

AIは攻撃者にとって最強の武器となりつつあります。だからこそ、防御にもAIが必要です。

最先端のモデルの機能はもう理論上だけのものではなくなりました。AnthropicやOpenAIをはじめとする企業は、間もなく脆弱性を高レベルで大規模に検出できるモデルをリリースしようとしています。これは、単なる段階的な進化ではありません。多数のエージェントで技術インフラストラクチャのあらゆる脆弱性を継続的に体系的に洗い出している状況を想像してください。

今後も半年間は、巧妙化した攻撃者が容易に侵入し続けます。ハッカーにとって理想的な武器が、クレジット カードとコンピュータさえあればだれでも利用できるようになります。

この状況を特別なものにしているのは、単なる能力ではありません。攻撃者と被害者の力関係が不均衡で、今のところは、攻撃者が有利になっているのです。かつては攻撃者がチーム全体で実行する必要のあったキャンペーンでも、現在はたった1人で実行できます。モデルは休みなく攻撃し続け、いくらでも規模を拡大できます。そして攻撃者は1度成功すれば十分です。防御側は常に完璧であることを求められます。それではフェアな戦いとは言えません。 

標的となる脆弱性の多くは、簡単に見つけることができるのです。一般的な企業は、設定ミス、見過ごされているAPIエンドポイント、かつては理にかなっていたものの一度も改訂されていないセキュリティ ポリシーといった脆弱性を長年にわたり放置したままの、数え切れないほどのテクノロジ ベンダーと、膨大な数のオープン ソースの依存関係に頼っています。これは、完全には解消されないまま残されてきた長年の混乱です。そして新しいモデルは、それを見つけ出す能力が優れています。

そして、状況は複雑化しています。従業員は自ら生み出しているリスクを完全に把握することなくエージェントを試しています。バイブ コーディングにより、ソフトウェア作成は、それが生み出すリスクを理解していない人々にも可能になりました。現在ではあらゆるデスクトップがサーバのように効率的に動作し、重要なシステムの近くで動作するAIツールが監視されなくなる可能性もあります。アタック サーフェスは、ほとんどの場合は気付かれることなく、拡大し続けています。

ほとんどのリーダーたちが想定するよりも早く、その代償を支払うときが訪れます。

AIを利用した攻撃では既に、アクセスから窃取まで最短25分で完了するようになっており、企業ではいまだに侵入の検出に平均で数日かかっています。このことは既に厄介な問題となっています。新たな最先端のモデルにより、そうした状況が続くことはなくなります。例外となる企業はありません。そうしたモデルを支えているAIデータ センターであっても、それらのモデルによって脆弱性が突き止められる可能性があるような企業ITシステム上で実行されているのであれば、例外ではありません。この場合、モデルはまだ完全な解決策とはならず、むしろ問題を悪化させかねます。 

そこで、しばしば問われるのが、だったら、次にどうすればよいのか、ということです。

サイバーセキュリティ企業の役割は、こうした問題を生み出すモデルが防御にも役立つようにする、つまりAIでAIを制することです。

重要なのは、脆弱性を見つけて悪用するモデルが防御の一端を担える可能性があるということです。ただし、そのためには防御ソリューションへ迅速に統合する必要があります。防御側にとっての利点は、これらのモデルを展開し、発見した脆弱性を基本的にリアルタイムで迅速に特定、検証してパッチを適用できることです。攻撃側はこのテクノロジを利用できますが、防御側も同様です。取るべき戦略は明らかです。私たちはAIでAIを制する必要があるのです

覚えておいてほしいのは、これらのモデルには包括的な防御システムとしての効果がないことです。今後も、それだけで十分になることはありません。それらのモデルは強力ですが、構築に何年もかかった基盤を必要とします。サイバーセキュリティの基盤は以下のとおりです。

  • センサー: データを収集し、既知の脅威を広がる前に阻止する、ネットワーク、クラウド、エンドポイント、およびブラウザ上のセンサー。エッジを保護するためのテクノロジが長年にわたって構築されてきましたが、それらのテクノロジをAIで強化することが必要になるでしょう。センサーが把握できないものをモデルが修正することはできません。エッジでの観測基盤は任意のものではなく、最初の前提条件です。
  • AI対応のデータ レイク: センサーだけではノイズが生じます。ノイズを実用的なインテリジェンスに変換するのものはコンテキストであり、コンテキストには兆候を収集し、正規化して、保持するためのセキュリティに特化した豊富なデータ レイクが必要です。論理データ レイクは疑わしい兆候を確認された兆候と実際のレスポンスに変換するためのコンテキストをAIに提供できるだけの十分な情報を備えています。データ レイクはストレージではなく、企業が例外的なケースにも対応できるよう長年かけて構築してきた機械学習アルゴリズムと既知の技術の組み合わせによって、モデルがデータをその場で分析できるようにするものです。この組み合わせは模倣しにくく、攻撃がより困難です。
  • 基盤を構築し、サイロを解消: 現在は、サイバーセキュリティのスタックの断片化を減らすことがかつてないほど重要になっています。調査によると、侵害のうち75%では、異常な振る舞いを検知できたはずであったログが存在したにもかかわらず、重要な兆候が見逃されてしまい、手遅れになるまで対処できなかったことが明らかになっています。兆候がそこにあったのに、断片化されたツールでは見逃されてしまっていたのです。データは1ヶ所にまとめて、自己回復機能を備えた最新のツールを使用する必要があります。実際の環境がそのようになっていなくても、攻撃が人間と同じ速度で広まっていくのであれば対処できますが、AIを利用した高速な攻撃の場合は対処できません。統合は、モダナイゼーションのための単なる選択肢ではありません。前提条件です。 

解決策は、LLMをサイバーセキュリティとの対立ではなく、連携させることです。 

  • AIラボは、これらの機能を責任ある方法でリリースしつつ、防御の担当者や国家の安全保障関係者と事前に協議しておく必要があります。 
  • サイバーセキュリティやエージェンティック ワークフローに関する新しい機能は、設計段階からセキュリティが組み込まれている必要があり、セキュリティへの配慮を欠いたAI企業によりリリースされるべきではありません。 
  • 防御側はこれらの機能を迅速に活用し、AIでAIを制することができるようにする必要があります。 

AIのリスクは高まっています。今ならまだ行動を起こせます。私たちはともに明確な意図を持って迅速に行動を起こさなければなりません。すべてのセキュリティ リーダー、経営幹部、AI企業は必要な危機感を持ってこの問題に対処する必要があります。 

現在、サイバーセキュリティ企業は最も重大な局面を迎えています。

基盤を適切に保護すればAIによる防御が可能になります。方法を間違えると、世界中のどのモデルでも防御できなくなります。 

弊社の取り組みは順調に進んでいます。業界のAIラボ、テクノロジ ベンダー、パートナー、お客様とともに、弊社は防御を可能にする基盤を構築しています。AIラボだけではなく、皆さんにもそれぞれが果たすべき役割があります。

サイバーセキュリティ リソースの確保はいっそうコストがかかるようになりました。

連絡を取り合う

弊社に連絡