組織は、ステークホルダーへのポジティブなインパクトのスピードと規模を拡大するために、AIの採用を増やしています。AIの活用は有益ですが、従来のセキュリティ システムは、新たに発見された脅威のベクトルを評価したり防御したりするようには設計されていないため、新たなアタックサーフェスが広がっています。
このようなAIシステムを開発しながら、その脆弱性をプロアクティブに評価することは、開発者が最もインパクトのあるAIアプリケーションを構築し、業界で大きな競争優位性を獲得することを可能にする、より効率的で費用対効果の高い方法です。
Prisma® AIRS™AI レッド チーム演習は、特定のLLMまたはLLMベースのアプリケーションについて、これらの脆弱性の推論をテストするものです。アプリケーションがブランド外の出力を生成していないか、エージェントが設計されていないタスクを実行していないかを評価します。