OpenAI、AI セキュリティ戦略「Cyber Framework」を公開──防御側を優位にする 4 段階の評価基準を導入
AI の悪用リスクを定量化し、防御側が常に攻撃側を上回る「防御優位」の実現に向けて、モデルの公開停止を含む厳格な安全基準を定めた。
リリース: 2024-06-10 · 読了 3 分何が起きた
OpenAI はモデルのサイバー攻撃能力を「Low」「Medium」「High」「Critical」の 4 段階で評価する Cyber Framework を策定した。
「High」以上のリスクと判定された場合、十分な緩和策が講じられるまでモデルの一般公開やデプロイを制限する運用を明文化した。
防御側の能力を底上げするため、DARPA との提携による「AI Cyber Challenge」への 700 万ドルの投資など、防御ツール開発への支援を強化する。
なぜ重要
AI による脆弱性発見が「人間を超える」閾値を OpenAI が定義したことで、企業は LLM 採用時のリスクアセスメントを定性的な不安からフレームワークに基づいた評価へ移行できる。
👁️ 開発者
セキュリティ製品を開発するエンジニアは、OpenAI が提示する防御優位の設計思想に基づき、攻撃検知やコード修正の自動化機能をプロダクトに組み込む際の安全性を説明する材料にできる。
🇯🇵 日本
金融や公共インフラを担う国内大手 SIer は、AI 導入の社内規定を策定する際、OpenAI の Cyber Framework を国際的な安全基準として参照し、リスク管理体制を構築する指針にできる。