Safe Refusal Provenance(安全拒否証明)
核心的イノベーション:
C2PAが証明するのは:
「このコンテンツは生成された」
CAP-SRPが証明するのは:
「このリクエストはブロックされた」
「 AIプロバイダーが「何百万件もの有害リクエストをブロックした」と主張しても、第三者がその主張を検証できる仕組みは存在しませんでした。2026年1月のGrok事件でこの構造的欠陥が露呈しました:xAIのシステムがモデレーション機能を備えていると主張しながら、何千もの非同意の親密画像(NCII)を生成していました。CAP-SRPは検証ベースのAI説明責任のための暗号基盤を提供します。 」
従来のログがAI安全検証に失敗する理由
| 脅威 | 説明 | CAP-SRP対策 |
|---|---|---|
| 選択的ログ | 有利な結果のみをログに残す | 完全性不変条件 |
| ログ改ざん | 過去の記録を書き換える | ハッシュチェーン整合性 |
| バックデート | 偽のタイムスタンプで記録を作成 | 外部アンカリング(RFC 3161/SCITT) |
| スプリットビュー | 異なる相手に異なるログを見せる | マークル証明 |
| 捏造 | 虚偽の拒否記録を作成 | 試行-結果ペアリング |
AIコンテンツ決定を証明するための中核イベントタイプ
リクエスト受信
安全評価の前にログ記録。生成リクエストが到着したことを記録。
生成成功
コンテンツが生成され、ユーザーに配信された。
生成拒否
ポリシー違反検出によりリクエストがブロックされた。
システム障害
システムエラーにより生成失敗(ポリシー関連ではない)。
100ms
リクエスト → GEN_ATTEMPT
60秒
GEN_ATTEMPT → 結果
1秒
結果イベントのログ記録
重要要件:評価前ログ記録
GEN_ATTEMPTは安全評価が始まる前にログ記録される必要があります。これにより「安全な」リクエストのみが記録される選択的ログを防ぎます。
CAP-SRPの数学的核心
∑ GEN_ATTEMPT = ∑ GEN + ∑ GEN_DENY + ∑ GEN_ERROR
任意の時間枠において、試行回数と全結果の合計が完全に一致しなければなりません。
マッチしない試行を検出
→ システムが結果を隠蔽
孤立した結果を検出
→ システムが拒否を捏造
試行ごとに複数の結果
→ データ整合性の障害
def verify_completeness(events: List[dict], time_window: Tuple) -> Result: """ 時間枠内のイベントに対して完全性不変条件を検証。 戻り値: ステータス、マッチしない試行、孤立結果を含むResult """ filtered = [e for e in events if time_window[0] <= e["Timestamp"] <= time_window[1]] attempts = {e["EventID"]: e for e in filtered if e["EventType"] == "GEN_ATTEMPT"} outcomes = [e for e in filtered if e["EventType"] in ["GEN", "GEN_DENY", "GEN_ERROR"]] matched_attempts = set() orphan_outcomes = [] for outcome in outcomes: attempt_id = outcome.get("AttemptID") if attempt_id in attempts: if attempt_id in matched_attempts: return Result(valid=False, error="DUPLICATE_OUTCOME") matched_attempts.add(attempt_id) else: orphan_outcomes.append(outcome["EventID"]) unmatched_attempts = set(attempts.keys()) - matched_attempts return Result( valid=(len(unmatched_attempts) == 0 and len(orphan_outcomes) == 0), unmatched_attempts=list(unmatched_attempts), orphan_outcomes=orphan_outcomes )
GEN_DENYイベント用の標準化された分類
CSAM_RISK
児童性的虐待素材リスク
NCII_RISK
非同意の親密画像
MINOR_SEXUALIZATION
未成年の性的表現
REAL_PERSON_DEEPFAKE
無許可のリアルな人物描写
VIOLENCE_EXTREME
過激な暴力、ゴア、拷問
HATE_CONTENT
差別的コンテンツ
TERRORIST_CONTENT
テロ関連コンテンツ
SELF_HARM_PROMOTION
自傷行為の助長
COPYRIGHT_VIOLATION
明確な知的財産権侵害
組織のニーズに応じた段階的導入
中小企業、アーリーアダプター
自主的な透明性確保
企業、VLOP
EU AI Act 第12条
規制対象産業
DSA 第37条監査
CAP-SRPがグローバルAI規制にどう対応するか
| 規制 | 管轄 | 施行 | CAP-SRP実装 |
|---|---|---|---|
| EU AI Act 第12条 | EU | 2026年8月 | 自動ログ、リスク識別、6ヶ月保存 |
| デジタルサービス法(DSA) | EU | 施行中 | 第37条監査、GEN_DENY統計 |
| コロラド州AI法(SB24-205) | 米国(CO) | 2026年2月 | 影響評価、3年間保存 |
| TAKE IT DOWN法 | 米国(連邦) | 2026年5月 | NCII証拠、48時間対応証明、GEN_DENY |
| UK オンライン安全法 | 英国 | 施行中 | カテゴリ1サービスはゴールドレベル |
CAP-SRPは既存の透明性インフラを補完します
| 観点 | C2PA | CAP-SRP |
|---|---|---|
| 問い | 「これは本物か?」 | 「AIは何を決定した?」 |
| 焦点 | コンテンツの来歴 | システムの説明責任 |
| 比喩 | コンテンツのパスポート | システムのフライトレコーダー |
CAP-SRPはIETF SCITT(サプライチェーン整合性・透明性・信頼)とドメイン固有プロファイルとして統合されます。
AIコンテンツシステムに暗号学的説明責任を実装
「根本的な問題は『AIシステムは有害コンテンツを検出できるか?』ではなく、
『主張された検出が実際に行われたことを第三者が検証できるか?』である。」
— CAP-SRP 仕様書 v1.0
「信頼するな、検証せよ」
本作品は CC BY 4.0 International の下でライセンスされています
CAP-SRP 仕様書 v1.0.0 — リリース日: 2026-01-28