制定AI管理政策,從模型盤點開始
- ASF小編
- 10月11日
- 讀畢需時 2 分鐘
當業務團隊自行使用ChatGPT、Claude或各種瀏覽器外掛,IT與資安部門卻毫不知情,這就是Shadow AI現象。沒有完整盤點,就無法識別風險來源。如同軟體供應鏈需要SBOM(Software Bill of Materials),AI生態系統更需要AI-BOM(AI Bill of Materials)——一份涵蓋模型、資料集、軟體、硬體及相依性的完整清單。
為了符合ISO 42001 A.4要求,組織必須維護AI系統資源的全面清冊。以下就針對模型的管理和清查提供一份簡單的範例。
AI模型管理政策
第一條:定期審查所有已部署、正在評估或自行開發的AI模型,資訊應至少包括模型提供者(Vendor)或出處(Provenance)、模型目的和預期使用案例(Use Case)、訓練資料來源、存取權限和限制(如AI代理)。
第二條:未經權責主管核准的模型禁止用於提供公司對外服務或處理敏感內部資料,核准考量因素包括但不限於:供應商聲譽或開源社群的可靠性、負責任AI(Responsible AI)的價值觀和原則、模型經過的測試和驗證程度,以及合規性(如:是否在European Union AI Act適用範圍內)。
AI模型清冊欄位說明
欄位名稱 | 範例/說明 |
模型名稱/ID | 客户支援聊天機器人 v1.2 |
模型提供者 (Model Provider) | 供應商 A, 開源 (Meta's LLama), 自家開發 (Homegrown) |
模型類型 (Model Type) | LLM (Large Language Model), 電腦視覺 (Computer Vision), 表格數據 (Tabular Data) |
目的 (Purpose) | 提升產品描述生成效率 |
預期用例 (Intended Use Case) | 內容生成 (Content generation), 欺詐檢測 (Fraud detection), 藥物研發 (Drug discovery) |
訓練數據來源 (Training Data Sources) | 內部客户文檔數據集 v3.0, 公開數據集 X |
推理/預測數據來源 (Inference Data Sources) | 實時客户輸入數據流 |
數據集敏感度分類 | PII (個人身份信息), PHI (受保護健康信息), 敏感 IP |
模型狀態 | 開發中 (Under Development), 測試中 (Staging), 生產環境 (Production), 已停用 (Decommissioned) |
部署類型 | API-based SaaS (OpenAI), CSP-managed (Azure OpenAI), 自行管理 (Self-managed) |
最後訓練/更新日期 | 2025-09-01 |
使用授權 | Apache 2.0, MIT |
存取權限和限制 (Access Permissions & Restrictions) | 僅限特定 ML 工程師團隊訪問 |
人為監督和干預點 (Human Oversight & Intervention) | 需人工審核高風險輸出 |
風險評估和緩解計劃 (Risk Assessment & Mitigation) | 偏見風險:定期進行偏見審計 |
合規標準 (Compliance with Standards) | 已遵循 GDPR、HIPAA |
批准狀態 (Sanctioning Status) | 已批准 (Sanctioned) / 未批准 (Unsanctioned) |

留言