examlab .net 用最有效率的方法,考取最有價值的認證
Vol. I
本篇導覽 約 29 分鐘

負責任 AI 原則與 AWS 框架

5,620 字 · 約 29 分鐘閱讀 ·

掌握 AIF-C01 負責任 AI 原則:AWS 八大支柱(公平性、可解釋性、隱私、安全、穩健性、治理、透明性、真實性與可控性)、Well-Architected ML Lens、資料集偏差分類、Amazon A2I 人工審查迴路、AWS AI Service Cards,以及 SageMaker Model Cards。

立即做 20 題練習 → 免費 · 不用註冊 · AIF-C01

負責任 AI 原則描述 AWS 期望你如何設計、建置、營運並治理 AI 系統,使你部署的模型對所有受其影響的人而言都能公平、安全、透明地運作。就 AIF-C01 考試而言,負責任 AI 原則是 Domain 4(占計分題目 14%)的概念骨幹,並延伸至 Domain 2(生成式 AI 限制)與 Domain 5(治理與合規)。Task Statement 4.1 明確要求你說明如何開發負責任的 AI 系統,AWS 透過情境題來測試這個能力:你必須將一個道德疑慮對應到正確的 AWS 功能——Amazon SageMaker Clarify 對應偏差、Amazon A2I 對應人工介入迴路、AWS AI Service Cards 對應透明性、SageMaker Model Cards 對應模型文件、Bedrock Guardrails 對應內容安全,以及 AWS Well-Architected Machine Learning Lens 對應端對端審查。

什麼是負責任 AI 原則?

負責任 AI 原則是將技術上具備能力的模型轉化為值得信賴產品的道德與操作護欄。AWS 將其負責任 AI 原則整理成一組公開的核心維度(AWS Responsible AI 頁面記載的八大支柱),涵蓋公平性、可解釋性、隱私、安全、穩健性、治理、透明性、真實性、安全性與可控性。負責任 AI 原則不是可有可無的裝飾——對於受監管的工作負載而言,這是決定模型能否上線還是永遠停留在實驗室的關鍵差異。就 AIF-C01 考試而言,負責任 AI 原則的考題形式包括:詞彙題(「哪個支柱處理偏差?」)、情境對應題(「團隊需要偵測訓練資料集中的 PII——應使用哪個 AWS 服務?」),以及政策選擇題(「為了符合 GDPR 合規,應採用哪個負責任 AI 功能?」)。

負責任 AI 原則對 AIF-C01 的重要性

Domain 4(「負責任 AI 指引」)占 AIF-C01 計分題目的 14%,但負責任 AI 原則同樣會滲入 Domain 2 的生成式 AI 限制題目與 Domain 5 的合規情境題。社群考後心得一致指出,透明性與可解釋性的區分題、公平性指標題,以及 Amazon A2I 人工介入迴路情境,是 Domain 4 最常見的陷阱。只要把負責任 AI 原則的詞彙學透一次,就能跨三個不同 Domain 解鎖正確答案。

本主題範圍與相鄰主題的界線

本主題的負責任 AI 原則著重於概念框架:AWS 八大支柱、資料集偏差分類、治理結構,以及 AWS AI Service Cards 與 SageMaker Model Cards 作為透明性文件的角色。透明性與可解釋性的技術機制(SHAP、LIME、SageMaker Clarify 偏差指標)屬於相鄰主題。SageMaker Clarify、Model Monitor 與 Amazon A2I 的具體工具操作屬於 SageMaker 負責任 AI 工具主題。Bedrock Guardrails 的機制屬於 Bedrock Guardrails 主題。請維持這個界線:本頁討論「為什麼」與「是什麼」,相鄰頁面討論「怎麼做」。

白話文解釋 負責任 AI 原則

官方文件的措辭容易讓負責任 AI 原則聽起來像法規抽象條文。以下四個類比能讓概念更加扎實。

類比一——辦桌總鋪師與食品安全認證

辦一桌好酒席,廚師不能只求料理好吃,更要確保食材安全衛生。公平性是每位賓客不論身分都能享用同等品質菜色的規矩——不會因為某桌來賓地位不同就偷工減料。隱私是不把客人的飲食過敏紀錄外洩的承諾。安全性是廚房裡的防護設施與滅火器。透明性是貼在牆上列出所有食材的過敏原菜單。可解釋性是服務員被問到「為什麼這道菜這麼辣?」時能給出答案。治理是衛生稽查員帶著查核表現身。真實性是廚師不謊稱養殖魚為野生魚。辦桌的比喻與負責任 AI 原則可以完整對應:AWS 提供你的爐灶(Bedrock、SageMaker)、冰箱(S3、KMS)與食譜冊(Model Cards),但你才是對上桌菜色負責的總鋪師。

類比二——有監考員的開放式考試

大學的開放式考試衡量的是學生在監督下的推理能力。AI 部署就是那場開放式考試:基礎模型帶來預訓練知識(教科書),RAG 管線帶來最新脈絡(可翻閱的筆記),人工審查員是監考員(Amazon A2I),評分標準是可解釋性(SageMaker Clarify)。一場沒有監考員、讓學生任意猜答的考試是不負責任的——那就是沒有 Amazon A2I、沒有 Clarify、沒有 Guardrails 的模型部署。負責任 AI 原則就是把開放式考試從作弊溫床轉變為可信賴評量的機制。

類比三——銀行貸款部門與放款員

銀行分行核發房貸,每位放款員都必須說明核准或拒絕申請的理由。若分行將核准決策交給黑箱處理,下一次監管審查就會踢到鐵板。公平性是來自不同地區的申請人在信用紀錄相同時受到同等審視的規定。可解釋性是銀行寄給遭拒申請人、載明具體原因(收入不足、負債比率過高)的通知信。人工介入迴路(Amazon A2I)是放款員親自審查每筆高額或邊緣案件。透明性是公開揭露的放款政策。真實性是銀行不捏造申請人的歷史資料。這正是負責任 AI 原則的操作手冊:涉及重大影響的模型,缺一不可——說明、審查、稽核。

類比四——電網與斷路器

電網穩定供電,但一旦偵測到危險就必須立刻跳脫保護。負責任 AI 原則中的可控性就是那個斷路器:一個能讓失控模型立即停止的緊急開關。穩健性是電網在暴風雨負載下維持運行的能力。安全性是接地線與絕緣層。治理是電力主管機關。真實性是準確的電表讀數。隱私是不讓鄰居知道你用了多少電。當 AIF-C01 考題問到「哪個原則涵蓋在模型失控時立即停用它的能力?」,答案就是可控性——斷路器。

AWS 負責任 AI 支柱——八大核心維度

AWS 在 AWS Responsible AI 頁面公開發布負責任 AI 原則,並在 AWS Well-Architected Machine Learning Lens 中強化這些原則。AIF-C01 要求你熟知支柱名稱、每個支柱涵蓋的範圍,以及最直接支援各支柱的 AWS 服務。

支柱一——公平性

公平性意指模型對相似的個人或群體給予相似的對待,不因種族、性別、年齡或郵遞區號等敏感屬性而有所差異。負責任 AI 原則指出,公平性是最常被誤實作的支柱,因為它依賴脈絡而定:人口統計均等(demographic parity)、機會均等(equal opportunity)與個體公平性(individual fairness)是三種合法但往往相互衝突的公平性定義。在 AWS 上,主要的公平性工具是 Amazon SageMaker Clarify,它使用類別不平衡(CI)、正向比例差異(DPL)與差異衝擊(DI)等指標來衡量訓練前與訓練後偏差。

支柱二——可解釋性

可解釋性是描述特定預測結果成因的能力。AWS 透過 SageMaker Clarify 的 SHAP 特徵歸因來落實可解釋性。可解釋性與透明性是不同的支柱:可解釋性回答「為什麼是這個預測?」,透明性回答「這個系統是如何建構的?」

支柱三——隱私與安全

隱私與安全在 AWS 文件中通常一起討論,因為兩者高度重疊。隱私是指在 AI 生命週期的各個階段——訓練資料收集、推論,以及模型輸出——保護個人的個人資料。安全是指保護 AI 系統本身不受攻擊者入侵。負責任 AI 原則將兩者視為不可妥協的前提:一個再公平、再可解釋的模型,若會洩漏 PII 或遭受提示詞注入攻擊,就不算負責任。相關 AWS 服務:Amazon Macie(PII 探索)、AWS KMS(加密)、IAM(存取控制)、VPC 端點(網路隔離)、Bedrock Guardrails(推論時 PII 遮蔽)。

支柱四——安全性

安全性是防止有害輸出——鼓勵暴力、自我傷害、非法活動或其他現實世界損害的內容。在 Amazon Bedrock 上,安全性透過 Bedrock Guardrails 的內容過濾器(仇恨、侮辱、色情、暴力、不當行為)與拒絕主題來強制執行。安全性不同於資訊安全:資訊安全是防止攻擊者傷害系統,安全性是防止系統傷害世界。

支柱五——可控性

可控性是人類引導、覆寫或關閉 AI 系統的能力。負責任 AI 原則要求可控性,因為模型在生產環境中可能出現意外行為。AWS 的可控性介面包括:Bedrock Guardrails(可按每次呼叫切換)、SageMaker 端點(可透過單一 API 呼叫下線)、Amazon A2I(低信心時轉交人工審查員),以及 IAM(透過撤銷權限切斷模型呼叫)。

支柱六——真實性與穩健性

真實性意指模型輸出在事實上是正確的,不是幻覺捏造。穩健性意指模型在資料擾動、對抗性攻擊或分布外輸入的情況下仍能維持一致的行為。AWS 將真實性與穩健性放在一起,因為基礎模型幻覺是典型的真實性失敗,而對抗性提示詞注入則是典型的穩健性失敗。相關 AWS 服務:Amazon Bedrock Guardrails 的接地檢查(真實性)、搭配 Bedrock Knowledge Bases 的 RAG(真實性)、SageMaker Model Monitor(穩健性漂移)、SageMaker Clarify(偏差漂移)。

支柱七——治理

治理是組織層面的包裹——政策、角色、問責結構、稽核追蹤,以及事件回應手冊。負責任 AI 原則仰賴治理,因為缺乏組織責任歸屬的技術控制會隨時間鬆弛失效。AWS 的治理介面包括:AWS Config(追蹤 SageMaker/Bedrock 的資源組態)、AWS CloudTrail(API 稽核日誌)、AWS Audit Manager(持續合規證據收集)、AWS Organizations(多帳號政策),以及 SageMaker Model Registry(模型版本審批工作流程)。

支柱八——透明性

透明性是關於 AI 系統如何建構、訓練、預期用途與限制的開放揭露。AWS 在兩個層次上提供透明性:AWS 發布 AWS AI Service Cards,描述每個託管 AI 服務的預期用途、效能與限制;你則發布 SageMaker Model Cards,描述你的自訂模型。透明性讓稽核人員或監管機關能夠評估系統是否符合其聲明。

公平性、可解釋性、隱私、安全、安全性、可控性、真實性與穩健性、治理、透明性。九個關鍵字涵蓋八大支柱(真實性與穩健性由 AWS 合併為一個支柱)。每道 AIF-C01 負責任 AI 原則考題都能對應到這些支柱之一。隱私與安全有時合併為單一支柱;真實性與穩健性也是如此。AWS 在 2024 年更新了分類法,以反映生成式 AI 的額外考量。 Reference: https://aws.amazon.com/machine-learning/responsible-ai/

AWS Well-Architected ML Lens——負責任 AI 檢查清單

AWS Well-Architected Framework 的 Machine Learning Lens(ML Lens)是一份結構化的設計審查文件,它將熟悉的 Well-Architected 六大支柱(卓越運營、安全、可靠性、效能效率、成本最佳化、永續性)套用於 ML 工作負載,並將負責任 AI 原則作為一個貫穿全局的學科加入其中。就 AIF-C01 考試而言,你需要知道 ML Lens 的存在、它涵蓋的內容,以及何時應在答題中提及它。

ML Lens 各階段與負責任 AI 的對應

ML Lens 圍繞 ML 開發生命週期的各個階段來組織審查:業務目標識別、ML 問題定義、資料收集與準備、特徵工程、模型訓練與調整、模型評估、部署,以及監控。負責任 AI 原則出現在每個階段:資料收集階段強制執行隱私與公平性;特徵工程階段標記聚合偏差;訓練階段評估偏差指標;評估階段確認真實性與穩健性;部署階段建立可控性(端點切換、Guardrails);監控階段觀察可能侵蝕任何支柱的漂移。

ML Lens 負責任 AI 檢查清單項目

具代表性的檢查清單項目(改寫自 ML Lens 文件):訓練資料集是否反映目標族群?敏感屬性是否已被識別,並排除或標記以進行公平性分析?是否有基準公平性報告?是否有可解釋性方法(SHAP、LIME 或 Clarify 特徵歸因)?低信心推論是否使用人工介入迴路(Amazon A2I)?是否有記載預期用途與限制的 Model Card(或託管服務的 AI Service Card)?是否有模型風險登記冊?是否有緊急關閉路徑(可控性)?監控是否涵蓋資料漂移、模型品質漂移與偏差漂移?每個項目都對應到八大負責任 AI 原則中的一個或多個支柱。

何時在考題答案中引用 ML Lens

若情境題要求「一個涵蓋負責任 AI 的結構化框架,用於審查 AI 系統是否具備生產就緒性」,ML Lens 就是正確答案。若情境題要求的是單一工具——偏差偵測、可解釋性、人工審查、內容過濾——則應指向具體的 AWS 服務(Clarify、A2I、Guardrails、Macie)。

AWS Well-Architected ML Lens 是一份文件框架與審查流程,不計費、沒有 API,也不會自動執行控制。你透過閱讀它、針對你的工作負載執行審查問題,並使用 AWS 服務修補缺口來套用 ML Lens。不要把它誤認為是一個託管工具。 Reference: https://docs.aws.amazon.com/wellarchitected/latest/machine-learning-lens/machine-learning-lens.html

資料集偏差分類——五種必須認識的類型

負責任 AI 原則從資料開始。訓練資料中的偏差會傳播到模型偏差,進而傳播到不公平或不安全的輸出。AWS 文件與 AIF-C01 考試期望你能辨識五種標準的資料集偏差類別。請記住這個分類法——考試會描述一個情境並要求你指出偏差類型。

歷史偏差

歷史偏差是指收集資料的那個時代世界本身就存在偏差,因此資料集忠實反映了我們不希望模型延續的現實。典型範例:一個以男性主導行業十年履歷為訓練資料的招聘模型,即使公司現在希望平衡錄用,仍會傾向推薦男性應徵者。資料是準確的,但它所記錄的世界是有偏差的。負責任 AI 原則要求透過公平性稽核揭露歷史偏差,並透過重新加權、重新取樣或政策覆寫來緩解。

代表性偏差

代表性偏差是指資料集中某些群體相對於目標族群被低度取樣。一個主要以淺膚色臉孔訓練的人臉辨識模型,對深膚色臉孔的表現較差——這是代表性偏差。一個主要以北美英語訓練的語音轉文字模型,在印度英語口音上表現不穩——也是代表性偏差。負責任 AI 原則透過分層資料收集、針對性資料擴充,以及明確的子群體效能報告來緩解代表性偏差。

測量偏差

測量偏差是指用於訓練模型的特徵或標籤,是你真正在意之事物的有缺陷代理指標。以「逮捕紀錄」作為「犯罪行為」的代理指標,會將執法偏見烙印進去。以「工作績效評分」作為「工作表現」的代理指標,會將主管偏見烙印進去。負責任 AI 原則要求明確承認代理變數的存在,並在可行時改用直接量測。

聚合偏差

聚合偏差是指以單一模型處理實際上需要不同模型的群體。一個以混合族裔族群訓練的糖尿病風險模型,對於代謝指標有所差異的子群體可能表現不佳;被聚合的模型抹去了子群體特有的模式。負責任 AI 原則透過評估子群體效能,並在存在差距時採用子群體專屬模型或加入子群體感知特徵來緩解聚合偏差。

評估偏差

評估偏差是指用於評估模型的基準或測試集,無法代表部署族群。一個以正式新聞文字評估但部署於社群媒體的情感分析模型,就會出現評估偏差——基準分數亮眼,但實際部署時卻失敗。負責任 AI 原則要求評估集能反映生產環境的資料分布。

歷史偏差:資料是準確的,但它所記錄的過去世界存在偏差(過去的招聘模式)。代表性偏差:資料因為某些群體被低度取樣而不完整(訓練集分布不均)。社群考後心得顯示,AIF-C01 考生經常在情境題中混淆這兩者。一個以十年男性主導履歷訓練的招聘模型,顯示的是歷史偏差(記錄是真實的,但那個行業本身是失衡的)。一個因為 90% 訓練圖片是淺膚色臉孔而誤判深膚色臉孔的人臉辨識模型,顯示的是代表性偏差。請保持這兩者的明確區分。 Reference: https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-bias-detection-statistics.html

以 Amazon A2I 實現人工介入治理

Amazon Augmented AI(Amazon A2I)是 AWS 服務,負責將低信心的機器學習預測轉交給人工審查員。負責任 AI 原則將人工介入迴路視為核心的可控性與安全性機制——當機器不確定時,由人類來決定。

Amazon A2I 的功能

Amazon A2I 接收一個 ML 推論結果(來自 Amazon Rekognition、Amazon Textract、Amazon Comprehend、SageMaker 端點或任何自訂模型),套用你定義的信心門檻規則,並針對低於門檻的預測結果,建立轉交給工作人員的人工審查任務。工作人員可以是內部私有工作人員、供應商管理的工作人員,或 Amazon Mechanical Turk。人工判斷結果會被記錄下來,並可回饋至模型再訓練。

A2I 內建整合

Amazon A2I 隨附 Amazon Textract(表單擷取審查)與 Amazon Rekognition(內容審核審查)的預建整合。對於任何其他模型,包括來自 Bedrock 的生成式 AI 輸出,你可以使用 A2I 自訂工作流程——自行定義任務 UI、工作人員指示與觸發條件。

A2I 在負責任 AI 原則中的角色

A2I 是可控性(「人類可以覆寫模型」)、安全性(「低信心輸出不會自動送出」)與治理(「人工決策成為稽核證據」)的具體實作。在 AIF-C01 考試中,任何描述「低信心預測轉交人工審查員」或「具備人工備援的內容審核」的情境,都指向 Amazon A2I。

何時不應使用 A2I

A2I 不能取代模型改善。若你的模型有一半推論的信心值僅有 40%,正確的修復方式是更好的訓練資料或更好的模型——而不是將 50% 的流量轉給人工審查。A2I 適用於低信心預測的長尾情境,此時人工判斷在經濟上是合理的。

若情境題提到「低信心預測的人工審查」、「具備人工備援的內容審核」或「具備人工驗證的文件擷取」,答案就是 Amazon A2I。Amazon A2I 是工作流程服務,本身不是模型。它根據你設定的信心門檻,將預測結果路由給審查員。 Reference: https://docs.aws.amazon.com/sagemaker/latest/dg/a2i-use-augmented-ai-a2i-human-review-loops.html

AWS AI Service Cards——供應商端透明性

AWS AI Service Cards 是公開發布的文件,描述每個 AWS 託管 AI 服務(Amazon Rekognition Face Matching、Amazon Transcribe、Amazon Textract AnalyzeID、Amazon Comprehend Detect Sentiment、Amazon Titan、Amazon Q 等)的預期使用案例、限制、效能特性、公平性測試結果與設計選擇。負責任 AI 原則要求供應商端的透明性,而 AI Service Cards 正是 AWS 實現這一點的方式。

AI Service Card 的內容

典型的 AWS AI Service Card 包含:基本概念(服務的功能)、預期使用案例、限制(支援的語言、精準度說明、公平性考量)、服務設計、效能預期、部署與最佳化最佳實踐、治理與負責任 AI 考量,以及延伸資源。AWS 在 AWS AI Service Cards 頁面上發布 Service Cards,並隨著服務演進持續更新。

AI Service Cards 如何支援負責任 AI 原則

若你正在 Amazon Rekognition 之上建構服務,你需要在部署前了解——Rekognition Face Matching 具有因人口統計群體而異的公平性考量,這些都記載於 Service Card 中。若你忽略 Service Card,就無法宣稱你的部署是負責任的。在 AIF-C01 考試中,詢問「AWS 在哪裡發布其 AI 服務的透明性資訊?」的題目,答案指向 AI Service Cards。

AI Service Cards vs Model Cards

AI Service Cards 描述 AWS 託管服務(供應商端透明性)。Amazon SageMaker Model Cards 描述你自己訓練的模型(客戶端透明性)。Bedrock 也支援基礎模型的 Model Cards。這個區別會被考到——Service Card 是 AWS 發布的,Model Card 是你自己建立的。

Amazon SageMaker Model Cards——客戶端透明性

Amazon SageMaker Model Cards 是存放在 SageMaker Model Registry 中的結構化文件成品,記錄審查員或稽核人員了解你所訓練模型所需的一切資訊。負責任 AI 原則要求這種文件,因為對下游消費者而言,沒有 Model Card 的模型與黑箱無異。

SageMaker Model Card 的內容

SageMaker Model Card 記錄:模型概述(名稱、版本、負責人)、預期使用案例、訓練資料集參照、訓練與評估指標、道德考量與公平性測試結果、限制與風險、核准狀態(草稿、待審核、已核准、已封存),以及組織自訂欄位(例如法規分類)。Model Cards 與模型成品一起存放在 SageMaker Model Registry 中,版本同步管理。

Model Card 工作流程

典型工作流程:資料科學家使用 SageMaker Training 訓練模型,建立草稿狀態的 Model Card,附上 SageMaker Clarify 產生的評估與偏差報告,然後將 Model Card 連同模型一起提交審查。審查員(通常是負責任 AI 主管或合規負責人)檢視 Model Card,核准或拒絕,只有已核准的 Model Card 才能繼續部署至生產環境。這個流程產生了負責任 AI 原則治理所要求的稽核追蹤。

Model Cards 與基礎模型

對於基礎模型,AWS 發布 Bedrock Model Cards,描述每個託管基礎模型的訓練資料來源(概要層級)、功能、限制與負責任使用考量。在 Amazon Bedrock 上選擇模型時,閱讀 Bedrock Model Card 是負責任 AI 原則盡職調查不可或缺的步驟。

AWS AI Service Cards 記錄 AWS 託管 AI 服務(Rekognition、Textract、Transcribe、Comprehend、Titan、Q)。由 AWS 在 AWS AI Service Cards 頁面上發布。SageMaker Model Cards 記錄你的自訂訓練模型,存放在 SageMaker Model Registry 中,由你撰寫。Bedrock Model Cards 記錄 Bedrock 上託管的基礎模型。任何詢問「[AWS AI 服務]的透明性資訊發布在哪裡?」的 AIF-C01 題目→ AI Service Card。任何詢問「如何為我的自訂模型建立負責任部署的文件?」的題目→ SageMaker Model Card。 Reference: https://docs.aws.amazon.com/sagemaker/latest/dg/model-cards.html

AI 治理計畫——政策、角色與問責

負責任 AI 原則的治理是讓技術控制得以長久運作的組織鷹架。即使擁有完美的 Clarify 偏差報告,若沒有人擁有模型、沒有人審查事件、訓練資料變動後也沒有人更新 Model Card,這個模型在負責任 AI 上仍是失敗的。

AI 治理計畫中的角色

成熟的 AI 治理計畫會明確定義:模型負責人(對生產環境中的模型行為負責)、負責任 AI 主管或委員會(對政策與審查負責)、資料管理員(對訓練資料品質與來源負責)、安全工程師(對 IAM、加密、網路隔離負責),以及事件回應者(對模型回滾、客戶通知、根本原因分析負責)。負責任 AI 原則不規定職位名稱;它規定的是這些問責必須落實到某個人身上。

模型風險登記冊

模型風險登記冊是追蹤每個生產 AI 模型的清單,記錄其風險等級、負責人、Model Card 狀態、偏差測試狀態、核准狀態,以及上次審查日期。AWS 沒有提供託管的「模型風險登記冊」服務,但 SageMaker Model Registry 搭配 Model Cards 與 AWS Config 標籤可以近似實現。在 AIF-C01 考試中,關於「追蹤每個已部署 AI 模型及其核准狀態」的情境,答案指向 SageMaker Model Registry。

核准工作流程

負責任 AI 原則要求模型透過核准關卡從草稿推進至生產環境。SageMaker Model Registry 原生支援此功能:模型套件可以是 PendingManualApproval、Approved 或 Rejected,部署管線可以依據該狀態設置閘道。搭配 SageMaker Pipelines 可實現自動化再訓練加人工核准的組合。

AI 事件回應

當模型在生產環境中失控——輸出有害回應、漂移至不公平預測、透過模型反轉洩漏訓練資料——負責任 AI 原則要求有定義明確的事件回應。典型流程:偵測(Model Monitor 警報、客戶投訴、Bedrock 呼叫的 CloudWatch 警報)、遏制(停用端點、啟用更嚴格的 Guardrails)、調查(CloudTrail 日誌、近期訓練資料變更、提示詞注入分析)、修復(再訓練、回滾、修補 Guardrails 組態)、報告(內部利益相關者、如有必要向監管機關報告),以及學習(更新 Model Card、更新治理計畫)。

負責任 AI 的法規環境

負責任 AI 原則與法規的交集日益增加。AIF-C01 不要求深厚的法律知識,但在情境題中認識主要框架是有必要的。

EU AI Act

EU AI Act 是歐盟以風險為基礎的 AI 系統法規。AI 系統分為:不可接受風險(禁止——社會評分、公共場所的即時生物辨識監控)、高風險(嚴格規範——就業、信貸、教育、執法 AI)、有限風險(透明性義務——聊天機器人必須揭露其為 AI),以及最低風險(大致不受規範)。負責任 AI 原則與 EU AI Act 義務相符:高風險 AI 系統需要風險管理、資料治理、技術文件(Model Cards)、人工監督(A2I 風格的審查)、精準度與穩健性,以及上市後監控(Model Monitor)。

NIST AI Risk Management Framework

NIST AI RMF(Risk Management Framework)是美國政府支持的自願性框架,圍繞四個功能結構建立:Govern(治理)、Map(映射)、Measure(衡量)、Manage(管理)。AWS 文件將其負責任 AI 原則對應至 NIST AI RMF 的功能,以協助客戶同時採用兩者。就 AIF-C01 而言,記住四個功能名稱,以及此框架不同於 NIST Cybersecurity Framework。

ISO/IEC 42001

ISO/IEC 42001 是 AI 管理系統的國際標準——相當於資訊安全領域的 ISO 27001。它規定建立、實施、維護並持續改善 AI 治理計畫的管理系統要求。追求認證的組織使用 ISO/IEC 42001 來架構其負責任 AI 原則治理。

行業法規

HIPAA 適用於 AI 處理受保護健康資訊的情境。GDPR 適用於 AI 處理歐盟居民個人資料的情境,包括針對自動化決策的解釋權。FINRA 適用於金融服務業的 AI。負責任 AI 原則要求將你的工作負載對應至正確的行業法規。

AWS 負責雲端本身:AWS AI 服務的安全性、AWS AI Service Cards 上記錄的公平性測試、Bedrock 基礎設施的完整性。你負責雲端中的一切:你用來訓練的資料、你發送的提示詞、你設定的 IAM 政策、你啟用(或停用)的 Bedrock Guardrails、你發布的 SageMaker Model Cards、你配置在 Amazon A2I 中的人工審查員。AWS 不會讓你的部署變得負責任——這需要你自己,使用 AWS 的基礎元件來實現。 Reference: https://aws.amazon.com/compliance/shared-responsibility-model/

AWS 服務對應至負責任 AI 支柱

以下是考前快速回憶用的 AWS 服務對應負責任 AI 原則支柱的標準清單。

公平性——Amazon SageMaker Clarify

SageMaker Clarify 計算訓練前偏差(類別不平衡、正向比例差異、KL 散度)與訓練後偏差(差異衝擊、條件核准差異、反事實翻轉測試)。Clarify 是 AIF-C01 中公平性的唯一指定服務。

可解釋性——SageMaker Clarify(SHAP)與 Model Monitor 可解釋性漂移

Clarify 同時計算 SHAP 特徵歸因以提供可解釋性。Model Monitor 追蹤歸因模式是否隨時間漂移(可解釋性漂移監控器)。

隱私——Amazon Macie、AWS KMS、Bedrock Guardrails PII 過濾器

Macie 探索 S3 訓練資料集中的 PII。KMS 對靜態資料加密。Bedrock Guardrails 的敏感資訊過濾器遮蔽模型輸入與輸出中的 PII。

安全——IAM、VPC 端點、CloudTrail、AWS Config

IAM 限制誰可以呼叫模型。VPC 端點讓流量遠離公用網際網路。CloudTrail 記錄每個 Bedrock 與 SageMaker API 呼叫。Config 追蹤組態狀態。

安全性——Bedrock Guardrails 內容過濾器與拒絕主題

Bedrock Guardrails 過濾仇恨、侮辱、色情內容、暴力、不當行為與提示詞攻擊。拒絕主題封鎖特定主題領域。

可控性——Amazon A2I、Bedrock Guardrails 切換、SageMaker 端點控制

A2I 轉交給人工審查員。Guardrails 可按每次呼叫切換。SageMaker 端點可即時下線。

真實性與穩健性——Bedrock Guardrails 接地檢查、RAG、SageMaker Model Monitor

Bedrock Guardrails 接地檢查將回應與來源資料進行比對。RAG 將回應接地於擷取的脈絡中。Model Monitor 偵測資料品質漂移、模型品質漂移與偏差漂移。

治理——AWS Organizations、AWS Config、AWS Audit Manager、SageMaker Model Registry

Organizations 強制執行多帳號政策。Config 追蹤資源狀態。Audit Manager 收集合規證據。Model Registry 對模型進行版本管理與核准。

透明性——AWS AI Service Cards、SageMaker Model Cards、Bedrock Model Cards

AI Service Cards 用於 AWS 託管服務。Model Cards 用於客戶訓練的模型。Bedrock Model Cards 用於基礎模型。

負責任 AI 原則的常見考試陷阱

除了歷史偏差與代表性偏差的混淆之外,AIF-C01 負責任 AI 題目中還有幾個反覆出現的混淆點。

公平性 vs 準確性

模型整體準確性很高,仍然可能對某個子群體不公平。負責任 AI 原則將公平性視為獨立於準確性的維度。提到「模型整體準確率 95%,但對[某群體]表現較差」的考試情境,指向公平性(SageMaker Clarify),而非準確性改善。

隱私 vs 安全

隱私是保護個人資料不被不當使用(包括授權的內部人員)。安全是保護系統不受攻擊者入侵。兩者在實作上有重疊(加密同時支援兩者),但負責任 AI 原則將它們視為獨立的考量。描述「模型無意間記憶並重新輸出使用者電子郵件地址」的情境是隱私問題(模型反轉/訓練資料洩漏),而不是安全問題。

透明性 vs 可解釋性

透明性回答「這個系統是如何建構的,有哪些限制?」——記錄在 AWS AI Service Cards 與 SageMaker Model Cards 中。可解釋性回答「為什麼會有這個特定預測?」——由 SageMaker Clarify 使用 SHAP 計算。這是 AIF-C01 中測試最多的負責任 AI 原則區分。

Amazon A2I vs SageMaker Ground Truth

Amazon A2I 是推論時針對低信心預測的人工介入審查工作流程。SageMaker Ground Truth 是訓練時用於資料集標注的標記服務。兩者都涉及人工勞動,但發生在不同的生命週期階段。

AI Service Cards vs Model Cards

AI Service Cards 記錄 AWS 託管服務,由 AWS 發布。Model Cards 記錄你的自訂模型,由你透過 SageMaker Model Registry 發布。混淆這兩者是可預期的陷阱。

Bedrock Guardrails vs IAM

Bedrock Guardrails 強制執行內容安全(模型可以說什麼)。IAM 強制執行存取控制(誰可以呼叫模型)。負責任 AI 原則兩者都需要。關於「封鎖不當輸出」的考試情境是 Guardrails;「封鎖未授權使用者」是 IAM。

透明性 = 關於系統如何建構、訓練與運作的開放揭露。透過 AWS AI Service Cards 與 SageMaker Model Cards 實現。可解釋性 = 描述特定預測結果的成因。透過 SageMaker Clarify(SHAP)實現。負責任 AI 原則將這兩者視為獨立的支柱。社群 AIF-C01 考後心得將此列為最常答錯的區分點。若題目說「記錄模型的預期用途與限制」,那是透明性。若題目說「解釋為什麼這位申請人遭到拒絕」,那是可解釋性。 Reference: https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-model-explainability.html

生成式 AI 脈絡中的負責任 AI 原則

生成式 AI 帶來了傳統 ML 中不存在的負責任 AI 原則挑戰。AIF-C01 考試經常以 GenAI 特有風險的框架來出題。

幻覺是真實性失敗

憑空捏造事實的基礎模型正在違反真實性支柱。緩解措施:搭配 Bedrock Knowledge Bases 的 RAG 將回應接地於擷取的脈絡;Bedrock Guardrails 接地檢查標記偏離來源資料的回應;提示詞工程(「僅從提供的脈絡中引用來源」)減少無根據的生成;透過 Amazon A2I 的人工審查在殘餘錯誤到達客戶之前攔截。

大型基礎模型中的偏差放大

以廣泛網際網路文字訓練的基礎模型會吸收並放大這些資料中的偏差。負責任 AI 原則緩解措施:使用 AWS AI Service Cards 與 Bedrock Model Cards 了解已記錄的偏差考量;以具有人口統計感知的提示詞進行評估;套用 Bedrock Guardrails 過濾含有偏差的輸出;將邊緣輸出轉交 A2I 人工審查。

提示詞注入是穩健性失敗

提示詞注入攻擊(直接與間接)試圖覆寫系統提示詞或竊取資料。負責任 AI 原則緩解措施:Bedrock Guardrails 提示詞攻擊過濾器、輸入驗證、輸出掃描、Bedrock 呼叫的最小權限 IAM,以及在提示詞中不包含機密的原則。

著作權與智慧財產風險

生成式 AI 可能產生與受版權保護的訓練資料相似的內容。負責任 AI 原則的回應:選用具有記錄訓練資料政策的 AWS 提供基礎模型(Bedrock Model Cards)、優先選用提供企業賠償保障的模型,並在必要時加入輸出階段的版權掃描。

練習題型——對應 Task 4.1

以下是 AIF-C01 負責任 AI 原則考題的反覆出現題型。

  1. 「某公司的招聘模型對受保護族群顯示較低的核准率。哪個 AWS 服務能識別這個偏差?」答案:Amazon SageMaker Clarify。
  2. 「監管機關要求取得 Amazon Rekognition Face Comparison 預期用途與限制的文件。」答案:AWS AI Service Card。
  3. 「一個團隊需要將低信心的內容審核決策轉交給人工審查員。」答案:Amazon A2I。
  4. 「某公司希望在部署前,為其自訂信用評分模型建立供內部核准使用的文件。」答案:Model Registry 中的 Amazon SageMaker Model Card。
  5. 「哪個負責任 AI 原則支柱涵蓋立即停用失控模型的能力?」答案:可控性。
  6. 「訓練資料集中有 90% 的圖片屬於同一人口統計群體。這是什麼偏差類型?」答案:代表性偏差。
  7. 「一個以十年男性主導履歷訓練的招聘模型對女性應徵者評分偏低。這是什麼偏差類型?」答案:歷史偏差。
  8. 「一個涵蓋負責任部署的 ML 生命週期,用於審查 AI 工作負載的結構化框架。」答案:AWS Well-Architected Machine Learning Lens。
  9. 「一個基礎模型回應捏造了一個不存在的法律引用。違反了哪個負責任 AI 支柱,以及哪個 AWS 功能可以緩解?」答案:真實性——以 Bedrock Guardrails 接地檢查或搭配 Bedrock Knowledge Bases 的 RAG 緩解。
  10. 「監管機關詢問 NIST AI Risk Management Framework 的四個功能。」答案:Govern、Map、Measure、Manage。

關鍵數字與必記事實

AIF-C01 負責任 AI 原則不需要深入的數字記憶,但有幾個事實反覆出現。

  • AWS Responsible AI 支柱:8 個(公平性、可解釋性、隱私、安全、安全性、可控性、真實性與穩健性、治理、透明性——部分 AWS 文件依合併方式而呈現為 7 或 8 個;以 8 作為標準數量)。
  • 資料集偏差分類:5 種(歷史、代表性、測量、聚合、評估)。
  • NIST AI RMF 功能:4 個(Govern、Map、Measure、Manage)。
  • EU AI Act 風險等級:4 個(不可接受、高風險、有限風險、最低風險)。
  • SageMaker Clarify 偏差指標分為訓練前與訓練後兩類。
  • SageMaker Model Registry 套件狀態:Approved、Rejected、PendingManualApproval。
  • AWS AI Service Cards 可在 AWS AI Service Cards 頁面免費閱讀。
  • Bedrock Guardrails 內容過濾器類別:仇恨、侮辱、色情、暴力、不當行為、提示詞攻擊(提示詞攻擊是較新加入的類別)。
  • ISO/IEC 42001 是 AI 管理系統標準(在安全領域的角色類似於 ISO 27001)。

負責任 AI 原則與相鄰主題的範圍界線

本主題的負責任 AI 原則聚焦於概念框架——支柱、偏差分類、Model Cards、A2I 概念、治理結構,以及法規環境。相鄰的透明性與可解釋性主題深入探討透明性與可解釋性的區分,以及 SageMaker Clarify 的技術機制。SageMaker 負責任 AI 工具主題深入探討 Clarify 偏差指標、Model Monitor 漂移偵測,以及 A2I 工作流程組態的實作細節。資料治理與 PII 主題深入探討 Amazon Macie、AWS Glue Data Catalog 與 SageMaker Model Registry 的機制。Bedrock Guardrails 主題深入探討內容安全的各個過濾器機制。每個相鄰主題都建立在本頁所奠定的負責任 AI 原則基礎之上。

FAQ——負責任 AI 原則熱門問題

Q1. AWS 定義了幾個負責任 AI 支柱,分別是什麼?

AWS 定義了八個負責任 AI 原則核心支柱:公平性、可解釋性、隱私與安全(有時分開列出)、安全性、可控性、真實性與穩健性(合併為一對)、治理,以及透明性。較舊的文件有時將隱私與安全合併為一個支柱,並將真實性與穩健性合併為一個,使數量看起來是六個或七個。就 AIF-C01 考試而言,記住支柱名稱比計算數量更重要——每個支柱都對應特定的 AWS 服務。

Q2. 透明性與可解釋性有何不同?

透明性是關於 AI 系統如何建構、訓練與限制的開放揭露——記錄在 AWS AI Service Cards(用於 AWS 託管服務)與 SageMaker Model Cards(用於你的自訂模型)中。可解釋性是描述特定預測結果成因的能力——由 SageMaker Clarify 使用 SHAP 特徵歸因計算。負責任 AI 原則將這兩者視為獨立的支柱,AIF-C01 考試定期測試這個區分。透明性關於系統;可解釋性關於預測。

Q3. 何時應使用 Amazon A2I?

當生產模型的低信心預測具有高業務影響,且人工判斷在經濟上是合理的,就應使用 Amazon A2I。典型情境:誤讀會造成下游錯誤的文件表單擷取、誤判放行無法接受的內容審核、需要臨床醫師確認的醫療影像篩查,以及受監管脈絡中需要簽核的生成式 AI 輸出。A2I 是工作流程,不是模型——它根據你設定的門檻,將低信心預測路由給人工審查員。它不能取代改善底層模型;它是不確定推論長尾的安全網。

Q4. 什麼是 AWS Well-Architected ML Lens,它與負責任 AI 有何關聯?

AWS Well-Architected Machine Learning Lens 是 ML 工作負載的結構化設計審查框架,它擴展了 Well-Architected 支柱(卓越運營、安全、可靠性、效能、成本、永續性),加入 ML 特有的指引,並將負責任 AI 原則貫穿其中。它是文件框架,不是託管服務——你透過閱讀它並針對工作負載執行審查問題來套用它。當考試情境詢問「一個涵蓋負責任 AI 考量的 AI 工作負載生產就緒性結構化審查框架」時,請使用 ML Lens。

Q5. 我需要認識哪五種資料集偏差類型?

歷史偏差(資料忠實反映過去有偏差的現實)、代表性偏差(某些群體被低度取樣)、測量偏差(特徵或標籤是有缺陷的代理指標)、聚合偏差(以單一模型處理需要子群體專屬模型的群體),以及評估偏差(基準不符合部署分布)。AIF-C01 考試透過描述情境並要求你指出偏差類型來測試這個分類法。歷史偏差與代表性偏差是最常混淆的一對——記住:歷史偏差意指過去的現實有偏差而資料是準確的;代表性偏差意指資料集相對於目標族群是不完整的。

Q6. AWS AI Service Cards 與 SageMaker Model Cards 有何不同?

AWS AI Service Cards 記錄 AWS 託管 AI 服務(Amazon Rekognition、Textract、Transcribe、Comprehend、Titan、Q 等)——由 AWS 在公開的 AWS AI Service Cards 頁面發布,描述預期用途、限制、公平性考量與最佳實踐。SageMaker Model Cards 記錄你訓練的自訂模型——存放在 SageMaker Model Registry 中,由你撰寫,記錄模型概述、預期用途、訓練資料參照、評估指標、道德考量與核准狀態。Bedrock Model Cards 是第三類,記錄 Bedrock 上託管的基礎模型。在 AIF-C01 考試中,「AWS 在哪裡發布其 AI 服務的透明性資訊?」指向 AI Service Cards;「如何為我的自訂模型建立負責任部署的文件?」指向 SageMaker Model Cards。

Q7. 負責任 AI 原則如何具體應用於生成式 AI?

生成式 AI 放大了幾個負責任 AI 原則的關切。幻覺違反真實性,可透過搭配 Bedrock Knowledge Bases 的 RAG、Bedrock Guardrails 接地檢查,以及 Amazon A2I 人工審查來緩解。偏差放大違反公平性,可透過 Bedrock Model Card 審查、以人口統計感知提示詞進行評估、Guardrails 內容過濾器,以及人工審查來緩解。提示詞注入違反穩健性,可透過 Guardrails 提示詞攻擊過濾器、輸入驗證,以及最小權限 IAM 來緩解。著作權與智慧財產風險可透過選用具有記錄訓練資料政策的基礎模型,以及企業賠償保障來緩解。負責任 AI 原則以與傳統 ML 相同的支柱應用於生成式 AI,但緩解工具包含 Bedrock 特有的服務。

延伸閱讀

官方資料來源

更多 AIF-C01 主題