Amazon SageMaker 負責任 AI 工具是一套將抽象的負責任 AI 原則轉化為可量測、可稽核工程控制的實作工具箱。對於 AIF-C01 考試而言,Task 4.1 要求考生能夠辨識每項 SageMaker 服務所對應的負責任 AI 保障機制——SageMaker Clarify 負責偏差偵測與可解釋性、SageMaker Model Monitor 負責部署後的漂移監控、SageMaker Data Wrangler 負責資料準備階段的偏差基準建立,而 Amazon Augmented AI(A2I)則負責將低信心預測導向人工審核員。本篇筆記將從考試深度逐一說明各項 SageMaker 負責任 AI 工具,並交叉對照適用於生成式 AI 工作負載的 Amazon Bedrock Guardrails,同時將每項工具對應到你在考試中極可能遇到的情境題型。
SageMaker 負責任 AI 工具是什麼?
SageMaker 負責任 AI 工具是 Amazon SageMaker 內部一組精選功能,設計用途涵蓋偏差偵測、預測解釋、線上模型監控,以及人工審核迴路的接入。這些 SageMaker 負責任 AI 工具並非單一產品,而是橫跨多個 SageMaker 功能的集合,共同覆蓋機器學習生命週期:資料準備(Data Wrangler 偏差報告)、訓練(Clarify 訓練前偏差)、評估(Clarify 訓練後偏差與 SHAP 可解釋性)、部署(Model Monitor)以及人工監督(Amazon A2I)。
在 AIF-C01 的考試層級,你不需要撰寫設定 Clarify 處理作業或 A2I flow definition 的 Python 程式碼。你需要辨識的是:哪一項 SageMaker 負責任 AI 工具能解決哪一個業務問題,以及它屬於 ML 生命週期的哪個階段。預期考題的形式如下:「一家銀行訓練了一個信用評分模型,想要偵測性別間的 disparate impact——用哪個服務?」正確答案是 SageMaker Clarify。「生產模型上週的準確率下降——用哪個服務?」正確答案是 SageMaker Model Monitor(模型品質漂移)。「一個保險理賠核准模型輸出的信心分數低於門檻——應該怎麼處理?」正確答案是 Amazon A2I 導向人工審核員。
SageMaker 負責任 AI 工具對 AIF-C01 的重要性
Domain 4(「負責任 AI 準則」)佔 AIF-C01 考試比重的 14%,其中 Task 4.1(「說明如何開發負責任的 AI 系統」)是底下較偏服務導向的子任務。SageMaker 負責任 AI 工具幾乎是所有 Task 4.1 情境題——凡是問到「哪個 AWS 功能落實了這項負責任 AI 支柱」——的具體答案。公平性對應 SageMaker Clarify 訓練前偏差。可解釋性對應 SageMaker Clarify SHAP 特徵歸因。安全性對應 Amazon A2I 人工審核。真實性對應 SageMaker Model Monitor 與 Bedrock Guardrails 的接地性檢查。把這張「服務對支柱」的對照表背起來,Task 4.1 的題目就迎刃而解。
本篇範疇與相鄰主題的界線
本篇聚焦於 SageMaker 內的傳統 ML 負責任 AI 工具,以及 Amazon A2I。文中會交叉提及但不深入介紹 Amazon Bedrock Guardrails(這是生成式 AI 的等效工具,詳見獨立主題 bedrock-guardrails-and-controls)與負責任 AI 的概念支柱(詳見 responsible-ai-principles)。透明度與可解釋性之間的區別——考試中頻繁測試的概念配對——則放在 transparency-and-explainability。閱讀本篇時請記住這些界線:我們在此採取務實、以服務為核心的角度討論 SageMaker 負責任 AI 工具。
白話文解釋 SageMaker 負責任 AI 工具
官方文件列出了數十種偏差指標與四種監控類型,卻沒有給你一個心智模型。以下三個台灣情境的類比,可幫助你建立對 SageMaker 負責任 AI 工具的直觀理解。
類比一 — 代工廠的品管流程:進料檢驗、線上檢測、客訴處理
想像台灣一家電子代工廠的品管流程。在生產線啟動前,進料品管(IQC)工程師會逐批檢查進廠零件——這顆 IC 的規格對嗎?這批電容有沒有問題?這位 IQC 工程師,就是 SageMaker Data Wrangler 在訓練開始前對訓練資料跑偏差報告。生產線啟動後,線上品管(IPQC)人員在每個製程節點取樣,判斷目前的工序是否會造成良率偏差,就像 SageMaker Clarify 在訓練前後分別對資料與預測結果執行偏差檢查,並以 SHAP 解釋為什麼特定產品被判定為不良品。產品出貨後,出貨品管(OQC)持續追蹤客戶回報的良率是否均一——這就是 SageMaker Model Monitor 監控線上預測是否發生漂移。當客戶回報某批貨異常,客訴工程師介入逐件確認——這就是 Amazon A2I,將低信心預測導向人工審核員複查。SageMaker 負責任 AI 工具的運作方式,是一條完整的品管流水線,而非單一濾網。
(約 240 字,涵蓋台灣代工廠脈絡,每個工具都有明確對應。)
類比二 — 圖書館的採購、上架與推薦稽核
把訓練資料集想像成一座圖書館的館藏。在建立館藏目錄之前,館員清點書架,發現 90% 的藏書作者都是男性——這是類別不平衡,SageMaker Clarify 的訓練前偏差指標(Data Wrangler 的偏差報告)在任何推薦模型訓練之前就會舉旗示警。目錄系統開始向讀者推薦書籍後,審核員查看推薦結果是否對所有讀者族群一視同仁(SageMaker Clarify 訓練後偏差),並確認推薦引擎使用的是有意義的訊號——如類別、主題、作者——而非郵遞區號這類無關屬性(SHAP 特徵歸因)。六個月後,讀者閱讀習慣隨季節更迭,借閱需求的分布改變了;一位監控館員注意到推薦結果開始走偏(SageMaker Model Monitor 資料漂移)。當系統對一本冷僻的哲學書拿不定主意,就把推薦決策升級給主任館員親自把關(Amazon A2I)。負責任 AI 不是一次性的稽核;它是持續不斷的書架維護。
(約 220 字,涵蓋台灣讀者熟悉的公共圖書館情境,四個工具均有對應。)
類比三 — 驗光師替你找到視力偏差的根源
台灣的驗光師替患者驗光時,不只告訴你「左眼視力 0.8」,還會說明「你的散光主要來自角膜弧度在某個軸向上的偏差」——也就是找出偏差的成因,而不僅是偏差的結果。SageMaker Clarify 的角色和驗光師非常相似:它不只告訴你模型的準確率,還用 SHAP 值告訴你「這筆申請被拒絕,70% 是因為信用歷史短,15% 是因為負債比高,但你不應該看郵遞區號——那是種族的代理變數(proxy)」。SageMaker Clarify 的訓練前偏差偵測就像入院前的視力初篩,找出資料本身的偏斜;訓練後偏差偵測則像配鏡後的複驗,確認模型輸出在各族群之間是否一致。最後,SageMaker Model Monitor 就像每年固定的定期追蹤——即使你今天看得很清楚,三個月後角膜曲率改變,你仍需要重新評估。掌握 SageMaker Clarify,就是讓你的模型隨時都有一位嚴謹的驗光師把關。
(約 225 字,以台灣常見的驗光情境對應 Clarify 的三大角色,生動呈現「找偏差成因」的概念。)
SageMaker Clarify — 三大角色
Amazon SageMaker Clarify 是 SageMaker 負責任 AI 工具中的核心服務。Clarify 在 ML 生命週期中扮演三個截然不同的角色,而 AIF-C01 的情境題往往取決於你是否能清楚區分這三者。
角色一:對資料集進行訓練前偏差偵測
在模型訓練之前,Clarify 會針對原始訓練資料集,就敏感屬性(通常稱為 facet)——如性別、種族、年齡或郵遞區號——進行統計偏差分析。這個步驟告訴你:資料本身是否已經偏斜。在偏斜資料上訓練出來的模型,幾乎必然產生偏斜的預測。訓練前偏差偵測以 SageMaker Processing Job 的形式執行;你只需將 S3 上的資料集位置指向 Clarify,宣告敏感 facet 欄位與目標標籤欄位,Clarify 即會輸出 JSON 格式與視覺化報告。
角色二:對模型預測結果進行訓練後偏差偵測
訓練完成後,Clarify 對驗證集上訓練好的模型預測結果執行第二道處理作業。它比較各 facet 之間的預測率與結果,找出模型行為中的 disparate impact——而非僅限於資料層面。訓練後偏差偵測才是監管機關真正在意的:模型實際運作的公平性。在 SageMaker 負責任 AI 工具中,訓練後偏差偵測是你能拿給合規審核人員看的那份證據。
角色三:透過 SHAP 特徵歸因提供可解釋性
Clarify 實作了 SHAP(SHapley Additive exPlanations)值,用以量化每個特徵對特定預測的貢獻程度。SHAP 是一種事後(post-hoc)可解釋性方法:它在訓練完成後執行,並且適用於任何類型的模型,包括黑盒模型。Clarify 同時產出全域特徵重要性(哪些特徵在整個資料集上最有影響力)與局部解釋(為什麼這位特定申請者被拒絕)。可解釋性是負責任 AI 的一級支柱,而 Clarify 的 SHAP 實作就是你在備考 AIF-C01 時需要記住的 AWS 原生方案。
SageMaker Clarify 將訓練前偏差偵測(資料層面公平性)、訓練後偏差偵測(模型輸出公平性),以及基於 SHAP 的特徵歸因(可解釋性)整合進一個受管服務。三者皆以 SageMaker Processing Jobs 執行,並將報告輸出至 S3。在所有 SageMaker 負責任 AI 工具中,Clarify 是 AIF-C01 考試測驗頻率最高的服務。 Reference: https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-configure-processing-jobs.html
SageMaker Clarify — 訓練前偏差指標
SageMaker Clarify 會計算一套標準化的訓練前偏差指標,用以量化資料集偏斜程度。AIF-C01 不需要你背誦每個公式,但你應該能認出這些縮寫並知道它們衡量什麼。
Class Imbalance(CI)——類別不平衡
Class Imbalance 衡量兩個 facet 值(例如男性與女性)之間頻率的相對差異。CI 範圍從 -1 到 +1。CI 為 0 表示兩個 facet 的代表性相等;CI 接近 ±1 表示某一 facet 佔主導地位。Class Imbalance 是訓練前偏差指標中最重要的基準診斷:考試情境中凡是描述「訓練資料中男性佔 80%、女性佔 20%」的題目,幾乎都直接對應 CI。
Difference in Proportions of Labels(DPL)——標籤比例差異
DPL 衡量兩個 facet 之間正向結果比率的差異。如果訓練集中 60% 的男性被標記為「核准」,而只有 30% 的女性如此,DPL 就會捕捉到這個不平衡。DPL 是 CI 的「標籤版表親」——它關心的是結果本身是否已經偏斜,而不只是 facet 是否被過度代表。
Kullback-Leibler Divergence(KL)與 Jensen-Shannon Divergence(JS)
KL 與 JS 是衡量兩個機率分布之間距離的資訊理論指標。Clarify 用它們比較一個 facet 的標籤分布與另一個 facet 的差異。JS 具有對稱性且介於 0 到 1 之間,比 KL 更容易解讀。在 AIF-C01 考試中,只需認識這兩者都是「分布距離指標」即可。
Lp-norm(LP)、Total Variation Distance(TVD)、Kolmogorov-Smirnov(KS)、Conditional Demographic Disparity(CDD)
這些是 Clarify 額外計算的訓練前指標。LP 是分布之間的向量距離。TVD 是標籤分布間 L1 距離的一半。KS 是累積分布函數間的最大偏差。CDD 則在控制其他子群變數的情況下衡量人口統計差異,能捕捉辛普森悖論(Simpson's paradox)——即整體公平的表象掩蓋了子群不公平的情況。
CI = class imbalance(某一 facet 佔主導)。DPL = 各 facet 間正向標籤比率的差異。KL/JS = 分布距離(JS 有界)。LP/TVD/KS = 其他分布距離變體。CDD = 子群條件下的差異。以上七項皆由 SageMaker Clarify 在訓練前對原始資料集計算。 Reference: https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-measure-data-bias.html
SageMaker Clarify — 訓練後偏差指標
訓練後偏差指標針對訓練好的模型在驗證集上的預測結果執行。它們回答的問題是:無論訓練資料是否平衡,模型在各 facet 間的行為是否公平?以下幾個縮寫在考題題幹中反覆出現。
Difference in Positive Proportions in Predicted Labels(DPPL)
DPPL 是訓練後版本的 DPL,衡量兩個 facet 之間正向預測比率的差異。若模型核准 55% 的男性申請貸款,但只核准 35% 的女性,則 DPPL = 0.20——即使訓練時的 DPL 很小,模型仍然存在 disparate impact 問題。
Disparate Impact(DI)
Disparate Impact 是弱勢 facet 與優勢 facet 正向預測率的比值(而非差值)。低於 0.8 的值(「五分之四原則」)是美國平等就業機會委員會(EEOC)長期採用的疑似歧視門檻。DI 是法律與法規情境中被引用最廣泛的訓練後偏差指標,在台灣的金融業與政府採購情境中同樣具有類似意涵。
Difference in Conditional Acceptance(DCA)與 Difference in Conditional Rejection(DCR)
DCA 衡量各 facet 的預測核准率與實際核准率(真正例對齊)之間的差異後相減。DCR 同理,針對拒絕情形。DCA 與 DCR 合用,可捕捉模型錯誤在各 facet 間分布不均的情況。
Recall Difference(RD)、Accuracy Difference(AD)與 Treatment Equality(TE)
這些指標比較各 facet 間的傳統分類效能(recall、accuracy)。若一個疾病偵測模型對某個族群的 recall 為 90%,對另一個族群卻只有 70%,RD 就量化了這 20 個百分點的落差。Treatment Equality 比較各 facet 之間假陽性與假陰性的比值。
Generalized Entropy(GE)
GE 是借自經濟學(所得不平等文獻)的單一總體不平等指標,能將多 facet 的公平性壓縮成一個數字。
Conditional Demographic Disparity in Predicted Labels(DCG)
DCG 是 CDD 的訓練後版本:它在模型預測的輸出中衡量子群條件下的差異,用於捕捉生產環境中的辛普森悖論情境。
AIF-C01 情境題只要提及 disparate impact、五分之四原則,或任何受監管產業的公平性主張(放貸、招聘、保險),答案幾乎都涉及 SageMaker Clarify 訓練後偏差指標——以 DI 或 DPPL 為核心數字。訓練前偏差指標診斷的是資料;訓練後偏差指標診斷的是已部署的模型。在 SageMaker 負責任 AI 工具中,這是最能提供合規證據的工作馬。 Reference: https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-measure-post-training-bias.html
SageMaker Clarify — SHAP 特徵歸因的可解釋性
除了偏差偵測,SageMaker Clarify 還透過 SHAP(SHapley Additive exPlanations)值產生可解釋性報告。SHAP 是一種博弈論方法,為每個特徵在每一筆個別預測上分配貢獻分數。
SHAP 概念上的運作方式
SHAP 將每個特徵視為合作博弈中的一位「玩家」,而「報酬」就是模型的預測值。某個特徵的 SHAP 值,是其在所有可能特徵排列組合中的平均邊際貢獻。對 AIF-C01 而言,你需要掌握的是高層次解讀——「特徵 X 把這筆預測往上推了 0.12;特徵 Y 把它往下拉了 0.04」——而不是數學推導過程。
全域解釋與局部解釋
SHAP 產生兩種互補視角。局部解釋描述某一筆特定預測的成因(這位申請者、這筆交易、這張圖片)。全域解釋則將驗證集上的 SHAP 值加總,依整體影響力對特徵排名。SageMaker Clarify 同時產出這兩種報告,而 AIF-C01 情境題有時會要求你區分它們。
用於模型除錯的特徵歸因
SHAP 不只是給監管機關看的——它也是強大的除錯工具。如果貸款決策中排名最高的特徵是「郵遞區號」,你就有一個種族的代理變數問題,即使種族本身並非輸入特徵。在 SageMaker 負責任 AI 工具中,SHAP 可解釋性正是揭露這些隱藏代理特徵的診斷利器。
Clarify 可解釋性報告
SageMaker Clarify 以 JSON 格式搭配視覺化 HTML 摘要輸出可解釋性報告,儲存至 S3。SageMaker Studio 可在介面中直接渲染報告,讓資料科學家瀏覽全域特徵重要性,並深入查看個別預測。這種自助式報告機制,正是 Clarify 成為模型可解釋性問題的預設 AWS 答案的原因。
LIME(Local Interpretable Model-agnostic Explanations)是另一種競爭性的事後可解釋性方法。SageMaker Clarify 實作的是 SHAP(而非 LIME)。若 AIF-C01 情境題提到「SageMaker 原生特徵歸因」,答案就是 Clarify 搭配 SHAP。兩種技術都與模型無關,也都能產生局部解釋,但只有 SHAP 被整合進 SageMaker 負責任 AI 工具堆疊中。 Reference: https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-shapley-values.html
SageMaker Model Monitor — 四種監控類型
Amazon SageMaker Model Monitor 監控生產環境中的已部署模型,並在其行為偏離基準時發出警報。在 SageMaker 負責任 AI 工具中,Model Monitor 是跨越整個生命週期的監控守衛,讓已部署的模型在長期運行中持續被追責。Model Monitor 支援四種截然不同的監控類型。
監控類型一 — 資料品質漂移
資料品質監控將進入端點的推論請求的統計分布,與部署時所建立的基準分布進行比較。若線上流量開始與訓練分布不同——出現新的類別值、平均值位移、特徵值缺失——監控器就會觸發警報。資料漂移往往比準確率下降早幾週發生,這也是為什麼大多數團隊第一個啟用的監控類型是資料品質監控。
監控類型二 — 模型品質漂移
模型品質監控在標籤可用後(透過人工回饋、下游業務事件或延遲對帳流程),將模型的線上預測與真實標籤進行比較。它追蹤傳統指標——分類任務的 accuracy、precision、recall、F1;回歸任務的 RMSE、MAE。模型品質監控需要標籤擷取管線,這是其主要的運維前提條件。
監控類型三 — 偏差漂移
偏差漂移監控持續對線上預測資料重新計算訓練後偏差指標(DPPL、DI 及 Clarify 目錄中的其他指標),並與部署時建立的偏差基準比較。若模型的真實世界輸出開始比上線時呈現更多歧視——例如因為申請人族群分布改變——偏差漂移就會觸發警報。偏差漂移是 Clarify 訓練後偏差偵測在生產環境中的延續。
監控類型四 — 特徵歸因漂移
特徵歸因漂移監控對線上推論流量重新計算 SHAP 特徵重要性,並與歸因基準比較。若模型依賴的特徵隨時間改變,即使準確率看起來穩定,也可能暗示上游資料管線變更、標籤洩漏或概念漂移(concept drift)。特徵歸因漂移是四種監控類型中最細微的一種,也是 SageMaker 負責任 AI 工具中最晚加入的一項。
資料品質漂移、模型品質漂移、偏差漂移、特徵歸因漂移。資料漂移與品質漂移偵測輸入與效能變化。偏差漂移將 SageMaker Clarify 訓練後偏差延伸至執行期。特徵歸因漂移將 Clarify SHAP 可解釋性延伸至執行期。四者皆運行於透過 SageMaker Model Monitor Data Capture 儲存在 S3 的擷取推論資料上。 Reference: https://docs.aws.amazon.com/sagemaker/latest/dg/model-monitor.html
Model Monitor 基準
每一種 Model Monitor 類型都從建立基準開始。你對訓練或驗證資料執行 Processing Job,計算統計數據與約束條件(例如「欄位 X 的平均值應介於 10 到 20 之間」)。這份基準檔案儲存在 S3,成為與線上流量比較的參照點。沒有基準,監控器就無從判斷何為「漂移」。
Model Monitor 排程與警報
監控器按循環排程執行(每小時或每天)。當監控器偵測到約束違規時,它會將違規報告寫入 S3,發布 CloudWatch 指標,並可選擇性地觸發 EventBridge 規則或 SNS 警報。與 CloudWatch 和 EventBridge 的整合,是 Model Monitor 接入你既有 DevOps 工具鏈的方式。
Data Capture — 先決條件
Model Monitor 要能運作,你必須在 SageMaker 端點上啟用 Data Capture。Data Capture 會把推論請求的輸入與輸出的取樣副本儲存至 S3。若未啟用 Data Capture,四種監控類型全都無法執行。這是考試情境題中常見的陷阱:「一個團隊想監控資料漂移,但沒有啟用 X」——答案就是 Data Capture。
SageMaker Data Wrangler — 資料準備階段的偏差報告
SageMaker Data Wrangler 是 SageMaker Studio 內的低程式碼資料準備工具,也是 ML 生命週期中 SageMaker 負責任 AI 工具最早出現偏差風險提示的地方。
Data Wrangler 在負責任 AI 中的用途
Data Wrangler 讓你連接資料來源(S3、Athena、Redshift、Snowflake),套用轉換(清理、編碼、合併),並匯出準備好的資料集用於訓練。在眾多內建分析功能中,Data Wrangler 提供了一份偏差報告,直接在 Data Wrangler 流程內執行 SageMaker Clarify 訓練前偏差指標的子集(CI、DPL、KL、JS 等)——甚至在你匯出資料進行訓練之前就能取得結果。
及早偵測偏差可節省時間
在 Data Wrangler 中執行偏差報告,能在準備階段就抓出資料偏斜問題,避免任何人浪費 GPU 運算時間在有偏見的資料上訓練模型。這契合負責任 AI 的原則:「盡可能在最早階段處理偏差」——這一點在 AWS Well-Architected Machine Learning Lens 中也有重申。
Data Wrangler vs Clarify 獨立執行
Data Wrangler 的偏差報告是一個由 UI 驅動的捷徑,底層調用的仍是相同的 Clarify 引擎。獨立的 Clarify 處理作業給予你完整控制(自訂 facet 定義、腳本化的 CI/CD 整合),而 Data Wrangler 則提供快速的 Notebook 內回饋。兩者都屬於 SageMaker 負責任 AI 工具,它們是互補關係而非競爭關係。
Data Wrangler 匯出目標
準備完成後,Data Wrangler 可以將準備好的資料匯出至 S3、將特徵定義推送至 SageMaker Feature Store,或輸出可做版本控制的處理作業配方。這些匯出目標都不會改變資料的偏差特性——它們只保留你在上游所做的工作,這正是為什麼在匯出之前執行偏差報告如此重要。
Amazon Augmented AI(A2I)— 人工審核工作流程
Amazon Augmented AI(縮寫 A2I)是 SageMaker 負責任 AI 工具家族中的受管人機協作(human-in-the-loop)服務。A2I 將低信心的 ML 預測導向人工審核員——私有、供應商或公眾勞動力——進行手動檢查與修正。
人機協作模式
許多 ML 應用無法容忍無人監督的自動化。一個文件處理工作流程可能自動從發票中擷取文字,但當 OCR 信心分數低於 0.85 時,就應該有人工審核員再次確認。A2I 將這個模式規格化為一個可重複使用的工作流程:一個 Flow Definition 加上 Human Task UI 模板,加上勞動力指派設定,再加上可選的審核後處理器。
A2I 內建整合
A2I 原生整合了 Amazon Textract(文件欄位擷取信心度)與 Amazon Rekognition(圖像審核與內容分析)。在這兩個情境中,你設定信心門檻,A2I 就會自動將低於門檻的預測導入審核迴路。這些內建整合是在不撰寫自訂程式碼的情況下,為 AWS AI 服務增加人工監督的最快方式。
A2I 自訂工作流程
針對任何其他模型——包括 SageMaker 端點與 Bedrock 基礎模型——A2I 支援自訂工作流程。你定義 Flow Definition、選擇人工任務模板(AWS 提供目錄,你也可以用 Crowd HTML Elements 自行撰寫),並將應用程式指向 A2I API。在 SageMaker 負責任 AI 工具中,A2I 是那個刻意引入人類,而非將人類排除在外的工具。
勞動力選項 — 私有、供應商、公眾
A2I 支援三種勞動力類型。私有勞動力是你自己的員工或承包商,透過 IAM Identity Center 存取 A2I。供應商勞動力是 AWS Marketplace 中預先審核的第三方標注服務供應商(適用於需要彈性人力的情境)。公眾勞動力是 Amazon Mechanical Turk,僅適用於非敏感任務,因為 Turk 工作者並未簽署保密協議,且輸出品質無法保證符合企業標準。
若 AIF-C01 情境描述敏感資料(PII、PHI、財務紀錄)需要人工審核,正確的勞動力選項永遠是私有——你自己在 IAM Identity Center 下的員工或經過審核的承包商。Mechanical Turk(公眾勞動力)明確不適合敏感資料,因為沒有保密保障。這是 SageMaker 負責任 AI 工具考題庫中 A2I 情境題最常見的陷阱之一。 Reference: https://docs.aws.amazon.com/sagemaker/latest/dg/a2i-use-augmented-ai-a2i-human-review-loops.html
A2I vs SageMaker Ground Truth — 常見混淆
SageMaker Ground Truth 是用於準備訓練資料的資料標注服務。Amazon A2I 是在生產推論時驗證預測結果的人工審核服務。Ground Truth 餵養訓練管線;A2I 守護推論管線。兩者皆使用相同的三種勞動力類型(私有、供應商、公眾),這也是情境題容易混淆它們的原因。記住:Ground Truth 為訓練標注資料;A2I 在推論時審核預測結果。
SageMaker Model Cards — 結構化文件
SageMaker Model Cards 是標準化、版本化的文件,記錄模型的用途、訓練資料、預期使用情境、限制與負責任 AI 考量。Model Cards 是一種透明度產出物,而非偏差偵測引擎,但它們屬於 SageMaker 負責任 AI 工具家族,因為它們對外說明模型應該做什麼、不應該做什麼。
Model Card 的內容
一份 Model Card 涵蓋模型說明、訓練細節(資料集、指標、超參數)、預期使用情境、非預期使用情境、道德考量、注意事項與建議。團隊隨著模型成熟而逐步填寫,下游審核員在部署前審批時查閱。
Model Cards vs AWS AI Service Cards
SageMaker Model Cards 記錄的是你的自訂模型。AWS AI Service Cards 記錄的是 AWS 第一方 AI 服務(Rekognition 人臉分析、Textract 擷取)。Bedrock 基礎模型則有各 FM 供應商發布的供應商端模型卡。三者都是透明度產出物;差別在於誰撰寫以及描述的是哪個模型。
Model Card 生命週期
Model Cards 與模型一起在 SageMaker Model Registry 中做版本控制。當你核准某個模型版本進行生產部署時,對應的 Model Card 即被鎖定,成為該版本的真實記錄。這種「Registry 加 Card」的配對,正是 SageMaker 負責任 AI 工具支援模型治理稽核的方式。
SageMaker ML Lineage Tracking — 稽核軌跡
SageMaker ML Lineage Tracking 自動記錄資料集、處理作業、訓練作業、模型與端點之間的關係。這份血緣圖(lineage graph)可查詢,是負責任 AI 合規審核的稽核軌跡。
Lineage 對負責任 AI 的重要性
當合規官員問道:「這個生產模型是用哪個資料集訓練的,並且產出了哪份訓練前偏差報告?」你需要有一份血緣記錄才能確切回答。若沒有 ML Lineage Tracking,你只能從 S3 時間戳記和 Notebook 筆記重建故事——這在稽核中站不住腳。在 SageMaker 負責任 AI 工具中,Lineage Tracking 是那道證據層。
Lineage 實體
血緣圖追蹤 artifact(S3 中的資料集、模型檔案)、action(處理作業執行、訓練作業執行)與 context(實驗名稱、模型套件)。每個 SageMaker 作業都會自動建立血緣記錄;你也可以透過 SageMaker SDK 建立自訂血緣實體。
與 Model Registry 的整合
Model Registry 充當實驗到生產之間的晉升閘門。當你註冊某個模型版本時,它的血緣記錄會往回連結到訓練作業、資料來源,以及任何 Clarify 偏差報告。這個連結才能讓「證明這個模型是公平的」成為一個可以回答的問題。
Bedrock Guardrails — 生成式 AI 的交叉對照
Amazon Bedrock Guardrails 是生成式 AI 的等效內容安全控制,屬於 SageMaker 負責任 AI 工具家族之外的服務。由於 AIF-C01 同時涵蓋傳統 ML 與 GenAI,你應該了解 Guardrails 與 SageMaker 工具的交叉關係。
Bedrock Guardrails 的功能
Bedrock Guardrails 套用內容過濾器(仇恨、暴力、性內容、不當行為)、拒絕主題過濾器、詞彙黑名單、PII 偵測與編輯,以及一項接地性檢查,用於標記未受擷取上下文支撐的幻覺回應。Guardrails 同時作用於 Bedrock API 呼叫的輸入端(過濾使用者提示)與輸出端(過濾模型回應)。
何時使用 Guardrails 而非 SageMaker Clarify
若工作負載是 Amazon Bedrock 上的基礎模型,Guardrails 是負責任 AI 的控制手段。若工作負載是 SageMaker 上的傳統 ML 模型(XGBoost、線性回歸、自訂深度學習),則適用 SageMaker 負責任 AI 工具。混合工作負載——如 Bedrock 負責生成、SageMaker 負責擷取的 RAG 管線——可以同時使用兩者,各自負責對應的元件。完整深度請參見 bedrock-guardrails-and-controls。
Guardrails 與 A2I 搭配使用
Bedrock Guardrails 可以過濾或封鎖生成式回應;A2I 可以將邊緣案例導向人工審核。設計良好的 GenAI 工作流程通常兩者並用:Guardrails 作為自動化第一道防線,A2I 作為人工後備。這種分層設計出現在測試縱深防禦(defense-in-depth)思維的 AIF-C01 情境題中。
SageMaker Clarify 針對傳統 ML 模型偵測偏差並解釋預測,使用 CI、DPL、DI 與 SHAP 值等統計指標。Bedrock Guardrails 針對生成式內容做安全性與隱私過濾,使用內容過濾器、拒絕主題與 PII 編輯。不同工作負載,不同工具。混淆兩者是負責任 AI 領域 AIF-C01 常見的陷阱。 Reference: https://docs.aws.amazon.com/bedrock/latest/userguide/guardrails.html
SageMaker 負責任 AI 工具如何對應 ML 生命週期
SageMaker 負責任 AI 工具能整齊地對應到 ML 生命週期。掌握這個對應關係,能讓你輕鬆回答 AIF-C01 中「在哪個階段用哪個服務」類型的題目。
第一階段 — 資料準備
SageMaker Data Wrangler 偏差報告與 SageMaker Clarify 訓練前偏差偵測。兩者在任何訓練運算資源投入之前,就會揭示類別不平衡、標籤偏斜與分布差異。
第二階段 — 訓練與評估
SageMaker Clarify 訓練後偏差偵測(DPPL、DI、DCA、DCR)與 SageMaker Clarify 基於 SHAP 的特徵歸因。兩者皆在驗證資料上評估訓練完成的模型,並將報告儲存至 S3。
第三階段 — 治理與審批
SageMaker Model Cards 與 SageMaker ML Lineage Tracking。Model Cards 記錄預期用途與限制;Lineage 將模型連結至其訓練產物與偏差報告。兩者共同驅動 Model Registry 的部署前審批流程。
第四階段 — 部署與推論
SageMaker Model Monitor Data Capture 啟用四種監控類型。Amazon A2I 將低信心預測導向人工審核員。針對 Bedrock 上的生成式工作負載,Guardrails 對內容進行即時過濾。
第五階段 — 持續監控
SageMaker Model Monitor 的資料品質漂移、模型品質漂移、偏差漂移與特徵歸因漂移。每種類型按排程執行,並將 CloudWatch 指標與違規報告輸出至 S3。
SageMaker 負責任 AI 工具必背重點
以下是在 AIF-C01 考題題幹中反覆出現的速查重點:
- SageMaker Clarify 扮演三個角色:訓練前偏差、訓練後偏差、SHAP 可解釋性。
- 訓練前偏差指標包含 CI、DPL、KL、JS、LP、TVD、KS、CDD。
- 訓練後偏差指標包含 DPPL、DI、DCA、DCR、RD、AD、TE、GE、DCG。
- SageMaker Model Monitor 支援四種監控類型:資料品質漂移、模型品質漂移、偏差漂移、特徵歸因漂移。
- Model Monitor 必須在端點上啟用 Data Capture。
- Amazon A2I 勞動力選項為私有、供應商、公眾(Mechanical Turk)。
- A2I 有 Textract 與 Rekognition 的內建整合;其他一切為自訂工作流程。
- SageMaker Ground Truth 標注訓練資料;Amazon A2I 審核推論預測。
- SageMaker Clarify 實作 SHAP,而非 LIME。
- Data Wrangler 的偏差報告是 Clarify 訓練前偏差指標在 UI 中的子集。
- Disparate Impact 低於 0.8 是「五分之四原則」門檻。
- Bedrock Guardrails 適用生成式 AI;SageMaker Clarify 適用傳統 ML。
SageMaker 負責任 AI 工具常見考試陷阱
除了服務對應階段的映射,以下幾個混淆點是 AIF-C01 考生在 SageMaker 負責任 AI 工具上的常見失分原因。
Clarify vs Model Monitor
Clarify 在訓練與評估期間執行一次性 Processing Jobs。Model Monitor 按循環排程對線上流量執行。偏差漂移(Model Monitor)與訓練後偏差(Clarify)使用相同的底層指標,但在不同的生命週期階段。情境題往往取決於問題描述的是離線評估(Clarify)還是持續生產監控(Model Monitor)。
SageMaker Ground Truth vs A2I
Ground Truth 在訓練前標注資料。A2I 在部署後審核預測。兩者使用相同的三種勞動力類型,這正是考生容易搞混的原因。
Clarify vs Bedrock Guardrails
傳統 ML → Clarify。Bedrock 上的生成式 AI → Guardrails。兩者的指標、UI 與警報機制完全不同;不要將 Clarify 用在 Bedrock 模型上,也不要將 Guardrails 用在 XGBoost 模型上。
訓練前偏差 vs 訓練後偏差
訓練前偏差衡量資料集。訓練後偏差衡量模型的預測結果。修正資料並不會自動修正模型的輸出,反之亦然。SageMaker 負責任 AI 工具預期你兩者都要執行。
特徵歸因漂移 vs 偏差漂移
兩者都是 Model Monitor 類型。特徵歸因漂移追蹤 SHAP 值的變化;偏差漂移追蹤公平性指標的變化。兩者可以各自獨立觸發:描述「驅動預測的特徵改變了」的情境指向特徵歸因漂移;描述「disparate impact 增加了」的情境指向偏差漂移。
A2I 私有勞動力 vs 公眾勞動力
敏感資料使用私有勞動力;公眾勞動力(Mechanical Turk)僅用於非敏感任務。任何涉及 PII 或 PHI 的情境都排除 Mechanical Turk。
SageMaker 負責任 AI 工具 vs 相鄰主題 — 範疇界線
Task 4.1(「說明如何開發負責任的 AI 系統」)擁有 SageMaker 負責任 AI 工具的範疇。Task 4.2(「認識透明且可解釋之模型的重要性」)擁有透明度與可解釋性的概念性區分。Task 5.2 擁有程序層級的治理與合規。
SageMaker 負責任 AI 工具主題涵蓋:SageMaker Clarify、SageMaker Model Monitor、SageMaker Data Wrangler 偏差報告、Amazon A2I、SageMaker Model Cards、SageMaker ML Lineage Tracking,以及對 Bedrock Guardrails 的交叉對照。
相鄰主題擁有:responsible-ai-principles 中的負責任 AI 支柱(公平性、隱私、安全性);transparency-and-explainability 中的透明度與可解釋性概念框架;bedrock-guardrails-and-controls 中的 Bedrock Guardrails 深入說明;data-governance-and-pii 中的資料治理與 PII 處理。
給出服務名稱並詢問其功能的考題屬於本篇。給出原則並詢問對應服務的考題可能跨越本篇與 responsible-ai-principles,這沒關係——兩種理解都能得到相同的分數。
練習題型 — Task 4.1 對應練習
在 SageMaker 負責任 AI 工具上,AIF-C01 考題預期以下幾種形式出現:
- 「一位資料科學家想在訓練開始前衡量訓練資料集的類別不平衡。使用哪個服務?」答案:SageMaker Clarify(訓練前偏差)或 Data Wrangler 偏差報告。
- 「一個訓練完成的貸款核准模型,在男性與女性申請者之間呈現 Disparate Impact 比率 0.65。這屬於哪個指標類別?」答案:SageMaker Clarify 訓練後偏差,disparate impact(DI)。
- 「一個團隊想知道是哪個特徵驅動了某次特定的拒絕決策。使用哪個功能?」答案:SageMaker Clarify SHAP 特徵歸因(局部解釋)。
- 「一個端點的預測一直在漂移——團隊想要捕捉這個現象。使用哪個服務?」答案:SageMaker Model Monitor(資料品質漂移或模型品質漂移,取決於情境)。
- 「團隊想每天對線上預測重新計算偏差指標。使用哪種 Model Monitor 類型?」答案:偏差漂移。
- 「文件處理系統將低信心的 OCR 結果標記以供人工雙重確認。使用哪個服務?」答案:Amazon A2I(搭配 Textract 內建整合)。
- 「團隊需要記錄生產模型的預期用途與限制,以供治理審核使用。使用哪個功能?」答案:SageMaker Model Cards。
- 「敏感的醫療資料需要對預測結果進行人工審核。應選擇哪種 A2I 勞動力?」答案:私有勞動力(絕對不是 Mechanical Turk)。
- 「Bedrock 上的 RAG 聊天機器人不得輸出 PII。使用哪個服務?」答案:Amazon Bedrock Guardrails(敏感資訊過濾器)——而非 SageMaker Clarify。
- 「團隊需要追蹤哪個資料集訓練了哪個模型版本,以備稽核之用。使用哪個功能?」答案:SageMaker ML Lineage Tracking 加上 Model Registry。
常見問題 — SageMaker 負責任 AI 工具熱門問答
Q1. SageMaker Clarify 與 SageMaker Model Monitor 有什麼差異?
SageMaker Clarify 在訓練與評估期間執行一次性 Processing Jobs,用於偵測偏差並產出 SHAP 可解釋性報告。SageMaker Model Monitor 在生產環境中針對線上推論流量持續運行,偵測四種漂移類型(資料品質、模型品質、偏差、特徵歸因)。Clarify 是離線分析;Model Monitor 是線上監控。兩者都是不可或缺的 SageMaker 負責任 AI 工具,彼此互補而非取代。
Q2. 何時使用 SageMaker Clarify 訓練前偏差,何時使用訓練後偏差?
使用訓練前偏差來稽核資料集,在花費任何訓練運算之前——它告訴你資料在敏感屬性上是否偏斜。使用訓練後偏差來稽核模型的預測結果——它告訴你即使資料已平衡,模型本身是否仍產生差異化結果。對於受監管的產業(放貸、招聘、保險),你通常需要同時執行兩者,因為修正資料不一定能修正模型,反之亦然。
Q3. Amazon A2I 可以審核 Bedrock 基礎模型的預測嗎?
可以。A2I 針對任何推論管線支援自訂工作流程,包括 Bedrock。你的應用程式呼叫 Bedrock,依據你的信心或品質標準評估回應,然後將案例交付至 A2I Flow Definition 進行人工審核。A2I 的即插即用整合僅存在於 Amazon Textract 與 Amazon Rekognition;Bedrock 與自訂 SageMaker 端點需要自訂工作流程。在 Bedrock Guardrails 之上疊加 A2I,是生成式 AI 系統中常見的縱深防禦模式。
Q4. SageMaker Model Monitor 沒有標注真實標籤也能運作嗎?
四種監控類型中有兩種不需要標籤。資料品質漂移監控輸入的統計分布,而特徵歸因漂移監控 SHAP 值的變化——兩者都不需要推論資料的真實標籤。模型品質漂移與偏差漂移則需要標注的真實標籤(模型品質)或推論資料上的 facet 標籤(偏差漂移)。若你的生產管線無法擷取標籤,你仍然可以從資料品質與特徵歸因漂移獲得有用訊號——而且你應該這樣做。
Q5. Disparate Impact 是什麼,哪個門檻值會被標記?
Disparate Impact(DI)是訓練後偏差指標,計算弱勢 facet 與優勢 facet 之間正向預測率的比值。美國平等就業機會委員會歷來採用 0.8 的門檻(「五分之四原則」)——低於 0.8 的比值被視為不利影響的證據。SageMaker Clarify 在訓練後偏差報告中自動計算 DI。法規合規情境——放貸、招聘、保險——往往以 DI 為核心。
Q6. SageMaker Data Wrangler 可以取代 SageMaker Clarify 嗎?
部分可以。Data Wrangler 的偏差報告是 SageMaker Clarify 訓練前偏差指標在 UI 中暴露的子集,適合在資料準備階段進行快速檢查。Data Wrangler 無法對訓練好的模型執行訓練後偏差分析,也無法產生 SHAP 可解釋性報告——這些仍然需要獨立的 SageMaker Clarify Processing Jobs。把 Data Wrangler 的偏差報告想成「Data Wrangler 流程內的 Clarify 精簡版」,完整的 SageMaker Clarify 則用於訓練時與評估時的分析。
Q7. Amazon A2I 與 SageMaker Ground Truth 有什麼不同?
SageMaker Ground Truth 是用於準備訓練資料的資料標注服務——人工標注員為圖像、文字或其他資料建立標注,以建立監督式學習的標注資料集。Amazon A2I 是在推論時使用的人工審核服務——人工審核員查看模型不確定的 ML 預測。Ground Truth 餵養訓練管線;A2I 守護推論管線。兩者都屬於 SageMaker 負責任 AI 工具家族,也都支援私有、供應商、公眾三種勞動力,這正是它們常被混淆的原因。記住:Ground Truth 是訓練前,A2I 是部署後。
延伸閱讀
- Amazon SageMaker Clarify Documentation: https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-configure-processing-jobs.html
- SageMaker Clarify Pre-Training Bias Metrics: https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-measure-data-bias.html
- SageMaker Clarify Post-Training Bias Metrics: https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-measure-post-training-bias.html
- SageMaker Clarify SHAP Feature Attribution: https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-shapley-values.html
- Amazon SageMaker Model Monitor: https://docs.aws.amazon.com/sagemaker/latest/dg/model-monitor.html
- Model Monitor Bias Drift: https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-model-monitor-bias-drift.html
- Model Monitor Feature Attribution Drift: https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-model-monitor-feature-attribution-drift.html
- Amazon SageMaker Data Wrangler: https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler.html
- Data Wrangler Bias Report: https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-bias-report.html
- Amazon Augmented AI (A2I): https://docs.aws.amazon.com/sagemaker/latest/dg/a2i-use-augmented-ai-a2i-human-review-loops.html
- Amazon Bedrock Guardrails(交叉對照): https://docs.aws.amazon.com/bedrock/latest/userguide/guardrails.html
- AWS Certified AI Practitioner Exam Guide (AIF-C01): https://d1.awsstatic.com/training-and-certification/docs-ai-practitioner/AWS-Certified-AI-Practitioner_Exam-Guide.pdf