top of page

不確定性下的公平:順序決策、選擇性回饋與負責任探索

  • 4月25日
  • 讀畢需時 6 分鐘

在貸款、招聘、保險、福利分配等高風險場景,機器學習系統往往不是一次性預測,而是反覆作出決策:批出或拒絕、調整價格、邀請面試、分配資源。今日的決策會決定明日可觀察到的資料,亦會改變模型日後學到甚麼。

Lee、Padh、Watson、Kilbertus 與 Singh 的 Fairness under uncertainty in sequential decisions(FAccT 2026 / arXiv:2604.21711v1)討論的正是這個問題:當不同群體面對的不確定性本身已經不平均,傳統只看靜態 fairness metric 的做法,很容易低估順序決策系統如何把排除與偏差累積下去。


本文重點

這篇 paper 的重點不是推出一個可直接部署的「公平 RL 演算法」,而是提出一套診斷框架:在 sequential decision system 入面,不確定性從哪裏來、如何互相放大、又會怎樣透過 selective feedback 轉化成群體差異。

作者用貸款作例子說明:銀行拒絕一個申請人之後,就永遠不知道「如果批出貸款,他是否會還款」。這些未觀察到的反事實結果,若長期集中在原本已被排除或資料不足的群體身上,模型便會愈來愈缺乏關於他們的證據,最後把「我不知道」錯當成「高風險」。


一、為何靜態公平指標不夠?

監督式學習中的公平性研究,常見焦點是 demographic parity、equal opportunity、false positive / false negative rate 差異等指標。這些指標有用,但多數假設我們已經有一批可標註、可比較的資料。

在順序決策中,資料不是中立地掉到模型面前,而是由決策本身生成。批出貸款的人才會留下還款紀錄;拒絕的人沒有觀察結果。招聘亦類似:沒有聘用的人,之後在該職位上的表現不可見。這就是 selective feedbackselective labels 的核心。

問題在於,受歷史排除影響的群體本來就較少出現在訓練資料中。當模型又因為不確定而更保守地拒絕他們,未來可用資料會更少,形成一個自我強化的循環。


二、六種不確定性

作者提出一個貫穿 ML lifecycle 的 uncertainty taxonomy。它可視為審計 sequential decision system 的共同語言:

  • Desired state uncertainty: 決策者究竟想修正哪些既有不平等?例如市場上的收入差距,有多少應被視為需要補救的社會不公?這牽涉價值判斷與政策目標。

  • Representation uncertainty: 訓練資料是否代表目標群體?若某些群體因歷史原因較少被服務或被記錄,模型對他們的估計自然較不可靠。

  • Measurement uncertainty: 特徵是否真正量度到想量度的東西?收入、教育、工作紀錄等變數可能同時是能力代理,也是社會結構性不平等的代理。

  • Model uncertainty: 目前模型或決策邊界是否接近最佳?在 online setting 中,模型可能只是因為從未探索某些區域,才誤以為現行邊界合理。

  • Prediction uncertainty: 對某一個申請人的預測有多不確定?兩個人即使平均還款概率相近,置信區間可能非常不同;資料較少的群體往往承受更寬的不確定範圍。

  • Feedback uncertainty: 決策造成哪些永遠不可直接觀察的反事實?被拒絕貸款的人如果其實會還款,銀行與申請人都失去一次潛在收益,但資料表面上不會留下這個錯失。

這個分類的價值,在於把「公平」從單一指標問題,拉回到系統設計與治理問題:有些不確定性要靠資料收集、制度設計和利害關係人討論處理;有些則可在模型部署與探索策略中被明確管理。


三、探索不是單純隨機

Reinforcement learning 與 contextual bandit 的核心是 exploration-exploitation trade-off:要在利用目前認為最好的策略,與探索未知區域之間取平衡。可是在高風險場景,探索本身有法律、倫理與聲譽風險。不是所有隨機決策都能被社會接受。

作者因此強調,探索不能只被視為提升長期 reward 的技術手段。若探索導致相似個體被任意差別對待,或在貸款、就業、刑事司法等場景造成不可逆傷害,就可能與 non-discrimination law、個人公平或公共信任產生衝突。

但完全不探索也不是答案。若系統永遠假設所有被拒者都會失敗,便會把歷史排除包裝成模型信心。這篇 paper 的立場比較細緻:探索應該與不確定性成比例,並受決策者的風險承受能力、法律約束與治理流程限制。


四、貸款模擬:看見未觀察空間

實驗部分使用合成貸款資料,因為真實資料通常無法觀察反事實:被拒絕的人到底會否還款。合成設定讓作者可以控制 historical bias、measurement bias、representation bias 與 omitted variable bias,並追蹤不同方法在多個季度內如何改變 profit 與 fairness metrics。

基礎模型採用 logistic regression,因為它簡單、可解釋,而且可用 Delta Method 估計預測概率的置信區間。各方法都在「不確定區域」內作有限探索,即介乎明確接受與明確拒絕之間的申請人。

文中比較了幾類策略:

  • Naive: 只按現有模型決策,不額外探索。

  • Naive exploration: 在不確定區域中隨機抽取一部分申請人批出貸款。

  • Prob-weighted exploration: 按模型估計的還款概率加權抽樣,優先探索看似較有希望的人。

  • Uncertainty-aware exploration: 只在置信區間與決策閾值重疊的申請人中探索,明確把 prediction uncertainty 納入決策。

  • Counterfactual utility maximization: 不只最大化已觀察到的收益,也把被拒申請人的預期反事實收益納入可微分目標函數。


五、結果給我們的訊息

作者的模擬顯示,在存在歷史與量度偏差的設定下,單看已觀察收益會錯過大量「本可成功但從未被批出」的個案。特別是 counterfactual utility maximization,在多個偏差強度下能改善 selection rate difference、accuracy difference、false negative rate difference 等公平指標,同時對整體 profit 的代價很小,甚至在部分有偏設定中更好。

這個結果不應被讀成「某方法保證公平」。作者亦明確指出,這些策略是為了展示機制,而不是 production-ready solution。真正重要的訊息是:有些看似公平與效益的 trade-off,其實源於錯誤處理不確定性;若把未觀察結果與群體間不確定性差異納入模型,決策者可能同時減少排除與改善效益。


六、治理含意

這篇 paper 對實務界有幾個值得帶走的提醒。

第一,模型信心不是中立的。若某群體長期較少出現在資料中,較高 uncertainty 可能反映制度排除,而不是個人風險。

第二,審計 sequential decision system 時,不能只看最後一季或最終均衡。探索階段中的臨時不公平,也可能帶來法律與倫理問題。

第三,fairness under uncertainty 需要跨越技術與治理:資料代表性、特徵量度、反事實缺失、模型更新、風險承受能力與可申訴機制,全部都影響結果。

第四,uncertainty-aware design 不是 affirmative action 的簡單替代。它不是直接給某群體固定偏好,而是問:當不確定性由歷史排除造成時,系統是否應該把「未知」視為需要學習的訊號,而不是拒絕的理由?


七、小結

Fairness under uncertainty in sequential decisions 把公平性討論從靜態分類器推進到動態決策系統。它最有價值之處,是把 model uncertainty、prediction uncertainty 與 feedback uncertainty 放在同一個框架內,說明不確定性本身如何成為結構性不公的傳導機制。

對正在設計或審計高風險 AI 系統的人來說,這篇 paper 的核心提醒很直接:如果系統的決策會決定未來能看見甚麼資料,那麼「沒有證據」不等於「證明高風險」。有時候,真正負責任的模型治理,是承認自己不知道,並用受約束、可審計的方式去學。


Reference

  1. Michelle Seng Ah Lee, Kirtan Padh, David Watson, Niki Kilbertus, and Jatinder Singh. Fairness under uncertainty in sequential decisions. FAccT 2026 / arXiv:2604.21711v1 [cs.LG], 23 Apr 2026. https://arxiv.org/abs/2604.21711

  2. Niki Kilbertus, Manuel Gomez Rodriguez, Bernhard Schölkopf, Krikamol Muandet, and Isabel Valera. Fair Decisions Despite Imperfect Predictions. AISTATS 2020. https://proceedings.mlr.press/v108/kilbertus20a.html

  3. Himabindu Lakkaraju, Jon Kleinberg, Jure Leskovec, Jens Ludwig, and Sendhil Mullainathan. The Selective Labels Problem: Evaluating Algorithmic Predictions in the Presence of Unobservables. KDD 2017.

  4. Yaniv Romano, Rina Foygel Barber, Chiara Sabatti, and Emmanuel Candès. With malice toward none: Assessing uncertainty via equalized coverage. Harvard Data Science Review, 2020.

  5. Richard S. Sutton and Andrew G. Barto. Reinforcement Learning: An Introduction. 2nd ed., MIT Press, 2018.


原文 Paper



bottom of page