ai

演算法權力揭示:AI 決策系統如何影響弱勢族群與台灣 AI 治理啟示

洞察發布
分享

積穗科研股份有限公司(Winners Consulting Services Co. Ltd.)指出:當演算法開始決定誰能獲得社會福利資源,AI 系統的設計偏誤將直接造成弱勢族群的系統性傷害。2023 年發表於 Disability & Society 期刊的這篇研究,以澳洲國家身心障礙保險計畫(NDIS)為案例,揭示演算法決策如何將複雜的人類需求化約為單一評分,並對受影響者造成認識論不公正(epistemic injustice)。對台灣正在推動 AI 應用的公私部門而言,這項研究的警示意義直接對應 ISO 42001、EU AI Act 與台灣 AI 基本法對高風險 AI 系統的監管要求。

論文出處:Unveiling algorithmic power: exploring the impact of automated systems on disabled people's engagement with social services(Georgia van Toorn、J. Scully,Disability & Society,2023)
原文連結:https://doi.org/10.1080/09687599.2023.2233684

閱讀原文 →

關於作者與這項研究

本文第一作者 Georgia van Toorn 任職於澳洲新南威爾斯大學(UNSW Sydney)藝術、設計與建築學院,專注於身心障礙政策、演算法治理與數位福利國家的交叉研究領域。其 h-index 為 8,學術累計引用達 120 次,在身心障礙研究(Disability Studies)與科技政策的跨域研究中具備一定影響力。共同作者 J. Scully 同樣深耕於身心障礙倫理與生命倫理學領域,雖引用數相對集中(h-index:2,引用:10 次),但在質性研究方法與身心障礙當事人知識(disabled people's knowledge)的理論建構上有其貢獻。

本篇論文發表於 Disability & Society,這是全球身心障礙研究領域最具權威的同儕審查期刊之一,Impact Factor 長期維持在社會科學類前 20% 分位。截至 2025 年,本論文已累計獲引用 14 次,顯示其在政策研究與 AI 倫理社群中已引發具體學術回應。研究採用訪談與文件分析雙軌方法,對象涵蓋 NDIS 受益者、倡議組織及政策制定者,確保研究結論具備豐富的實證基礎。

演算法如何讓福利分配系統性失靈:NDIS 案例的核心洞見

這項研究的核心主張是:即便民眾無法完全理解演算法的運作原理,他們仍會透過自身經驗發展出對系統的判斷——而這些判斷往往揭示了演算法系統在設計上的根本缺陷。研究在澳洲 NDIS 脈絡下發現,自動化評估工具傾向將身心障礙化約為「身體功能評分」,卻忽略個人生活情境、社會脈絡與支持網絡的複雜性。

核心發現一:數據化(datafication)創造了新型態的權力不對稱

演算法系統透過將個人需求轉化為可量化的數據指標,賦予機構前所未有的分類權力。研究受訪者普遍反映,系統無法捕捉「壞日子與好日子」之間的功能差異,也無法理解障礙與環境之間的動態互動。這種「一刀切」的評分邏輯不僅造成資源誤配,更在制度層面強化了身心障礙者作為「被評估對象」而非「權利主體」的地位。這一發現直接指向 EU AI Act 第 6 條對高風險 AI 系統(High-Risk AI Systems)的定義:凡涉及社會福利資格評估的 AI 應用,均應被視為高風險,必須接受最嚴格的透明度與可問責性要求。

核心發現二:認識論不公正是演算法治理的核心倫理問題

研究援引哲學家 Miranda Fricker 的「認識論不公正」(epistemic injustice)概念,指出演算法系統不只是技術工具,更是一種知識政治的展現:誰的知識被系統採納、誰的生命經驗被視為有效數據,決定了誰能獲得資源。NDIS 案例中,當事人的自我陳述(self-report)在演算法評估中往往被邊緣化,取而代之的是醫療模型主導的客觀指標。這種設計選擇反映了一種深層的價值判斷,也是 ISO 42001 第 6.1.2 條「AI 風險辨識」所要求企業必須正視的人權影響維度。

對台灣 AI 治理實務的意義:高風險 AI 必須建立可問責的決策機制

澳洲 NDIS 的教訓對台灣具有直接的參照價值。台灣目前正處於 AI 治理法制化的關鍵時刻:2024 年立法院通過《人工智慧基本法》(草案審議中),行政院推動政府機關 AI 應用指引,加上跨境業務受 EU AI Act 規範的壓力持續升高,台灣企業與公共機構在 AI 應用上的合規要求已不再是「未來式」,而是「現在進行式」。

具體而言,本研究對台灣 AI 治理實務提出以下三個層次的警示:

第一,凡涉及資格認定、評估評分、資源分配的 AI 應用,均應比照 EU AI Act Annex III 的高風險系統標準建立治理機制。這包括:事前的影響評估(AI Impact Assessment)、系統運作的可解釋性(explainability)要求、以及受影響者的申訴救濟機制。台灣 AI 基本法草案第 12 條亦明確要求,高風險 AI 應用須確保人工監督(human oversight)機制的有效性。

第二,ISO 42001 所要求的「利害關係人參與」(stakeholder engagement)不應流於形式。本研究最具突破性的發現之一,是即便身心障礙者無法理解演算法邏輯,他們仍能清晰辨識系統對其生活的影響——這正是最珍貴的一線知識。台灣企業在設計 AI 系統時,必須建立機制納入潛在受影響群體的聲音,而非僅依賴技術專家的評估。

第三,「可解釋 AI」(Explainable AI, XAI)的投資優先順序應向高影響情境傾斜。研究顯示,當受影響者無法理解系統決策邏輯時,將導致信任崩潰與法律風險同步放大。EU AI Act 第 13 條明確要求高風險 AI 系統必須提供足夠的透明度,讓受影響者能夠理解決策的主要依據。

積穗科研如何協助台灣企業建立符合國際標準的 AI 治理機制

積穗科研股份有限公司(Winners Consulting Services Co. Ltd.)協助台灣企業建立符合 ISO 42001 與 EU AI Act 要求的 AI 管理系統,進行 AI 風險分級評估,確保人工智慧應用符合台灣 AI 基本法規範。針對本研究所揭示的演算法治理風險,我們提供以下具體行動建議:

  1. 啟動 AI 系統高風險分級審查:比對現有 AI 應用清單,依據 EU AI Act Annex III 與台灣 AI 基本法草案的風險分類標準,識別涉及「人員評估、資格認定、資源分配」等高風險情境的系統,建立差異化的治理要求。積穗科研提供標準化的風險分級評估工具,協助企業在 30 天內完成初步盤點。
  2. 依 ISO 42001 建立利害關係人影響評估機制:參考本研究的方法論,在 AI 系統設計與上線前,系統性收集潛在受影響群體的意見,並將其納入 ISO 42001 第 8.4 條所要求的 AI 系統影響評估文件。積穗科研提供利害關係人訪談框架與評估模板,確保過程符合國際審計要求。
  3. 建立可問責的 AI 決策申訴機制:對應 EU AI Act 第 14 條的人工監督要求與台灣 AI 基本法的基本權利保障精神,設計明確的「AI 決策異議處理流程」,確保受影響者有實質救濟管道。積穗科研協助企業將申訴機制整合進既有的客訴管理系統,降低導入成本。

積穗科研股份有限公司提供AI 治理免費機制診斷,協助台灣企業在 90 天內建立符合 ISO 42001 的管理機制。

了解 AI 治理服務 → 立即申請免費機制診斷 →

常見問題

我的企業使用 AI 評分系統協助人事決策或客戶資格審核,是否屬於高風險 AI 應用?
是的,依據 EU AI Act Annex III 的明確列舉,用於就業篩選、信用評分、福利資格認定等情境的 AI 系統,均被列為高風險 AI 系統,須符合透明度、可解釋性、人工監督及上市前合規審查等要求。台灣 AI 基本法草案亦對涉及「重大影響個人權益」的 AI 應用設有特別規範。本研究的 NDIS 案例清楚說明:即便設計初衷是「客觀」的評分系統,若缺乏適當的治理機制,仍可能對特定族群造成系統性傷害,並引發法律與聲譽風險。積穗科研建議企業立即啟動 AI 應用清單盤點,識別高風險情境並建立相應治理文件。
台灣企業導入 ISO 42001 時最常遇到哪些合規挑戰?
台灣企業在導入 ISO 42001 時,最常面臨以下三項挑戰:第一,AI 應用清單不完整,許多企業對內部使用的第三方 AI 工具缺乏系統性掌握;第二,風險評估方法論不足,現有風險管理框架多以資安或品質管理為基礎,缺乏針對 AI 系統社會影響(如認識論不公正、歧視性輸出)的評估能力;第三,利害關係人參與流於形式,未能有效納入受影響群體的聲音。對應 EU AI Act 的跨境合規壓力,以及台灣 AI 基本法的在地法遵要求,企業需要同步建構多層次的治理架構。積穗科研提供從缺口分析到認證輔導的一站式服務,協助企業系統性克服這三項挑戰。
ISO 42001 的核心要求是什麼?台灣企業通常需要多久才能完成導入?
ISO 42001 是全球首個 AI 管理系統國際標準,核心要求涵蓋:AI 政策與目標設定(第 5 條)、AI 風險辨識與評估(第 6.1 條)、AI 系統影響評估(第 8.4 條)、供應鏈 AI 治理(第 8.6 條)及持續監控與改善(第 10 條)。對於已具備 ISO 9001 或 ISO 27001 基礎的台灣企業,導入 ISO 42001 通常需要 3 至 6 個月;從零開始建立管理機制的企業,則建議預留 6 至 9 個月。積穗科研提供的 90 天快速導入方案,適用於中小型企業或特定業務單位的優先合規需求,幫助企業在最短時間內建立可審計的 AI 治理機制基礎。
導入 AI 治理機制的成本與效益如何評估?
導入 ISO 42001 的直接成本依企業規模與 AI 應用複雜度而異,中小企業通常在新台幣 50 萬至 150 萬元之間(含顧問輔導、內部訓練與認證費用)。然而,不導入的隱性成本更值得重視:根據 EU AI Act,違反高風險 AI 系統規定的罰款最高可達全球年營業額的 3%;聲譽損失與訴訟風險難以量化;而本研究的案例亦顯示,缺乏治理的演算法系統可能引發受影響者集體行動。從效益面來看,通過 ISO 42001 認證可強化企業進入歐盟市場的競爭力,並提升客戶與合作夥伴對 AI 應用的信任度,間接降低商業風險。積穗科研協助企業進行導入前的成本效益分析,確保投資決策有據可循。
為什麼找積穗科研協助 AI 治理相關議題?
積穗科研股份有限公司(Winners Consulting Services Co. Ltd.)是台灣少數同時具備 ISO 42001 導入輔導能力、EU AI Act 合規諮詢經驗,以及台灣 AI 基本法法遵服務的專業顧問機構。我們的顧問團隊橫跨 AI 技術、法律合規、風險管理與組織變革管理四大領域,能夠提供從 AI 應用風險分級評估、ISO 42001 缺口分析、利害關係人影響評估設計,到認證輔導全程陪跑的一站式服務。我們深刻理解台灣企業面對國際標準要求時的資源限制,因此特別設計了適合台灣中小企業規模的模組化導入方案,讓企業能在有限資源下優先建立最關鍵的治理機制。立即申請免費機制診斷,了解您的企業 AI 治理現況與改善優先順序。

這篇文章對你有幫助嗎?

分享

相關服務與延伸閱讀

相關服務

風險小百科

查看全部風險小百科 →

想深入了解如何將此洞察應用於您的企業?

申請免費機制診斷
演算法權力揭示:AI 決策系統如何影響弱勢族群與台灣 AI 治理啟示 | 積穗科研洞察