目前,以數(shù)據(jù)驅(qū)動的人工智能已越發(fā)深度應(yīng)用于我們的生產(chǎn)生活,并廣泛影響著人類社會的各個方面,產(chǎn)生了一系列實際后果。對這些后果的關(guān)注,一直都是人工智能倫理反思的題中之義。比如,批判性考察人工智能應(yīng)用中的數(shù)據(jù)獲取和數(shù)據(jù)管理,技術(shù)的誤用或濫用,技術(shù)的設(shè)計、開發(fā)和使用過程中的社會權(quán)力動態(tài)等。我們要推動人工智能的“技術(shù)向善”,避免其對社會和個人造成嚴(yán)重傷害。但已有研究大都忽視了人工智能對人類的認(rèn)識論活動造成的傷害——威脅到人類作為解釋者、認(rèn)知者和證據(jù)來源的尊嚴(yán)。本文將借助弗里克(Miranda Fricker)的“認(rèn)識論不公正”(Epistemic Injustice)概念及其分類,揭示人工智能何以在認(rèn)識論上給我們帶來解釋學(xué)不公正和證詞不公正。
概念考察與類型分析
作為認(rèn)識論領(lǐng)域一個相對較新的概念,“認(rèn)識論不公正”由弗里克在《認(rèn)識論不公正:認(rèn)知的權(quán)力和倫理》一書中首次提出。根據(jù)弗里克的定義,“認(rèn)識論不公正”是“以知識者的身份對某人犯下的錯誤”。該術(shù)語揭示了一種獨特現(xiàn)象——由于社會偏見或刻板印象等原因?qū)е履橙说恼J(rèn)知論地位被不公正地削弱。更寬泛地講,是指某類群體或個人的理性能力受到社會或他人的不公正對待。“認(rèn)識論不公正”是一種歧視性的不公正,是因歧視性因素使得某人被排擠在認(rèn)知活動之外或處于認(rèn)識論的不利地位。歧視性的不公正不同于分配性的不公正,雖然對后者的關(guān)注同樣重要,但弗里克認(rèn)為“它并沒有明顯的認(rèn)識論上的問題”,因為那些被定性為認(rèn)識論商品的東西在很大程度上是偶然的。所以,真正具有認(rèn)識論意義的不公正應(yīng)當(dāng)是歧視性的不公正。
弗里克明確將“認(rèn)識論不公正”區(qū)分為解釋學(xué)不公正(hermeneutical injustice)和證詞不公正(testimonial injustice)兩種類型。當(dāng)“集體解釋資源的差距使某人在理解其社會經(jīng)歷時處于劣勢”時,就會發(fā)生解釋學(xué)不公正。當(dāng)沒有“集體解釋學(xué)資源”,即缺乏典型的語言類型和概念資源來談?wù)摵屠斫饽承┙?jīng)歷時,遭受此經(jīng)歷的人將被剝奪談?wù)摵屠斫庾陨斫?jīng)歷的機(jī)會。證詞不公正則是指“因偏見導(dǎo)致聽眾對說話者的證詞可信度的貶低”,因而不再被當(dāng)作可靠證據(jù)或證詞的來源。這些偏見往往是系統(tǒng)性的,滲透在整個社會之中,證詞不公正便是其在認(rèn)識論上的反映。以上理論資源,為揭示人工智能帶來的“認(rèn)識論不公正”問題提供了有益的起點。
解釋學(xué)不公正
人工智能的認(rèn)知非透明性特征,將引發(fā)解釋學(xué)不公正。認(rèn)知非透明性是漢弗萊斯(Paul Humphreys)提出的概念,用于表征某些計算系統(tǒng)的內(nèi)部過程和屬性的不可訪問性。雖然漢弗萊斯專注于計算模型和模擬,但該概念同樣適用于人工智能。由于運用了大量復(fù)雜的程序和方法(如機(jī)器學(xué)習(xí)、深度神經(jīng)網(wǎng)絡(luò)、大數(shù)據(jù)分析等),人工智能具有明顯的認(rèn)知非透明性特征。
人工智能的認(rèn)知非透明性特征主要源于兩個方面。一方面,一些技術(shù)本身是不透明的。比如,深度學(xué)習(xí)和大數(shù)據(jù)技術(shù)具有典型的不完全可理解性和不可訪問性,使其結(jié)果難以被追溯或至多只能在事后獲得部分解釋。另一方面,一些社會性因素也帶來了認(rèn)知非透明性。比如,人工智能中的算法和數(shù)據(jù)多為大型科技公司掌握甚至壟斷,為保持市場競爭和技術(shù)優(yōu)勢,這些算法和數(shù)據(jù)通常會被視為商業(yè)機(jī)密而不被公開。
人工智能可以被視為一個復(fù)雜的非透明性系統(tǒng),對其內(nèi)部過程和輸出結(jié)果的理解遠(yuǎn)遠(yuǎn)超出人類個體的認(rèn)知資源和能力。并且,人們對其經(jīng)驗有效性也缺乏認(rèn)知控制。這會導(dǎo)致人們(至少是非技術(shù)專家)在質(zhì)疑其結(jié)果或理解其操作方面存在不少困難。尤其是當(dāng)人工智能產(chǎn)生負(fù)面影響時,受影響群體明顯缺乏適當(dāng)?shù)母拍钯Y源來表達(dá)、概括和理解其所經(jīng)歷的傷害,由此將導(dǎo)致解釋學(xué)不公正的發(fā)生。而當(dāng)人工智能被應(yīng)用于決策環(huán)境中時,其帶來的解釋學(xué)不公正將變得更加突出。
人工智能正在深刻改變?nèi)藗兊臎Q策過程和環(huán)境,不少商業(yè)公司和政府的決策都開始有人工智能的參與。比如,一些科技公司會使用人工智能輔助招聘評估系統(tǒng)來篩選應(yīng)聘者的簡歷。由于人工智能的認(rèn)知非透明性特征,有可能導(dǎo)致應(yīng)聘者難以理解公司的評估方式和被拒絕的明確理由。同時,人工智能也被廣泛應(yīng)用于商業(yè)借貸領(lǐng)域,通過對申請人進(jìn)行信譽(yù)評估來決定是否放貸及貸款額度。這時,借貸者往往無法知道銀行機(jī)構(gòu)是根據(jù)哪些具體指標(biāo)來評估其信譽(yù)等級并作出決策的。所以,人工智能參與決策的受影響者,或缺乏足夠的資源來理解自身遭遇的經(jīng)歷,進(jìn)而失去反駁、申訴甚至追責(zé)的權(quán)利。此外,人工智能參與的決策還可能包含或隱藏著一些政治目的或經(jīng)濟(jì)利益,但由于其“黑箱式”運行,會導(dǎo)致使用者知之甚少,甚至有時連專家也無法訪問。這時,使用者明顯處于一種認(rèn)識論上的不利地位,甚至受到超出認(rèn)識論范圍的傷害。此類情況應(yīng)予以關(guān)注和重視。
證詞不公正
雖然弗里克的證詞不公正被認(rèn)為是發(fā)生在人類聽眾和人類說話者之間的事情,但在作為聽眾的人類與作為證詞或決策提供者的人工智能之間也存在類似狀況。人工智能或通過貶低人類證詞可信度,而成為一種新的認(rèn)識論傷害的來源。因為基于對人類自身身份和行為數(shù)據(jù)的大量收集,人工智能或帶來一種新的認(rèn)知權(quán)力不平等:目前人工智能經(jīng)常被認(rèn)為比我們更了解自己,從而削弱了我們對于自身可信度的支持。比如,在基于人工智能和大數(shù)據(jù)分析的行為預(yù)測和基于人類證詞的行為預(yù)測之間,可能有不少人會傾向于認(rèn)為前者更加可靠。在這種情況下,證詞不公正在整個社會層面被結(jié)構(gòu)性建立起來。
在人工智能面前,人類或不公平地貶低自身作為認(rèn)知者的理性能力,認(rèn)為其證詞可信度明顯低于人工智能的判斷。雖然基于數(shù)據(jù)挖掘技術(shù)的人工智能通常被認(rèn)為可以消除部分人類偏見,但它也可能復(fù)刻或強(qiáng)化許多社會偏見,并在偽客觀性中將其“自然化”。所以,人工智能的“證詞”并不一定就比人類證詞更加可靠,我們需要警惕其中隱藏的偏見并消除對人類證詞的不公正處置。人工智能所帶來的證詞不公正,將在以下三個方面對人類產(chǎn)生不利影響。
其一,在一些重要的認(rèn)識論活動(如知識生產(chǎn)、證據(jù)提供、理論驗證、決策判斷等)中,人類的參與能力和地位將被削弱乃至完全被排擠出整個認(rèn)識論活動之外。人類或?qū)⒉辉俦灰暈檎J(rèn)識論活動的適當(dāng)參與者。并且,這種重視人工智能決策和忽視人類證詞的實踐,或使我們錯過向人類個體學(xué)習(xí)的機(jī)會。
其二,由于人工智能的決策被賦予比人類證詞更多的權(quán)重,人類或逐漸失去作為認(rèn)識論主體的信心和作為知識提供者的尊嚴(yán)。人類在繼續(xù)擁有認(rèn)知能力的同時,因其證詞長期受到質(zhì)疑和忽視,很可能會失去交流和理解自身經(jīng)歷的動力,而最終選擇保持沉默。人類作為理性主體,創(chuàng)造知識和傳播真理不僅是人類理性能力的體現(xiàn),也是人類尊嚴(yán)和價值的直接表達(dá)。對人類認(rèn)識論主體地位的不公正削弱,將同“以人為本”的人工智能發(fā)展理念背道而馳。
其三,人工智能的數(shù)據(jù)缺失問題,將加劇對相關(guān)群體的證詞壓迫。缺乏關(guān)于特定社會事件或現(xiàn)象的數(shù)據(jù),并不意味著該類事件或現(xiàn)象實際上不存在。人工智能基于過去已有數(shù)據(jù)對未來作出預(yù)測性判斷,容易忽視某些未被數(shù)據(jù)化的其他因素或強(qiáng)化已有偏見。未被數(shù)據(jù)化的一些社會群體的證詞或被排除于人工智能算法系統(tǒng)之外,其利益和立場或因此被忽視。所以,若缺乏對訓(xùn)練數(shù)據(jù)的人工審查和輸出判斷的道德敏感性評估,人工智能可能會成為一種不負(fù)責(zé)任的創(chuàng)新。
總之,揭示人工智能帶來的“認(rèn)識論不公正”問題,旨在呼吁更多學(xué)者和人工智能專家關(guān)注該問題,積極探索問題的解決之道。雖然這里所討論的直接傷害發(fā)生在認(rèn)識論上,但這也會間接造成某些道德和社會后果。因此,加入認(rèn)識論視角的人工智能倫理反思,將會變得更加充實和全面,進(jìn)而促進(jìn)人工智能更好發(fā)展。
(本文系中國人民大學(xué)2022年度拔尖創(chuàng)新人才培育資助計劃成果)
(作者單位:中國人民大學(xué)哲學(xué)院)
訪談
更多做行業(yè)賦能者 HID迎接數(shù)字化浪潮新機(jī)遇 破解新挑戰(zhàn)
今年3月份,全球可信身份解決方案提供商HID發(fā)布了最新的《安防行業(yè)現(xiàn)狀報告》(以下簡稱“報告”),該報告…
數(shù)字化浪潮下,安防廠商如何滿足行業(yè)客戶的定制化需求?
回顧近兩年,受疫情因素影響,包括安防在內(nèi)的諸多行業(yè)領(lǐng)域都遭受了來自市場 “不確定性”因素的沖擊,市場…
博思高鄧紹昌:乘產(chǎn)品創(chuàng)新及客戶服務(wù)之舟,在市場變革中逆風(fēng)飛揚
11月24日,由慧聰物聯(lián)網(wǎng)、慧聰安防網(wǎng)、慧聰電子網(wǎng)主辦的2022(第十九屆)中國物聯(lián)網(wǎng)產(chǎn)業(yè)大會暨品牌盛會,在深…