加拿大康考迪亞大學官網(wǎng)近日報道稱,該校學者尼哈·楚格(Neha Chugh)研究認為,將人工智能應用于加拿大刑事司法體系為時尚早,因為目前還沒有足夠的措施應對機器和人類的偏見問題。最新一期《IEEE技術(shù)與社會雜志》刊發(fā)了楚格的新研究《風險評估工具拷問:人工智能系統(tǒng)的去與留》。
如今,人工智能技術(shù)被廣泛應用于各種領域,包括刑事司法系統(tǒng)。在美國審前程序的風險評估中,算法和數(shù)據(jù)越來越多地被用于評估被告再犯罪的風險。支持者認為,人工智能可以避免警察、法官或檢察官等刑事司法人員的固有偏見。楚格對這種說法提出了質(zhì)疑。她在論文中提出,盡管人工智能風險評估尚未應用于加拿大法院,但已經(jīng)出現(xiàn)了一些危險信號,有些問題急需司法系統(tǒng)解決。她表示,在刑事司法系統(tǒng)中,原住民被告的比例過高,導致其更容易受到數(shù)據(jù)驅(qū)動性工具缺陷的影響。
楚格認為,風險評估工具普遍存在問題,如埃沃特訴加拿大案(Ewert v. Canada)。杰弗里·埃沃特(Jeffrey
Ewert)是“梅蒂人”,即父母一方為加拿大原住民,另一方為歐裔,他因謀殺和謀殺未遂而被判終身監(jiān)禁。埃沃特聲稱加拿大懲戒署的心理風險評估系統(tǒng)對原住民有文化偏見,使原住民刑期遠超非原住民,且服刑條件更差。最后,埃沃特在最高法院申訴成功。
楚格表示,偏見與歧視的存在誤導了評估工具,那么如何確保算法最終得出正確的結(jié)果?使用人工智能進行風險評估只是將偏見從人類轉(zhuǎn)移到人類創(chuàng)造的算法中罷了,有偏差的數(shù)據(jù)信息庫只會讓算法得出有偏差的結(jié)果。法律和法規(guī)為法官的工作提供了一定的空間,并為考慮個人歷史和特殊情況等因素保留了余地。過度依賴人工智能進行風險評估的主要問題之一,在于缺失主觀判斷和尊重。楚格強調(diào),她并不反對在法院系統(tǒng)中使用人工智能,但對此還需要進一步的研究。例如,需要分析算法所采用的信息,以及人們的偏見對結(jié)果的影響等。
訪談
更多做行業(yè)賦能者 HID迎接數(shù)字化浪潮新機遇 破解新挑戰(zhàn)
今年3月份,全球可信身份解決方案提供商HID發(fā)布了最新的《安防行業(yè)現(xiàn)狀報告》(以下簡稱“報告”),該報告…
數(shù)字化浪潮下,安防廠商如何滿足行業(yè)客戶的定制化需求?
回顧近兩年,受疫情因素影響,包括安防在內(nèi)的諸多行業(yè)領域都遭受了來自市場 “不確定性”因素的沖擊,市場…
博思高鄧紹昌:乘產(chǎn)品創(chuàng)新及客戶服務之舟,在市場變革中逆風飛揚
11月24日,由慧聰物聯(lián)網(wǎng)、慧聰安防網(wǎng)、慧聰電子網(wǎng)主辦的2022(第十九屆)中國物聯(lián)網(wǎng)產(chǎn)業(yè)大會暨品牌盛會,在深…