一区二区三区A片|Av不卡高清网址|精品久久不卡一本|一区二区三区绿色|五月黄色婷婷久久|综合 另类 一区|亚洲成人VA视频|久久国产特黄大片|成人无码激情亚洲|黄色字幕网址大全

司法領域應審慎使用人工智能

加拿大康考迪亞大學官網(wǎng)近日報道稱,該校學者尼哈·楚格(Neha Chugh)研究認為,將人工智能應用于加拿大刑事司法體系為時尚早,因為目前還沒有足夠的措施應對機器和人類的偏見問題。

加拿大康考迪亞大學官網(wǎng)近日報道稱,該校學者尼哈·楚格(Neha Chugh)研究認為,將人工智能應用于加拿大刑事司法體系為時尚早,因為目前還沒有足夠的措施應對機器和人類的偏見問題。最新一期《IEEE技術(shù)與社會雜志》刊發(fā)了楚格的新研究《風險評估工具拷問:人工智能系統(tǒng)的去與留》。

如今,人工智能技術(shù)被廣泛應用于各種領域,包括刑事司法系統(tǒng)。在美國審前程序的風險評估中,算法和數(shù)據(jù)越來越多地被用于評估被告再犯罪的風險。支持者認為,人工智能可以避免警察、法官或檢察官等刑事司法人員的固有偏見。楚格對這種說法提出了質(zhì)疑。她在論文中提出,盡管人工智能風險評估尚未應用于加拿大法院,但已經(jīng)出現(xiàn)了一些危險信號,有些問題急需司法系統(tǒng)解決。她表示,在刑事司法系統(tǒng)中,原住民被告的比例過高,導致其更容易受到數(shù)據(jù)驅(qū)動性工具缺陷的影響。

楚格認為,風險評估工具普遍存在問題,如埃沃特訴加拿大案(Ewert v. Canada)。杰弗里·埃沃特(Jeffrey

Ewert)是“梅蒂人”,即父母一方為加拿大原住民,另一方為歐裔,他因謀殺和謀殺未遂而被判終身監(jiān)禁。埃沃特聲稱加拿大懲戒署的心理風險評估系統(tǒng)對原住民有文化偏見,使原住民刑期遠超非原住民,且服刑條件更差。最后,埃沃特在最高法院申訴成功。

楚格表示,偏見與歧視的存在誤導了評估工具,那么如何確保算法最終得出正確的結(jié)果?使用人工智能進行風險評估只是將偏見從人類轉(zhuǎn)移到人類創(chuàng)造的算法中罷了,有偏差的數(shù)據(jù)信息庫只會讓算法得出有偏差的結(jié)果。法律和法規(guī)為法官的工作提供了一定的空間,并為考慮個人歷史和特殊情況等因素保留了余地。過度依賴人工智能進行風險評估的主要問題之一,在于缺失主觀判斷和尊重。楚格強調(diào),她并不反對在法院系統(tǒng)中使用人工智能,但對此還需要進一步的研究。例如,需要分析算法所采用的信息,以及人們的偏見對結(jié)果的影響等。

THE END
責任編輯:趙龍
免責聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請聯(lián)系我們,本站核實后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟賠償!敬請諒解!