• 中國臺灣網(wǎng)移動版

    中國臺灣網(wǎng)移動版

數(shù)字技術(shù)加劇美國的種族歧視

2022-06-20 11:11:00
來源:光明日報
字號

  【鳴鏑】

  互聯(lián)網(wǎng)、大數(shù)據(jù)以及人工智能等數(shù)字技術(shù)在為人類增加福祉的同時,也可能帶來人權(quán)的負面影響,尤其可能對在種族、性別、年齡等方面處于弱勢地位的特定群體造成不成比例的人權(quán)損害。美國擁有全球最先進的數(shù)字技術(shù),卻不僅沒能為其解決種族問題帶來契機,反而進一步復(fù)制、強化甚至加劇了其系統(tǒng)性和結(jié)構(gòu)性的種族歧視。

  以種族為坐標的數(shù)字鴻溝和技術(shù)障礙

  美國雖然在全球數(shù)字經(jīng)濟中占據(jù)主導(dǎo)地位,但少數(shù)族裔從新興數(shù)字技術(shù)中獲益的機會卻低得令人難以置信。根據(jù)美國聯(lián)邦通信委員會的數(shù)據(jù),2016年,約41%居住在部落的土著美國人無法獲得視頻會議等活動的互聯(lián)網(wǎng)服務(wù)。皮尤研究中心2019年的一項調(diào)查顯示,在美國,非洲裔和西班牙裔擁有電腦或擁有高速互聯(lián)網(wǎng)的比例仍然較低。大約有82%的白人表示擁有臺式電腦或筆記本電腦,但擁有電腦的非洲裔和西班牙裔只有58%和57%。在寬帶使用方面也存在巨大的族裔差異,白人家里有寬帶連接的比例比非洲裔和西班牙裔高出13%到18%。

  被廣泛應(yīng)用的面部識別技術(shù)本身也隱含了種族歧視的因素,許多能夠成功識別白人面孔的算法卻無法正確識別有色人種。2019年,美國國家標準與技術(shù)研究院發(fā)布了一份報告,顯示了全球99名開發(fā)人員提交的189種人臉識別算法在識別來自不同人口統(tǒng)計數(shù)據(jù)中的面孔時的表現(xiàn)。測試顯示,與白人相比,無法準確識別非洲裔或亞裔人臉照片的可能性高出10至100倍。在搜索數(shù)據(jù)庫以查找給定的面孔時,非洲裔女性顯示錯誤的比例明顯高于其他人口。

  社交媒體傳播仇恨言論和種族主義

  新興數(shù)字技術(shù)為快速和大規(guī)模傳播種族主義、仇恨言論與煽動歧視暴力的言論提供了渠道,而社交媒體平臺在其中發(fā)揮著關(guān)鍵作用。自2014年以來,美國的仇恨團體數(shù)量增加了30%,僅2018年就增加了7%。根據(jù)美國南方貧困法律中心2019年的統(tǒng)計,在美國查明有1020個仇恨團體。據(jù)美國反誹謗聯(lián)盟的監(jiān)測報告,美國2018年的白人至上主義宣傳事件數(shù)量為1187起,比2017年的421起增加了182%。仇恨團體在世界各地以“種族純潔”和種族優(yōu)越感為名對少數(shù)族裔實施恐怖襲擊和殺戮,包括2018年在美國匹茲堡發(fā)生的反猶太主義襲擊。2018年,新納粹和其他白人至上極端主義團體在加拿大和美國造成至少40人死亡。這些種族仇恨團體經(jīng)常利用社交媒體平臺尋找志同道合的個人,相互支持,并傳播他們的極端思想。此外,仇恨團體也越來越多地滲透到了“游戲”世界。電子游戲和與游戲有關(guān)的論壇、聊天室和直播流媒體網(wǎng)站已成為最主流的新納粹招募場所。

  算法系統(tǒng)重復(fù)并強化種族偏見

  首先,算法系統(tǒng)可能在工作權(quán)方面加劇種族歧視。聯(lián)合國特別報告員在2020年的報告中指出,在美國一些用于招聘的算法因其具有歧視性而受到批評。此類算法系統(tǒng)根據(jù)現(xiàn)有“成功”員工的數(shù)據(jù)庫來確定候選人,而數(shù)據(jù)庫包括性別、族裔或宗教信息。因此,算法系統(tǒng)作出的決策即反映出就業(yè)中現(xiàn)有的不平等現(xiàn)象,重復(fù)并強化了基于種族、性別等的偏見。

  其次,新興數(shù)字技術(shù)也對少數(shù)族裔的健康權(quán)產(chǎn)生了歧視性的影響。一篇發(fā)表在《科學(xué)》雜志上的研究發(fā)現(xiàn),美國醫(yī)療保健系統(tǒng)使用商業(yè)算法來指導(dǎo)超過2億人的醫(yī)療服務(wù)健康決策,對非洲裔患者實施了系統(tǒng)性的歧視。由于輸入數(shù)據(jù)中沒有“種族”選項,開發(fā)者認為該算法是“不分種族”的,但對于與白人患病程度相當(dāng)?shù)姆侵抟峄颊撸撍惴ㄊ冀K給予其較低的風(fēng)險分數(shù),未能識別出將近一半與白人患者同樣有可能產(chǎn)生復(fù)雜醫(yī)療需求的非洲裔患者,導(dǎo)致他們無法參與改善健康的干預(yù)項目。

  最后,定向廣告中的種族歧視侵犯少數(shù)族裔的住房權(quán)。控制著美國22%數(shù)字廣告市場份額的社交媒體網(wǎng)站臉書,過去允許廣告商在其廣告定位工具的“人口統(tǒng)計”類別下排除具有某些“族裔親緣關(guān)系”的用戶來“縮小受眾范圍”。這種定向廣告可以用來阻止非裔、亞裔或西班牙裔觀看特定的住房廣告。這種“只限白人”的廣告,不禁讓人聯(lián)想到在種族隔離合法化的吉姆·克勞時代,那時報紙為廣告商提供只向白人讀者投放廣告的選項。

  預(yù)測性警務(wù)技術(shù)導(dǎo)致嚴重的種族歧視

  2016年8月31日,由17個組織組成的聯(lián)盟發(fā)表了關(guān)于美國執(zhí)法部門使用預(yù)測性警務(wù)工具的聲明,指出該技術(shù)缺乏透明度,帶有種族偏見以及其他導(dǎo)致不公正的深刻缺陷。預(yù)測性警務(wù)是指通過評估有關(guān)人員的數(shù)據(jù),例如他們的年齡、性別、婚姻狀況、藥物濫用史和犯罪記錄,預(yù)測其參與犯罪活動的可能性。

  洛杉磯警察局率先使用預(yù)測性警務(wù)技術(shù)公司開發(fā)的算法工具,紐約和芝加哥警察局隨后創(chuàng)建了一個“熱名單”,其中包含根據(jù)人口統(tǒng)計數(shù)據(jù)犯有槍支犯罪的“戰(zhàn)略主體”逮捕歷史和社交媒體細節(jié)。預(yù)測性警務(wù)工具的工作方式缺乏透明度,警察局普遍不愿意透露算法的工作原理。這使得這些算法成為“黑匣子”,無法被任何外部人士審計或評估。到2019年,該系統(tǒng)已為超過40萬人分配了“高風(fēng)險”評分,并被視為預(yù)防暴力犯罪的主要手段。預(yù)測性警務(wù)工具會產(chǎn)生嚴重的歧視性犯罪預(yù)測錯誤,據(jù)美國司法部2020年的數(shù)據(jù),非洲裔被警察在沒有正當(dāng)理由的情況下攔住的可能性是白人的5倍,被捕的可能性是其兩倍。美國的預(yù)測性警務(wù)工具使用種族作為預(yù)測因子,通過將警察派往他們以前監(jiān)管過的地方來復(fù)制和加劇警務(wù)中的偏見,增加了對非白人社區(qū)的過度監(jiān)管。既有數(shù)據(jù)集反映著現(xiàn)有的種族偏見,因此盡管這些技術(shù)被假定具有“客觀性”,甚至被認為有可能減輕其所取代的人類行為體的偏見,但其運作反而加劇了種族歧視。警察部門在少數(shù)族裔居民為主的貧困社區(qū)往往會更多使用預(yù)測性技術(shù)。預(yù)測性警務(wù)創(chuàng)造了“巨大的結(jié)構(gòu)性偏見”,通過包含種族歧視的算法,個別警官的偏見已被數(shù)據(jù)驅(qū)動的結(jié)構(gòu)性偏見所取代。

  數(shù)字技術(shù)增加刑事司法系統(tǒng)中的種族歧視

  新興數(shù)字技術(shù)延續(xù)和復(fù)制了刑事司法中的種族歧視性結(jié)構(gòu)。從預(yù)測性警務(wù)到預(yù)測累犯,執(zhí)法機構(gòu)和法院都在依賴算法工具,使長期存在的種族歧視更加固化,整體上削弱了少數(shù)族裔的人權(quán),并強化了他們在社會中遭受的結(jié)構(gòu)性壓迫。美國有幾個州在刑事司法程序的每一步都使用人工智能風(fēng)險評估工具。開發(fā)人員希望這些系統(tǒng)能夠提供客觀的、基于數(shù)據(jù)的司法結(jié)果,但是這些算法通常依賴的是存在缺陷、種族偏見甚至非法政策時期產(chǎn)生的數(shù)據(jù)。由于這些算法影響判決,它們侵犯了少數(shù)族裔獲得公平審判的權(quán)利以及免受任意逮捕和拘留的權(quán)利。這種風(fēng)險評估權(quán)衡的因素通常包括先前的逮捕和定罪記錄、父母的犯罪記錄、郵政編碼和所謂的“社區(qū)混亂”。這些因素反映的是在有色人種社區(qū)的過度監(jiān)管和執(zhí)法行為以及種族制度導(dǎo)致的更廣泛的社會經(jīng)濟劣勢模式,而不是目標人群的行為。換言之,數(shù)據(jù)更能預(yù)示被告所在社區(qū)的種族劣勢和警力分布,而不是其個人的行為。非洲裔被告被確定為未來暴力犯罪風(fēng)險較高者的概率比白人高出77%,預(yù)測未來可能犯下任何類型犯罪的可能性高出45%。

  預(yù)測累犯的工具也是同樣。在美國的系統(tǒng)中,嫌疑人被捕后通常會得到一個分數(shù),目的是預(yù)測他們未來犯罪的可能性。最常用的系統(tǒng)COMPAS提供的風(fēng)險評估評分被用在刑事司法程序的每個階段。一項調(diào)查顯示,該系統(tǒng)存在明顯的種族偏見,它錯誤地將非洲裔被告標記為未來的罪犯,這一比例幾乎是白人被告的兩倍。與此同時,白人被告則常被誤認為風(fēng)險較低。由于這些評分標準固有的偏見,犯罪嫌疑人即使無辜也會認罪的現(xiàn)象并不罕見。

  紐約城市大學(xué)教授杰西·丹尼斯一針見血地指出,數(shù)字技術(shù)的語言是美式英語,網(wǎng)絡(luò)技術(shù)中充滿了美國式的規(guī)范,賦予美國科技行業(yè)不成比例的經(jīng)濟和政治權(quán)力,并在各種類型的全球跨國公司中產(chǎn)生巨大影響力,通常反映了美國的帝國主義和白人至上主義的意識形態(tài)。普林斯頓大學(xué)教授魯哈·本杰明在《技術(shù)背后的種族:新吉姆守則的廢奴主義工具》中指出,算法黑箱將所謂的種族中立技術(shù)與法律和政策相聯(lián)系,成為白人至上主義的有力工具。美國應(yīng)正視自身種族歧視的系統(tǒng)性和結(jié)構(gòu)性缺陷,積極應(yīng)對數(shù)字技術(shù)帶來的治理挑戰(zhàn),采取迅速有效行動,防止和減少在新興數(shù)字技術(shù)使用和設(shè)計中產(chǎn)生種族歧視風(fēng)險,加強算法問責(zé)。

  (作者:唐穎俠,系南開大學(xué)人權(quán)研究中心副主任)

[責(zé)任編輯:黃曉迪]