黄色片网站免费观看-黄色片网站观看-黄色片网站大全-黄色片视频网-色偷偷网址-色偷偷网站

您的位置首頁  兩性生理健康

警惕算法潛藏歧視風(fēng)險

  • 來源:互聯(lián)網(wǎng)
  • |
  • 2019-06-24
  • |
  • 0 條評論
  • |
  • |
  • T小字 T大字
原標(biāo)題:警惕算法潛藏歧視風(fēng)險

當(dāng)你搜索關(guān)鍵詞時,搜索引擎會計算該向你顯示哪些搜索結(jié)果;當(dāng)你登錄視頻網(wǎng)站時,某些系統(tǒng)會推薦一些你喜歡的節(jié)目;新聞類App會利用算法決定向你更新哪些信息。顯然,我們生活在一個算法的時代,算法為人們的日常學(xué)習(xí)、生活和工作提供了極大便利。但需要警惕的是,算法并非完美無缺——它不僅可能出錯,甚至還會產(chǎn)生嚴(yán)重的歧視問題。

算法歧視無處不在

算法就是一系列指令,告訴計算機(jī)該做什么。作為一種數(shù)學(xué)理性的運(yùn)用,人們原本期待算法能夠絕對客觀,但算法歧視的現(xiàn)象卻出人意料地頻頻出現(xiàn)。

算法歧視突出表現(xiàn)為以下幾類:其一,價格歧視。例如,早在2000年,某網(wǎng)站就曾經(jīng)搞過算法“殺熟”,同一款DVD碟片,對老用戶報價26.24美元,對新用戶僅報價22.74美元。近年來,我國一些網(wǎng)購平臺利用大數(shù)據(jù)“殺熟”的現(xiàn)象也是屢見不鮮。其二,性別歧視。例如,某網(wǎng)站研發(fā)了一套篩選簡歷的算法系統(tǒng),結(jié)果顯示其對男性求職者有著明顯的偏好,女性求職者的簡歷常常分?jǐn)?shù)不高。其三,種族歧視。例如,某國外著名網(wǎng)站上的高薪工作廣告更多地向白人顯示;智能照相機(jī)在照相時不停提醒亞裔睜開眼睛等。此外,基于宗教信仰、經(jīng)濟(jì)狀況、外貌等形式的算法歧視也廣泛存在。

相較于人類歧視,算法歧視有其特殊一面。其一,算法歧視更加精準(zhǔn)。算法能夠?qū)γ總用戶精準(zhǔn)畫像,被打上歧視標(biāo)簽的用戶絕無逃脫可能。其二,算法歧視更加多元。人類歧視通常依據(jù)的是性別、學(xué)歷等顯形特征,但算法能夠挖掘出更加深層次的隱形特征來作為其歧視處理的依據(jù),包括網(wǎng)頁瀏覽記錄、購物記錄、行車路線等。其三,算法歧視更為片面。人類社會對于個體的判斷通常是綜合和動態(tài)的,而算法無法獲取或處理用戶的全部數(shù)據(jù)。其四,算法歧視更加隱蔽。傳統(tǒng)基于種族、性別、民族等特征的歧視是法律所禁止的,但算法卻可以規(guī)避這些規(guī)定。

算法歧視的原因剖析

數(shù)據(jù)是人工智能的養(yǎng)料,歧視性數(shù)據(jù)必然會產(chǎn)生歧視性結(jié)果。例如,2016年,某國外公司的AI聊天機(jī)器人上線,但在和網(wǎng)民聊天時卻被灌輸了許多臟話以及各種歧視的思想,結(jié)果迅速成為一名“不良少女”,上線不到一天就被迫下線。與此同時,不完整、不正確或不及時的數(shù)據(jù)也會產(chǎn)生算法歧視。例如,2016年舉行的首屆“AI國際選美比賽”,由于算法訓(xùn)練的照片沒有包含足夠多的非白人面孔,結(jié)果導(dǎo)致絕大多數(shù)獲獎?wù)叨际前兹诉x手。

算法本身存在缺陷或瑕疵也會引發(fā)歧視。算法決策總是需要設(shè)定某些變量或指標(biāo),而這些都是人為設(shè)定的,不排除摻入歧視的可能。例如,很多國際互聯(lián)網(wǎng)巨頭的男性雇員占了2/3,技術(shù)崗位的比例更是高達(dá)4/5,這使得算法設(shè)計的過程中難免會摻入性別歧視的因子。與此同時,盡管算法是應(yīng)對復(fù)雜工作的利器,但在其輸入層與輸出層之間卻存在“黑箱”,這加劇了算法歧視的復(fù)雜性。此外,算法本質(zhì)上是一種分析、預(yù)測的數(shù)學(xué)技術(shù),強(qiáng)調(diào)的是相關(guān)性,而非因果性,這決定了算法本身存在歧視的基因。

此外,算法作為人類利用的工具,縱使輸入的數(shù)據(jù)和算法技術(shù)本身都沒有問題,仍然存在歧視的可能。例如,算法能夠清晰地區(qū)分出消費(fèi)能力強(qiáng)、忠誠度高的老客戶群體,但企業(yè)完全可能將之作為殺熟的依據(jù),而非促銷讓利的參考。

算法歧視的治理之道

首先,完善算法的法律規(guī)制。一方面,規(guī)范算法利用的范圍、方式和限度。對于算法歧視,既要從公法層面嚴(yán)厲制裁濫用算法的企業(yè)等主體,也可以考慮在私法層面引入大規(guī)模侵權(quán)規(guī)則和懲罰性賠償規(guī)則。與此同時,對于高度敏感的數(shù)據(jù)應(yīng)當(dāng)禁止算法處理,包括種族、民族、宗教信仰等。另一方面,要賦予用戶更多的權(quán)利。用戶可以通過被遺忘權(quán)來刪除過時的數(shù)據(jù),通過更正權(quán)來補(bǔ)充或更改錯誤或不完整的數(shù)據(jù)。還應(yīng)參照歐盟《一般數(shù)據(jù)保護(hù)法》的規(guī)定,賦予用戶拒絕權(quán)和解釋權(quán),即如果用戶認(rèn)為算法的自動化決策存在歧視,那么其有權(quán)拒絕接受處理結(jié)果。

其次,重視算法的技術(shù)規(guī)制。面對日新月異的人工智能技術(shù),依靠單一的法律規(guī)則來應(yīng)對算法歧視是難以奏效的。對此,建議引入算法的倫理設(shè)計,從一開始就將算法透明、算法可解釋、算法問責(zé)、算法審計等價值需求嵌入算法的設(shè)計當(dāng)中。相較于法律的事后救濟(jì),算法的倫理設(shè)計更強(qiáng)調(diào)預(yù)防的重要性,要求設(shè)計者在算法的設(shè)計階段遵守禁止歧視的法律和倫理規(guī)則,并通過自然語言將法律語言嵌入到算法的全生命運(yùn)行周期中。

最后,探索算法規(guī)制的市場路徑。傳統(tǒng)理論認(rèn)為,算法公平與企業(yè)的營利目標(biāo)是沖突的,企業(yè)沒有動力推動算法公平的實(shí)現(xiàn)。然而,隨著用戶對于算法公平的需求越來越強(qiáng)烈,市場將會淘汰那些濫用算法的企業(yè)。對此,企業(yè)可以通過發(fā)布透明度報告等方式來公布算法公平指數(shù),以贏得用戶信任。此外,公權(quán)力機(jī)關(guān)通過投資和采購的方式,也可以引導(dǎo)企業(yè)提高算法公平指數(shù),減少算法歧視的發(fā)生。

(作者:鄭志峰,系西南政法大學(xué)民商法學(xué)院講師)

免責(zé)聲明:本站所有信息均搜集自互聯(lián)網(wǎng),并不代表本站觀點(diǎn),本站不對其真實(shí)合法性負(fù)責(zé)。如有信息侵犯了您的權(quán)益,請告知,本站將立刻處理。聯(lián)系QQ:1640731186
友薦云推薦