越來越多的高技術(shù)產(chǎn)業(yè)和數(shù)字服務(wù)都以人工智能和機(jī)器學(xué)習(xí)為基礎(chǔ),。但是,,我們必須看到:人類社會存在的偏見和歧視也會被復(fù)制到人工智能系統(tǒng)中。因此,,我們應(yīng)對人工智能的整個程序進(jìn)行監(jiān)管,,包括信息輸入輸出、數(shù)據(jù)、算法,、模型等,,以克服偏見與歧視在人工智能領(lǐng)域的延續(xù)。
在人工智能問題上,,有個所謂 “黑盒子”的問題,,即我們不能看到程序算法的內(nèi)部,因此無法理解人工智能是如何做出決策的,。如果沒有解決好這個問題,,一些涉嫌歧視的數(shù)據(jù)將被算法永久性地編碼進(jìn)人工智能程序中,從而影響未來人類與人工智能的關(guān)系,。不過,,僅靠純粹的技術(shù)手段,很難實現(xiàn)對人工智能的每個階段實現(xiàn)無漏洞監(jiān)控,,同時還需通過人工評估和干預(yù),,才能確保偏見和歧視被徹底消除。
要消除人工智能潛在的歧視問題,,第一步是打開算法“黑匣子”,。出于專利保護(hù)和商業(yè)機(jī)密的考慮,許多公司的人工智能程序算法都處于保密狀態(tài),。不過,,這一狀況正得到改變,目前人工智能領(lǐng)域正在加快代碼的開源,,制定新的透明度標(biāo)準(zhǔn),,來提高人工智能產(chǎn)品的可靠性。AI NOW是美國紐約大學(xué)一個倡導(dǎo)算法公平的非營利組織,,它提倡 “程序員必須對算法得出的結(jié)論做出解釋,否則就不能投入使用”,。
目前,,相當(dāng)一部分互聯(lián)網(wǎng)巨頭開始正視這一點。如谷歌開發(fā)的幾個人工智能項目,,程序員為機(jī)器學(xué)習(xí)增加了手動限制,,使輸出的信息更準(zhǔn)確,可理解性更高,。美國國防部高級研究計劃局還資助了一項名為XAI(可解釋的人工智能)的計劃,,旨在打開人工智能的 “黑匣子”,以保證用戶更好地控制人工智能程序,。微軟首席執(zhí)行官薩蒂亞·納德拉也認(rèn)可 “算法問責(zé)制”的必要性,。
但通過打開算法 “黑匣子”,制定法規(guī)和政策來確保消除人工智能的偏見和歧視,,這還遠(yuǎn)遠(yuǎn)不夠,。因為偏見與歧視不光存在于算法中,,還存在于人工智能得出的結(jié)論、預(yù)測和建議中,。
以虛擬助手為例,,處理比較簡單的任務(wù)時,人工智能系統(tǒng)會偏向使用女聲(例如Apple的Siri和亞馬遜的Alexa),;而解決疑難問題時,,系統(tǒng)則選用男聲(例如IBM的Watson和微軟的愛因斯坦)。由于在人工智能行業(yè)女性從業(yè)人數(shù)偏少,,這更是增加了性別歧視的可能性,。
鑒于此,我們應(yīng)加強(qiáng)對人工智能所使用的數(shù)據(jù),、算法以及模型的評估,,以剔除潛在的可導(dǎo)致偏見與歧視的因素,并且加強(qiáng)程序員的 “算法問責(zé)制”,,這樣才能提高人工智能產(chǎn)品的可靠性,,最終建立起人機(jī)信任。
(作者:伊麗莎白·艾塞萊 英國皇家國際事務(wù)研究所,;上海全球治理與區(qū)域國別研究院 劉琳 編譯)
(編輯:紅研)
(編輯:紅研)
