近年來,,利用算法進行AI招聘已成為職場中的一大新熱點,,如何規(guī)避AI算法可能帶來的歧視問題成為保障就業(yè)公平面臨的一個新問題,。近日,,在上海市政協(xié)的一場重點提案督辦專題調研暨辦理推進會上,,監(jiān)管部門,、行業(yè)專家以及業(yè)內人士表示,防范AI就業(yè)歧視,,需要加強對算法濫用的監(jiān)管,、強化技術手段,多方面共同努力消除隱藏在算法背后的歧視,。(9月12日《工人日報》)
當前,,我國互聯(lián)網招聘平臺快速發(fā)展。數(shù)據(jù)顯示,,一些頭部平臺累計服務求職者已超過1億人次,,求職有效簡歷數(shù)超過1.5億份,認證企業(yè)接近1000萬家,。利用人工智能技術進行簡歷篩選和人力資源開發(fā)正在成為招聘領域發(fā)展趨勢,,多家招聘平臺紛紛探索通過AI算法為數(shù)據(jù)賦能,。
與傳統(tǒng)人力招聘相比,AI招聘可以大大提升人力資源開發(fā)效能,,更好地對應聘者能力與崗位需求進行匹配,。不過,任何技術都是把雙刃劍,。從理論上講,,AI招聘可以避免人為因素干擾,更加公平公正,,但在實際操作中,,倘若算法設置不夠科學,反而會在客觀上造成“算法歧視”,,影響就業(yè)公平,。更有甚者,一些人可以通過編輯算法,,將對求職者的偏見和歧視巧妙地植入AI招聘中,,從而逃避就業(yè)歧視責任,讓系統(tǒng)背鍋,。
這種擔心并非多余,。事實上,在人工智能發(fā)展歷程中,,“性別歧視”已經不是一個新詞,。2014年,美國亞馬遜公司開發(fā)了用于簡歷篩選的人工智能程序,,發(fā)現(xiàn)該系統(tǒng)存在“性別歧視”,,通常將男性的簡歷視為更合適的候選人。最終,,亞馬遜解散了該開發(fā)團隊,,棄用了這個模型。事后進一步查實,,該系統(tǒng)選取了10年間的5萬個簡歷,,對涉及的關鍵詞按重要程度進行排序,這些簡歷中大部分求職者為男性,,導致AI誤以為沒有這類關鍵詞的女性簡歷不那么重要,。
避免AI招聘夾帶歧視“私貨”,首先要強化技術手段,,確保算法公正,。近年來,國家網信辦等部門先后出臺了《互聯(lián)網信息服務算法推薦管理規(guī)定》《關于加強互聯(lián)網信息服務算法綜合治理的指導意見》,持續(xù)開展企業(yè)算法排查整治專項行動,?!吨笇б庖姟芬螅⑺惴▊浒钢贫?,梳理算法備案基本情況,,健全算法分級分類體系,明確算法備案范圍,,有序開展備案工作,;組織建立專業(yè)技術評估隊伍,深入分析算法機制機理,,評估算法設計,、部署和使用等應用環(huán)節(jié)的缺陷和漏洞,,研判算法應用產生的意識形態(tài),、社會公平、道德倫理等安全風險,,提出針對性應對措施,。
有關部門應盡快構建算法安全風險監(jiān)測、算法安全評估,、科技倫理審查,、算法備案管理和涉算法違法違規(guī)行為處置等多維一體的監(jiān)管體系,進一步規(guī)范算法生態(tài),,確保導向正確,、公平公正。
其次,,加強執(zhí)法監(jiān)管,,提高違法成本。AI招聘歧視具有一定隱蔽性,,有關部門必須加強監(jiān)管,,打消一些企業(yè)的僥幸心理。前不久美國首起AI招聘歧視案中,,我國在線教育機構麥奇教育科技與美國平等就業(yè)機會委員會達成和解,。麥奇教育科技因招聘軟件算法會自動拒絕55歲以上的女性和60歲以上的男性求職者,被判賠36.5萬美元,,用于補償被拒的應聘者,。反觀國內,有關部門也應加大線上執(zhí)法檢查力度,,對于涉嫌就業(yè)歧視的企業(yè)予以依法處罰,,營造風清氣正的AI招聘環(huán)境。
(編輯:月兒)
