當聽到類似“蕩婦”等侮辱性言論時,人類或者反擊、或者沉默。 但在人工智能語音助手的世界,蘋果的Siri會說“I‘d blush if I could”(如果我能,我會臉紅);亞馬遜的Alexa說“謝謝你的反饋”;谷歌語音助手說“我不明白”......如果你對它們進一步提出更“露骨”的要求時,它們也鮮有直接拒絕的。(目前這些都已作修正) 近日,聯(lián)合國教科文組織發(fā)表了一份長達145頁的題為《如果我能,我會臉紅》的報告(以下簡稱報告),批評目前大多數(shù)AI語音助手中存在性別偏見,“因為它們幾乎都有著女性的名字和聲音,并被設(shè)置成千篇一律的、順從的女性形象。” AI強化性別偏見 報告中一份對4家公司的語音助手的調(diào)查顯示,當聽到用戶的性騷擾言論時,語音助手的回應往往模糊且溫順。幾乎沒有語音助手給出否定回答,或是將用戶的言論標記為不合適。 “這就發(fā)出了一個信號,暗示女性是樂于助人、溫順、取悅他人的,用戶只需按下按鈕,發(fā)出生硬的語音命令就可以了?!眻蟾嬲J為。 聯(lián)合國教科文組織性別平等部門負責人珂拉特表示,這種強行設(shè)定的服從形象,會影響人們與女性聲音交流的方式,以及女性面對他人要求時的回應模式。 這也就意味著,“女性”AI可能強化人類社會的性別偏見。 事實上,早在1964年,聊天機器人Eliza的語音助理的預設(shè)聲音為女聲。目前,除了Siri、Cortana等,國內(nèi)領(lǐng)先的智能語音助手同樣存在此類現(xiàn)象,比如百度的“小度”、阿里的“天貓精靈”和小米的“小愛同學”等。 中國科學院自動化研究所研究員、北京智源人工智能研究院人工智能倫理與安全研究中心主任曾毅告訴《中國科學報》,AI語音助手中性別偏見的問題并不是由算法本身造成的,而是產(chǎn)品設(shè)計者的選擇,直接反應了人類自身的傾向。 盡管現(xiàn)代性別觀念中倡導“男女平等”,但現(xiàn)實社會依然普遍對女性有著刻板印象,即通常認為女性是溫和順從的,有足夠的耐心和理解力。 曾毅說,“人工智能產(chǎn)品研發(fā)者的最初動機可能來自所謂的‘大多數(shù)用戶的偏好’,但在無形中卻造成了性別偏見,而AI無非是對數(shù)據(jù)特征和屬性的學習。實際上目前的AI模型與技術(shù)仍然很難像人一樣理解‘偏見’的真正意義及其后果。” 看來,人工智能已經(jīng)學會了人類“性別歧視”那一套,而這種偏見在其他領(lǐng)域中也得以充分“展現(xiàn)”。 比如,亞馬遜基于人工智能技術(shù)的簡歷篩選與招聘系統(tǒng)“自己學會”優(yōu)選男性求職者,而女性簡歷會被自動減掉分數(shù),該項目已在去年被迫關(guān)停;職業(yè)平臺LinkedIn通過復雜的人工智能算法向用戶推薦工作時,多為男性求職者推薦高收入職業(yè),而很少向女性推薦高收入職業(yè)等。 “此類人工智能系統(tǒng)的應用不但不能推進人類的福祉,而且直接對人類造成了傷害,在人工智能產(chǎn)品與服務(wù)的發(fā)展中應當被糾正的。”曾毅表示。 AI開發(fā)者性別失衡或致“偏見”產(chǎn)生 報告認為,產(chǎn)品開發(fā)者嚴重的性別比例失衡是產(chǎn)生“偏見”的一個原因。 一項國內(nèi)調(diào)查發(fā)現(xiàn),中國程序員群體的男女比例近12:1。上述報告也提到,在人工智能開發(fā)人員中,僅12%是女性;軟件開發(fā)人員中的女性比例低至6%;信息通信技術(shù)專利申請人中的男女性別比例為13:1。 “傳統(tǒng)的性別社會化教育形成了這樣一個大體的社會分工,使得AI、計算機領(lǐng)域多以男性為主導?!比斯ぶ悄芘c新媒介技術(shù)與文化研究專家、北京大學教授吳靖表示。 |
|