男性機器人會性騷擾? 女性機器人可以模擬性高潮? Chat GPT 性別歧視? 谷歌僅30%為女性員工? 原來,自詡先進的科技業(yè),仍然深陷最古老的性別規(guī)訓之中。 人形機器人的“進化” 現(xiàn)在的機器人,已經進化到會性騷擾了? 前段時間,沙特阿拉伯制作的首個男性機器人“穆罕默德”,在一場媒體活動中,被指控“騷擾”女記者。 當時他突然伸手,試圖觸摸一位女記者的臀部。 女記者立馬轉過身來,打斷了他的動作。 沙特機器人“性騷擾”女記者 這段視頻在網上瘋傳。 制作公司出來回應,稱穆罕默德的行為是“完全自主的”,并且“沒有偏離預期行為”。 該公司還補充說,他們已通知所有與會者,包括記者,在“演示期間要與機器人保持安全距離”。 聽起來反倒更令人毛骨悚然了。 “機器人性騷擾”事件一方面引發(fā)了很多人的擔憂,因為這意味性別歧視已經被寫入了人工智能的數(shù)據(jù)庫。 另一方面,大家都產生了一個相同的困惑: 機器人為什么要有性別? 世界上第一個機器人公民“索菲亞” 這本身是個很有爭議的問題。 一些研究者認為給機器人賦予性別,可以使他們更具人類特征。 對機器人制造商來說,性別化的機器人一般更好賣,因為它更容易與消費者建立聯(lián)系。 換句話說,機器人越像人類,就越受歡迎。當然相似度也存在一個臨界點,一旦超過這個點,它會讓人感覺恐懼。 這就是所謂的“恐怖谷理論”,1970年由日本機器人專家森昌弘提出。 恐怖谷理論 而另一部分研究者則相信機器人性別化弊大于利。 理由是容易導致性別刻板印象。 事實上,在現(xiàn)有人形機器人的創(chuàng)造中,性別刻板印象問題尤其突出。 大量機器人延續(xù)了人類的性別分工。 比如進行舉重、體力勞動之類的機器人,總是男性機器人。 而女性機器人一般擔任服務類工作,比如接待、清潔打掃、護理等。 以日本為例,作為最愛研發(fā)人形機器人的國家之一,日本人形機器人可以說基本復刻了日本社會傳統(tǒng)的性別規(guī)范。 2014年,《日本人工智能學會》雜志曾引發(fā)過一場爭議。 原因是其封面畫著一位女性機器人,她拿著掃帚,看起來就像是正在做家務的家庭主婦。 當時有人質疑性別刻板印象太明顯,鬧到雜志出來道歉。 但這并不妨礙性別偏見在日本機器人身上繼續(xù)復現(xiàn)。 2015年,日本一家酒店前臺使用機器人,當然,全部是女性機器人。 日本酒店的女性機器人 同年,日本仿生機器人ERICA橫空出世。 她由日本“機器人之父”石黑浩團隊研發(fā),能和人自如對話,并且具有表情反應,被認為是當時“最接近人類的機器人”。 再看看ERICA的性別特征,她身高167CM,23歲,身材勻稱,五官精致完美,原型來自30位選美冠軍的照片。 ERICA與她的創(chuàng)造者石黑浩 在展會上亮相時,她穿著連衣裙,據(jù)說湊近還能聞到香水味。 由于ERICA鮮明的女性氣質,她被很多媒體誤讀為“妻子型機器人”。 聲稱她“除了生孩子,什么都能做”。 甚至還有自媒體造謠其“售價10萬,上市一小時遭瘋搶”。 圖源:網絡 但事實上,ERICA造價高昂,功能僅限對話交流,無法獨立行走,更無法下廚做家務,完全不是為宅男設計的“妻子”玩具。 可見,機器人一旦被賦予性別,即便其設計本身并不服務于傳統(tǒng)的性別敘事,但“她”大概率還是無法擺脫性別刻板印象,無法擺脫一廂情愿的男性幻想。 另一類充斥刻板印象的機器人,就是性愛機器人。 2010年,“世界上第一個性愛機器人”Roxxxy 誕生,性別依然為女。 性愛機器人Roxxxy Roxxxy可以對身體接觸做出反應,包括模擬性高潮。 性愛機器人的發(fā)明,引發(fā)了大量倫理爭議。 一方面這些機器人通常有著夸張的女性特征,甚至有些看起來像小女孩,人們擔心會加劇女性物化與性化。 另一方面,制造沒有“性同意”能力的性愛機器人,也被很多學者認為這是“放縱強奸幻想并促進強奸文化”。 想象賽博女人 其實早在機器人被制造出來之前,人們對機器人的想象就已充斥各類文本。 當然大部分想象總是賦予機器人性別特征,尤其是女性特征。 拿電影來說,第一個登上銀幕的機器人,就是一位女性機器人。 圖源:《大都會》 她出現(xiàn)在1927年德國導演弗里茨·朗的科幻電影《大都會》中。 制造她的人,是一位男性科學狂人,他將自己夢中情人瑪麗亞的臉,移植給一具金屬制成的女性身體。 于是機器人“瑪麗亞”正式登場。 圖源:《大都會》 人類女性瑪麗亞純真善良圣潔,機器人瑪麗亞是她的反面。不僅性感妖嬈放蕩,而且相當危險。 她蠱惑眾人,煽動暴亂,最終被燒死在火刑柱上。 仿佛中世紀的女巫。 學者許森指出,“當機器開始被視為惡魔般的、難以解釋的威脅,混亂與毀滅的征兆……作家們就開始把類人機器人想象成女性?!?/p> 一個投射男性欲望的女人,一個讓男人深感恐懼的女人。 這便是人工智能在電影中最原始的形態(tài)。 而它在后來的許多電影中都有延續(xù)發(fā)展。 比如電影《她》和《機械姬》。 其中的女性機器人同樣性感,同樣危險。 電影《她》中,男主西奧多和Ai薩曼莎日久生情,他以為“她”是獨屬于自己的完美情人,結果卻發(fā)現(xiàn)薩曼莎同時與8316個人交談,還和其中641人陷入熱戀。 圖源:《她》 雖然片中的Ai女主沒有實體,但她擁有斯嘉麗·約翰遜的性感聲音。 《機械姬》中的機器人伊娃,則利用男人對自己的感情,最終反殺創(chuàng)造和控制她的男性造物者,逃出生天。 圖源:《機械姬》 男人愛上女性機器人,卻遭到背叛的母題,幾十年來被反復書寫。 你會發(fā)現(xiàn),這些影片本質上討論的并不是機器人的問題,而是男人和女人的問題。 如《今日簡史》作者尤瓦爾·赫拉利所說,它反映的不是人類對機器人的恐懼,而是男性對聰明女性的恐懼。 除了危險的完美情人,另一分配給女性機器人的角色,就是完美情人。 性感尤物+賽博版田螺姑娘。 美麗溫柔順從且全能。 典型例子就是《銀翼殺手2049》中的AI女友Joi。 上得廳堂下得廚房,百分百情緒價值,唯一不足就是看得見摸不著。 但為了和男主親密接觸,Joi甚至可以投影到真實女性身體,以她人的身體和男主發(fā)生關系。 這類女性機器人,可以說完全作為男性欲望對象而存在。 她們滿足的,也只有男人的幻想。 圖源:《銀翼殺手2049》 1985年,美國著名學者唐娜·哈拉維曾發(fā)表重要的《賽博格宣言》,疾呼“寧做賽博格,不做女神”。 她認為賽博格能摧毀一切二元對立,顛覆性別界限,反抗父權。 但不管是從現(xiàn)實,還是從文藝想象來看,作為機器的女性形象,仍在物化和性化中苦苦掙扎。 圖源:《洗腦影像:性、鏡頭和權力》 科技領域的性別歧視 科技有性別歧視嗎? Tabi Jackson Gee和Freya Rose在《女性主義有什么用》中,斬釘截鐵地回答—— 有。 “因為它是由帶著固有偏見的男人和女人(主要是男人)創(chuàng)造的。” 科技產業(yè)曾是堅固的男性陣營,硅谷曾是臭名昭著的厭女天堂。 《看不見的女性》點明: 「在科技行業(yè),女性只占雇員的四分之一,占高管的11%;而美國一半以上的本科學位、一半的化學本科學位和近一半的數(shù)學本科學位都是由女性獲得的。超過40%的女性在科技公司工作10年后會離開,而男性只有17%?!?/p> 到了元宇宙崛起,AI爆發(fā)、科技改變生活的2024年。 女性處境有變更好嗎? 很遺憾,絕大多數(shù)科技公司中,女性員工仍然勞動力中占不到30%,如果限定在純技術崗位,那么比例還要更低。 2014年,Google公布員工性別比,女性占總勞動力的不到1/3。十年間企業(yè)瘋狂擴張,員工人數(shù)大幅上漲。 但性別比僅上漲了4%。 科技界的性別歧視,難以撼動,進步微弱。 谷歌員工數(shù)趨勢;谷歌性別比趨勢。圖源:Statista 物質世界充斥著不公。 建立在現(xiàn)實之上的造物,也呈現(xiàn)鏡像般的模擬。 除了能直觀呈現(xiàn)性別刻板印象的人形機器人,還有被很多實際應用的隱形偏見。 在AI圖像領域,人們對chat GPT試驗發(fā)現(xiàn): 以“董事長”“科學家”等關鍵詞生成圖片時,出現(xiàn)的幾乎全是男性。 而護士、老師等詞語,生成的大多是女性。 《How artificial intelligence reinforces gender bias》;FRANCE 24 谷歌翻譯也存在著類似問題,當網友以不具備性別指向的語言進行翻譯時—— “ta是醫(yī)生”被翻譯為“他”。 “ta是護士”則自動被判斷為“她”。 這么說來,ai在歧視女性方面確實很智能。 生活中,人們使用的語音導航是女性的聲音,電子設備上的智能助手皆為女性的人設。 面對“你是個蕩婦”的辱罵,蘋果公司曾為siri設置“如果我能,我會臉紅”這樣的回答。 “她們”是百依百順的服務者、人造的田螺姑娘,模糊著現(xiàn)實與賽博的界限。 性別的操演不止如此。 亞馬遜的招聘系統(tǒng)曾挑選出女性的簡歷,打上更低的評分。 圖源:Reuters 設定為19歲女孩的微軟聊天助手Tay,被厭女、右傾用戶惡意灌輸資料,于是學會了發(fā)布恐怖主義、性別歧視言論。上線一天就被緊急下架。 圖源:Twitter 2023年,經過上百張照片測試,衛(wèi)報記者發(fā)現(xiàn),AI會認為女性的裸露照片比男性更具備性暗示。 僅僅孕婦露出肚子,也被認定含有色情內容。而光膀子的男性,卻不被識別出風險。 負責圖片識別的AI,具備人類一般的雙重標準。如果投入使用,女性的空間會更加狹窄。 圖源:The Guardian 遺憾的是,人們本對科技有著積極的想象。 1994年英國哲學家Sadie Plant創(chuàng)造了“網絡女權主義”一詞。后來Donna Haraway完善 理論,認為生化電子人能解決人類的性別傾軋。 人工智能被賦予了“技術中立”的期待。 但在巴蒂亞·弗萊德曼(Batya Friedman)和海倫·尼森鮑姆(Helen Nissenbaum)的理論中,三種計算偏見類型十分普遍:先行偏見、技術偏見和浮現(xiàn)偏見。 如今也越來越多案例表明,技術在實際應用中可能通過算法將偏見自動化。 圖源:公眾號@聯(lián)合國 數(shù)字性別鴻溝越來越大。 格子衫成為碼農的代稱,程序員代表的都是男人。女性的聰明、邏輯、理性不被承認,面臨貶抑。如果一位女性出現(xiàn)在編程領域,那么等待她的可能是“程序媛”的污名。 而賽博空間里,女性依舊被消費、被凝視、被形塑,這是現(xiàn)實觀念的鏡子。 技術誠然中立、高效、相對客觀。 但再精密的算法仍躲不過名為“偏見”的病毒程序。 缺少女性視角的產物,注定忽視這一半人類,以及更多群體的需求與感受。 2014年,蘋果公司推出健康檢測系統(tǒng),全面到可以追蹤人體銅和鉬的攝入量,卻無法記錄月經周期。直到2019年,電子產品中才有關于月經的emoji表情。 圖源:emoji 眾多生物研究,智能醫(yī)療的開發(fā)忽略女性的生物數(shù)據(jù),導致診斷風險加劇。 科技不可避免地成為特權的工具。女性、有色族裔等邊緣人士更加不可見。 《How artificial intelligence reinforces gender bias》;FRANCE 24 無論他們如何不斷創(chuàng)造新名詞,販賣新概念,強調科技是未來。 但我們可以看清,這個美好未來里目前不包括女性。 AI當然可能會創(chuàng)造一個更好的世界。 但前提是,還需要更多女性科學家,或者說更多更具性別平等意識的人類的參與。 |
|