午夜视频在线网站,日韩视频精品在线,中文字幕精品一区二区三区在线,在线播放精品,1024你懂我懂的旧版人,欧美日韩一级黄色片,一区二区三区在线观看视频

分享

第一批智能AI,已經學會性騷擾了

 她刊 2024-05-02 發(fā)布于山東

男性機器人會性騷擾?

女性機器人可以模擬性高潮?

Chat GPT 性別歧視?

谷歌僅30%為女性員工?

原來,自詡先進的科技業(yè),仍然深陷最古老的性別規(guī)訓之中。

人形機器人的“進化”

現(xiàn)在的機器人,已經進化到會性騷擾了?

前段時間,沙特阿拉伯制作的首個男性機器人“穆罕默德”,在一場媒體活動中,被指控“騷擾”女記者。

當時他突然伸手,試圖觸摸一位女記者的臀部。

女記者立馬轉過身來,打斷了他的動作。

沙特機器人“性騷擾”女記者

這段視頻在網上瘋傳。

制作公司出來回應,稱穆罕默德的行為是“完全自主的”,并且“沒有偏離預期行為”。

該公司還補充說,他們已通知所有與會者,包括記者,在“演示期間要與機器人保持安全距離”。

聽起來反倒更令人毛骨悚然了。

“機器人性騷擾”事件一方面引發(fā)了很多人的擔憂,因為這意味性別歧視已經被寫入了人工智能的數(shù)據(jù)庫。

另一方面,大家都產生了一個相同的困惑:

機器人為什么要有性別?

世界上第一個機器人公民“索菲亞”

這本身是個很有爭議的問題。

一些研究者認為給機器人賦予性別,可以使他們更具人類特征。

對機器人制造商來說,性別化的機器人一般更好賣,因為它更容易與消費者建立聯(lián)系。

換句話說,機器人越像人類,就越受歡迎。當然相似度也存在一個臨界點,一旦超過這個點,它會讓人感覺恐懼。

這就是所謂的“恐怖谷理論”,1970年由日本機器人專家森昌弘提出。

恐怖谷理論

而另一部分研究者則相信機器人性別化弊大于利。

理由是容易導致性別刻板印象。

事實上,在現(xiàn)有人形機器人的創(chuàng)造中,性別刻板印象問題尤其突出。

大量機器人延續(xù)了人類的性別分工。

比如進行舉重、體力勞動之類的機器人,總是男性機器人。

而女性機器人一般擔任服務類工作,比如接待、清潔打掃、護理等。

以日本為例,作為最愛研發(fā)人形機器人的國家之一,日本人形機器人可以說基本復刻了日本社會傳統(tǒng)的性別規(guī)范。

2014年,《日本人工智能學會》雜志曾引發(fā)過一場爭議。

原因是其封面畫著一位女性機器人,她拿著掃帚,看起來就像是正在做家務的家庭主婦。

當時有人質疑性別刻板印象太明顯,鬧到雜志出來道歉。

但這并不妨礙性別偏見在日本機器人身上繼續(xù)復現(xiàn)。

2015年,日本一家酒店前臺使用機器人,當然,全部是女性機器人。

日本酒店的女性機器人

同年,日本仿生機器人ERICA橫空出世。

她由日本“機器人之父”石黑浩團隊研發(fā),能和人自如對話,并且具有表情反應,被認為是當時“最接近人類的機器人”。

再看看ERICA的性別特征,她身高167CM,23歲,身材勻稱,五官精致完美,原型來自30位選美冠軍的照片。

ERICA與她的創(chuàng)造者石黑浩

在展會上亮相時,她穿著連衣裙,據(jù)說湊近還能聞到香水味。

由于ERICA鮮明的女性氣質,她被很多媒體誤讀為“妻子型機器人”。

聲稱她“除了生孩子,什么都能做”

甚至還有自媒體造謠其“售價10萬,上市一小時遭瘋搶”。

圖源:網絡

但事實上,ERICA造價高昂,功能僅限對話交流,無法獨立行走,更無法下廚做家務,完全不是為宅男設計的“妻子”玩具。

可見,機器人一旦被賦予性別,即便其設計本身并不服務于傳統(tǒng)的性別敘事,但“她”大概率還是無法擺脫性別刻板印象,無法擺脫一廂情愿的男性幻想。

另一類充斥刻板印象的機器人,就是性愛機器人。

2010年,“世界上第一個性愛機器人”Roxxxy 誕生,性別依然為女。

性愛機器人Roxxxy

Roxxxy可以對身體接觸做出反應,包括模擬性高潮。

性愛機器人的發(fā)明,引發(fā)了大量倫理爭議。

一方面這些機器人通常有著夸張的女性特征,甚至有些看起來像小女孩,人們擔心會加劇女性物化與性化。

另一方面,制造沒有“性同意”能力的性愛機器人,也被很多學者認為這是“放縱強奸幻想并促進強奸文化”。

想象賽博女人

其實早在機器人被制造出來之前,人們對機器人的想象就已充斥各類文本。

當然大部分想象總是賦予機器人性別特征,尤其是女性特征。

拿電影來說,第一個登上銀幕的機器人,就是一位女性機器人。

圖源:《大都會》

她出現(xiàn)在1927年德國導演弗里茨·朗的科幻電影《大都會》中。

制造她的人,是一位男性科學狂人,他將自己夢中情人瑪麗亞的臉,移植給一具金屬制成的女性身體。

于是機器人“瑪麗亞”正式登場。

圖源:《大都會》

人類女性瑪麗亞純真善良圣潔,機器人瑪麗亞是她的反面。不僅性感妖嬈放蕩,而且相當危險。

她蠱惑眾人,煽動暴亂,最終被燒死在火刑柱上。

仿佛中世紀的女巫。

學者許森指出,“當機器開始被視為惡魔般的、難以解釋的威脅,混亂與毀滅的征兆……作家們就開始把類人機器人想象成女性?!?/p>

一個投射男性欲望的女人,一個讓男人深感恐懼的女人。

這便是人工智能在電影中最原始的形態(tài)。

而它在后來的許多電影中都有延續(xù)發(fā)展。

比如電影《她》和《機械姬》。

其中的女性機器人同樣性感,同樣危險。

電影《她》中,男主西奧多和Ai薩曼莎日久生情,他以為“她”是獨屬于自己的完美情人,結果卻發(fā)現(xiàn)薩曼莎同時與8316個人交談,還和其中641人陷入熱戀。

圖源:《她》

雖然片中的Ai女主沒有實體,但她擁有斯嘉麗·約翰遜的性感聲音。

《機械姬》中的機器人伊娃,則利用男人對自己的感情,最終反殺創(chuàng)造和控制她的男性造物者,逃出生天。

圖源:《機械姬》

男人愛上女性機器人,卻遭到背叛的母題,幾十年來被反復書寫。

你會發(fā)現(xiàn),這些影片本質上討論的并不是機器人的問題,而是男人和女人的問題。

如《今日簡史》作者尤瓦爾·赫拉利所說,它反映的不是人類對機器人的恐懼,而是男性對聰明女性的恐懼。

除了危險的完美情人,另一分配給女性機器人的角色,就是完美情人。

性感尤物+賽博版田螺姑娘。

美麗溫柔順從且全能。

典型例子就是《銀翼殺手2049》中的AI女友Joi。

上得廳堂下得廚房,百分百情緒價值,唯一不足就是看得見摸不著。

但為了和男主親密接觸,Joi甚至可以投影到真實女性身體,以她人的身體和男主發(fā)生關系。

這類女性機器人,可以說完全作為男性欲望對象而存在。

她們滿足的,也只有男人的幻想。

圖源:《銀翼殺手2049》

1985年,美國著名學者唐娜·哈拉維曾發(fā)表重要的《賽博格宣言》,疾呼“寧做賽博格,不做女神”。

她認為賽博格能摧毀一切二元對立,顛覆性別界限,反抗父權。

但不管是從現(xiàn)實,還是從文藝想象來看,作為機器的女性形象,仍在物化和性化中苦苦掙扎。

圖源:《洗腦影像:性、鏡頭和權力》

科技領域的性別歧視

科技有性別歧視嗎?

Tabi Jackson Gee和Freya Rose在《女性主義有什么用》中,斬釘截鐵地回答——

有。

“因為它是由帶著固有偏見的男人和女人(主要是男人)創(chuàng)造的。”

科技產業(yè)曾是堅固的男性陣營,硅谷曾是臭名昭著的厭女天堂。

《看不見的女性》點明:

「在科技行業(yè),女性只占雇員的四分之一,占高管的11%;而美國一半以上的本科學位、一半的化學本科學位和近一半的數(shù)學本科學位都是由女性獲得的。超過40%的女性在科技公司工作10年后會離開,而男性只有17%?!?/p>

到了元宇宙崛起,AI爆發(fā)、科技改變生活的2024年。

女性處境有變更好嗎?

很遺憾,絕大多數(shù)科技公司中,女性員工仍然勞動力中占不到30%,如果限定在純技術崗位,那么比例還要更低。

2014年,Google公布員工性別比,女性占總勞動力的不到1/3。十年間企業(yè)瘋狂擴張,員工人數(shù)大幅上漲。

但性別比僅上漲了4%。

科技界的性別歧視,難以撼動,進步微弱。

谷歌員工數(shù)趨勢;谷歌性別比趨勢。圖源:Statista

物質世界充斥著不公。

建立在現(xiàn)實之上的造物,也呈現(xiàn)鏡像般的模擬。

除了能直觀呈現(xiàn)性別刻板印象的人形機器人,還有被很多實際應用的隱形偏見。

在AI圖像領域,人們對chat GPT試驗發(fā)現(xiàn):

以“董事長”“科學家”等關鍵詞生成圖片時,出現(xiàn)的幾乎全是男性。

而護士、老師等詞語,生成的大多是女性。

《How artificial intelligence reinforces gender bias》;FRANCE 24

谷歌翻譯也存在著類似問題,當網友以不具備性別指向的語言進行翻譯時——

“ta是醫(yī)生”被翻譯為“他”。

“ta是護士”則自動被判斷為“她”。

這么說來,ai在歧視女性方面確實很智能。

生活中,人們使用的語音導航是女性的聲音,電子設備上的智能助手皆為女性的人設。

面對“你是個蕩婦”的辱罵,蘋果公司曾為siri設置“如果我能,我會臉紅”這樣的回答。

“她們”是百依百順的服務者、人造的田螺姑娘,模糊著現(xiàn)實與賽博的界限。

性別的操演不止如此。

亞馬遜的招聘系統(tǒng)曾挑選出女性的簡歷,打上更低的評分。

圖源:Reuters

設定為19歲女孩的微軟聊天助手Tay,被厭女、右傾用戶惡意灌輸資料,于是學會了發(fā)布恐怖主義、性別歧視言論。上線一天就被緊急下架。

圖源:Twitter

2023年,經過上百張照片測試,衛(wèi)報記者發(fā)現(xiàn),AI會認為女性的裸露照片比男性更具備性暗示。

僅僅孕婦露出肚子,也被認定含有色情內容。而光膀子的男性,卻不被識別出風險。

負責圖片識別的AI,具備人類一般的雙重標準。如果投入使用,女性的空間會更加狹窄。

圖源:The Guardian

遺憾的是,人們本對科技有著積極的想象。

1994年英國哲學家Sadie Plant創(chuàng)造了“網絡女權主義”一詞。后來Donna Haraway完善 理論,認為生化電子人能解決人類的性別傾軋。

人工智能被賦予了“技術中立”的期待。

但在巴蒂亞·弗萊德曼(Batya Friedman)和海倫·尼森鮑姆(Helen Nissenbaum)的理論中,三種計算偏見類型十分普遍:先行偏見、技術偏見和浮現(xiàn)偏見。

如今也越來越多案例表明,技術在實際應用中可能通過算法將偏見自動化。

圖源:公眾號@聯(lián)合國

數(shù)字性別鴻溝越來越大。

格子衫成為碼農的代稱,程序員代表的都是男人。女性的聰明、邏輯、理性不被承認,面臨貶抑。如果一位女性出現(xiàn)在編程領域,那么等待她的可能是“程序媛”的污名。

而賽博空間里,女性依舊被消費、被凝視、被形塑,這是現(xiàn)實觀念的鏡子。

技術誠然中立、高效、相對客觀。

但再精密的算法仍躲不過名為“偏見”的病毒程序。

缺少女性視角的產物,注定忽視這一半人類,以及更多群體的需求與感受。

2014年,蘋果公司推出健康檢測系統(tǒng),全面到可以追蹤人體銅和鉬的攝入量,卻無法記錄月經周期。直到2019年,電子產品中才有關于月經的emoji表情。

圖源:emoji

眾多生物研究,智能醫(yī)療的開發(fā)忽略女性的生物數(shù)據(jù),導致診斷風險加劇。

科技不可避免地成為特權的工具。女性、有色族裔等邊緣人士更加不可見。

《How artificial intelligence reinforces gender bias》;FRANCE 24

無論他們如何不斷創(chuàng)造新名詞,販賣新概念,強調科技是未來。

但我們可以看清,這個美好未來里目前不包括女性。

AI當然可能會創(chuàng)造一個更好的世界。

但前提是,還需要更多女性科學家,或者說更多更具性別平等意識的人類的參與。

    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多