2023.05.17 本文字?jǐn)?shù)3169,閱讀時(shí)長(zhǎng)大約5分鐘 導(dǎo)讀:奧爾特曼強(qiáng)調(diào):“將GPT視為一種工具而不是一種生物很重要,人們不應(yīng)該試圖將人工智能擬人化?!?/span> 作者 | 第一財(cái)經(jīng) 錢童心 人工智能技術(shù)的引領(lǐng)者OpenAI已經(jīng)成為全球科技行業(yè)和監(jiān)管機(jī)構(gòu)關(guān)注的最大焦點(diǎn),科技大佬們圍繞OpenAI的爭(zhēng)議也一直未平息。 5月16日,“ChatGPT之父”、OpenAI公司CEO薩姆·奧爾特曼(Sam Altman)首次在美國(guó)國(guó)會(huì)發(fā)表證詞。 對(duì)奧爾特曼發(fā)難的議員們也動(dòng)用了ChatGPT的新手段。 美國(guó)康涅狄格州民主黨參議員理查德·布盧門撒爾(Richard Blumenthal)在聽(tīng)證會(huì)開(kāi)場(chǎng)時(shí)播放了一段“他的講話錄音”,后來(lái)他透露講話內(nèi)容和聲音都是由AI生成的。 密蘇里州共和黨參議員喬希·霍利(Josh Hawley)指出,一年前,人們還無(wú)法預(yù)見(jiàn)人工智能能以如此強(qiáng)大的方式進(jìn)入“公眾意識(shí)”。他設(shè)想了生成式AI技術(shù)未來(lái)在加速信息生產(chǎn)的同時(shí),可能對(duì)人類社會(huì)造成的挑戰(zhàn)?!斑@就像是原子彈,巨大的技術(shù)突破帶來(lái)的后果也可能是嚴(yán)重且可怕的?!被衾硎?。 馬斯克:我才是OpenAI存在的原因 最新針對(duì)OpenAI發(fā)聲的還有特斯拉CEO馬斯克。馬斯克在5月16日最新接受媒體采訪時(shí)聲稱自己是“OpenAI存在的原因”,并指責(zé)OpenAI在確保AI安全性方面做得不夠,他再次反對(duì)微軟對(duì)OpenAI的控制權(quán)。他還表示,自己曾在OpenAI招聘關(guān)鍵科學(xué)家和工程師方面發(fā)揮了重要作用。 馬斯克是OpenAI的早期投資者之一,他曾承諾向OpenAI注入10億美元投資,不過(guò)此后因理念不合,他退出了OpenAI,最終的投資大約為5000萬(wàn)美元。 針對(duì)馬斯克的最新表態(tài),微軟CEO納德拉(Satya Nadella)發(fā)出了針?shù)h相對(duì)的回應(yīng),他表示:“聲稱微軟控制OpenAI的說(shuō)法是不正確的?!?/span> 納德拉稱:“雖然我非常尊重埃?。R斯克)和他所做的一切,但我只想說(shuō)這實(shí)際上是不正確的,OpenAI非常重視由非營(yíng)利組織控制。微軟在其中擁有非控股權(quán)益?!?/span> 截至目前,微軟對(duì)OpenAI的投資已經(jīng)達(dá)到130億美元。近幾個(gè)月來(lái),微軟一直在其搜索及辦公產(chǎn)品和服務(wù)中整合OpenAI的技術(shù),例如GPT-4。 為了回應(yīng)來(lái)自微軟和谷歌在人工智能領(lǐng)域的競(jìng)爭(zhēng),上個(gè)月,馬斯克自己注冊(cè)了一家公司,宣稱將推出一個(gè)人工智能平臺(tái)TruthGPT。他表示:“TruthGPT是一種試圖理解宇宙本質(zhì)、尋求真相的人工智能。TruthGPT可能是通往安全的最佳途徑,不太可能消滅人類?!?/span> 馬斯克還自曝與谷歌聯(lián)合創(chuàng)始人拉里·佩奇(Larry Page)關(guān)于人工智能的理念不合。他說(shuō)道:“我們是曾經(jīng)的密友,會(huì)就人工智能的本質(zhì)進(jìn)行長(zhǎng)時(shí)間的對(duì)話。不過(guò)拉里對(duì)人工智能的態(tài)度相當(dāng)傲慢,他似乎并不關(guān)心人工智能的安全性?!?/span> 他說(shuō)道,雙方“分道揚(yáng)鑣”的“最后一根稻草”是關(guān)于人工智能的意識(shí)問(wèn)題。“拉里稱我為'物種主義者’(species-ist),因?yàn)槲业牧?chǎng)是親人類意識(shí)而不是機(jī)器意識(shí)?!瘪R斯克表示。佩奇沒(méi)有對(duì)此公開(kāi)發(fā)表回應(yīng)。 馬斯克不是第一次指責(zé)OpenAI和谷歌等企業(yè)對(duì)待人工智能的態(tài)度不負(fù)責(zé)任,他還多次敦促美國(guó)政府加強(qiáng)對(duì)人工智能的監(jiān)管。 “人工智能比管理不善的飛機(jī)設(shè)計(jì)或維護(hù)糟糕的汽車生產(chǎn)更危險(xiǎn),它有可能破壞文明。”馬斯克在上個(gè)月接受采訪時(shí)表示。 有“人工智能教父”之稱的計(jì)算機(jī)科學(xué)家杰弗里·辛頓(Geoffrey Hinton)本月宣布離開(kāi)谷歌。辛頓在過(guò)去的十多年里幫助谷歌開(kāi)發(fā)AI技術(shù),但他現(xiàn)在成為了人工智能最新的“末日預(yù)言者”。辛頓擔(dān)心,人工智能技術(shù)的“未來(lái)版本”會(huì)對(duì)人類構(gòu)成威脅,因?yàn)椤八鼈兘?jīng)常從分析大量數(shù)據(jù)中學(xué)習(xí)到意想不到的行為”。 ChatGPT之父回應(yīng)AI意識(shí) 5月16日,薩姆·奧爾特曼在首次出席美國(guó)國(guó)會(huì)作證時(shí)表示,他支持對(duì)人工智能技術(shù)進(jìn)行監(jiān)管,以利用人工智能的益處,同時(shí)最大限度地減少危害。 當(dāng)被問(wèn)及“如果國(guó)會(huì)不對(duì)技術(shù)進(jìn)行監(jiān)管,人工智能會(huì)多快具有'自我意識(shí)’”時(shí),奧爾特曼強(qiáng)調(diào):“將GPT視為一種工具而不是一種生物很重要,人們不應(yīng)該試圖將人工智能擬人化?!?/span> 但他同時(shí)強(qiáng)調(diào)對(duì)AI技術(shù)的監(jiān)管非常重要。“我們認(rèn)為政府的監(jiān)管干預(yù)對(duì)于減輕日益強(qiáng)大的大型語(yǔ)言模型的風(fēng)險(xiǎn)至關(guān)重要。”奧爾特曼表示,“對(duì)于一項(xiàng)非常新的技術(shù)而言,我們需要一個(gè)新的框架?!?/span> 他建議美國(guó)政府可以考慮對(duì)AI模型的開(kāi)發(fā)和發(fā)布提出許可和測(cè)試要求,并建立一套安全標(biāo)準(zhǔn),特定的測(cè)試模型必須通過(guò)這些標(biāo)準(zhǔn)才能部署,同時(shí)允許獨(dú)立審計(jì)人員在模型啟動(dòng)前進(jìn)行檢查。 奧爾特曼承認(rèn),雖然OpenAI正在構(gòu)建的強(qiáng)大模型工具有朝一日會(huì)解決人類面臨的一些最大挑戰(zhàn),例如氣候變化和治愈癌癥,但目前的系統(tǒng)還無(wú)法做到這些。 “人工智能有能力改善我們生活的幾乎每個(gè)方面,但它也會(huì)帶來(lái)嚴(yán)重的風(fēng)險(xiǎn)?!彼f(shuō)道。針對(duì)生成式AI技術(shù)對(duì)就業(yè)市場(chǎng)產(chǎn)生的影響,奧爾特曼表示:“它會(huì)對(duì)就業(yè)產(chǎn)生嚴(yán)重的影響。但另一方面,也會(huì)創(chuàng)造更多的就業(yè)機(jī)會(huì)?!?/span> 一些議員提出了ChatGPT的回答如果被用于AI生成的歌曲、文章或其他作品,內(nèi)容創(chuàng)作者將如何獲得補(bǔ)償?shù)膯?wèn)題。對(duì)此,奧爾特曼表示,OpenAI正在與藝術(shù)家和其他機(jī)構(gòu)商討潛在的經(jīng)濟(jì)模式。他還談到生成式AI對(duì)于新聞出版行業(yè)的影響。 奧爾特曼對(duì)于人工智能的開(kāi)放態(tài)度也贏得了國(guó)會(huì)議員的贊賞。紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)名譽(yù)教授加里·馬庫(kù)斯(Gary Marcus)也在聽(tīng)證會(huì)上發(fā)表演講,呼吁為人工智能技術(shù)建立一個(gè)新的監(jiān)管機(jī)構(gòu)?!癆I技術(shù)復(fù)雜且發(fā)展迅速,必須有一個(gè)全職的機(jī)構(gòu)專門來(lái)對(duì)此進(jìn)行監(jiān)管。”馬庫(kù)斯表示。 不過(guò),聽(tīng)證會(huì)上談及的只是生成式AI技術(shù)可能引發(fā)的初步問(wèn)題。比如,議員們還提到生成式AI技術(shù)帶來(lái)的市場(chǎng)壟斷問(wèn)題,少數(shù)公司將可能擁有數(shù)據(jù)和基礎(chǔ)設(shè)施結(jié)合的能力,可以掌控人工智能生成的全鏈條,這可能使得少數(shù)公司收獲更大的經(jīng)濟(jì)利益。但這一問(wèn)題尚未得到很好解答。 微軟稱GPT-4已展現(xiàn)人類邏輯跡象 盡管大部分科學(xué)家認(rèn)為,AI目前并不具有意識(shí),但微軟的科學(xué)家研究發(fā)現(xiàn),新的AI系統(tǒng)正展現(xiàn)出具備人類邏輯的跡象。在一篇近期發(fā)表的論文《通用人工智能的火花》中,研究人員發(fā)現(xiàn),AI系統(tǒng)可能對(duì)物理世界“擁有直觀的了解”。 微軟科學(xué)家認(rèn)為,盡管人們?cè)谑褂肎PT-4大模型的時(shí)候,驚訝于它生成文本的能力,但事實(shí)上,大模型在分析、整合、評(píng)估和判斷文本方面的能力要遠(yuǎn)勝于它的生成能力。 “這是AI系統(tǒng)邁向通用人工智能(AGI)的第一步。”他們表示。 對(duì)此有專家表示,盡管GPT-4這類系統(tǒng)非常強(qiáng)大,不過(guò)現(xiàn)在還無(wú)法證明它生成的文本是否為人類邏輯的結(jié)果或是基于常識(shí)的結(jié)果。 美國(guó)加州大學(xué)伯克利分校的心理學(xué)和哲學(xué)教授艾莉森·戈普尼克(Alison Gopnik) 就認(rèn)為,每當(dāng)一個(gè)復(fù)雜的機(jī)器或系統(tǒng)問(wèn)世的時(shí)候,都會(huì)有人傾向于將它擬人化,但把人工智能和人類進(jìn)行比較本身就是帶有謬誤的。 上海交通大學(xué)與上海市精神衛(wèi)生中心雙聘研究員林關(guān)寧教授對(duì)第一財(cái)經(jīng)記者表示:“如果人類邏輯的定義是不帶感情色彩的邏輯推理,那么GPT-4確實(shí)具備了相當(dāng)一部分的能力。也就是說(shuō)給它一定的上文,它可以推理出下文應(yīng)該說(shuō)什么。” 微軟是首個(gè)發(fā)表論文提出如此大膽設(shè)想的科技巨頭。這也引發(fā)了科技界的激辯話題:人工智能是否會(huì)發(fā)展為“人類智能”?如果技術(shù)專家們真的造出像人腦那樣的機(jī)器,甚至還能比人腦更加聰明,那么它是否會(huì)激發(fā)“自我意識(shí)”?如果這一情況真的發(fā)生,那么AI在改變世界的同時(shí),也存在危險(xiǎn)。 對(duì)此,林關(guān)寧對(duì)第一財(cái)經(jīng)記者表示:“如果認(rèn)為意識(shí)只是一種信息的輸入與輸出和反饋,那么顯然人工智能已經(jīng)具有某種意義上的'意識(shí)’;但如果認(rèn)為意識(shí)整合了人類的情感、具有倫理和道德反思,那么顯然人工智能遠(yuǎn)未達(dá)到此意義上的意識(shí)存在?!?/span> 他認(rèn)為,從目前的GPT版本來(lái)看,雖然機(jī)器變得更加智能,擁有了更加準(zhǔn)確地完成目標(biāo)的能力,但它仍然只是一個(gè)先進(jìn)的基于深度學(xué)習(xí)完成任務(wù)的機(jī)器,不存在情緒等主觀體驗(yàn)。 “機(jī)器只是通過(guò)接受人類傳達(dá)給它的指令后,學(xué)習(xí)了更像人的表達(dá),看似具有了某種人格,更符合大眾的心理預(yù)期,但這些還不能說(shuō)明機(jī)器具有意識(shí)?!绷株P(guān)寧對(duì)第一財(cái)經(jīng)記者表示。 但他同時(shí)強(qiáng)調(diào)了未來(lái)AI自主運(yùn)行可能對(duì)社會(huì)造成的潛在風(fēng)險(xiǎn)?!叭绻豢紤]算力的限制,那么讓機(jī)器用指令操縱一些軟硬件,是有可能模擬一個(gè)人類社區(qū)的?!绷株P(guān)寧說(shuō)道。 辛頓也表示:“如果AI系統(tǒng)被允許不僅可以生成自己的計(jì)算機(jī)代碼,而且實(shí)際上可以自己運(yùn)行該代碼,這就會(huì)變得非??膳?。”他擔(dān)心有一天真正的“自主武器”會(huì)成為現(xiàn)實(shí),這些“武器”就好像是戰(zhàn)場(chǎng)上的“機(jī)器人士兵”。 |
|
來(lái)自: 天承辦公室 > 《008矩陣進(jìn)化》