午夜视频在线网站,日韩视频精品在线,中文字幕精品一区二区三区在线,在线播放精品,1024你懂我懂的旧版人,欧美日韩一级黄色片,一区二区三区在线观看视频

分享

千人聯(lián)名叫停ChatGPT-5,為什么

 新用戶5657qPkI 2023-03-30 發(fā)布于北京



“這是一場沒有人能預(yù)測或控制的危險(xiǎn)競賽”。

 

2023年3月29日,包括埃隆·馬斯克(Elon Musk)和蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)在內(nèi),1000多名科技界領(lǐng)袖呼吁暫停開發(fā)人工智能。他們擔(dān)心這場危險(xiǎn)競賽會對社會和人類構(gòu)成“深遠(yuǎn)的風(fēng)險(xiǎn)”,且可能產(chǎn)生“災(zāi)難性”影響。

 

在由非營利組織生命研究所(The Future of Life Institute)發(fā)布的一封名為《暫停大型人工智能實(shí)驗(yàn)》公開信中,馬斯克和其他科技界領(lǐng)袖呼吁,所有人工智能實(shí)驗(yàn)室停止開發(fā)產(chǎn)品至少6個(gè)月,并對其進(jìn)行更多風(fēng)險(xiǎn)評估。

 

“我們呼吁所有人工智能實(shí)驗(yàn)室立即暫停對比GPT-4更強(qiáng)大的人工智能系統(tǒng)的試驗(yàn),至少6個(gè)月。”信中建議道,暫停行動(dòng)應(yīng)該是公開的、可核實(shí)的,包括所有關(guān)鍵行為者。如果實(shí)驗(yàn)室拒絕,呼吁者希望政府介入,并強(qiáng)制實(shí)施暫停。

 

這是一種普遍存在的擔(dān)憂。這種擔(dān)憂甚至得到Open AI公司首席執(zhí)行官山姆·阿爾特曼(Sam Altman)的認(rèn)同,后者創(chuàng)建了ChatGPT。阿爾特曼早些時(shí)候曾表示,這項(xiàng)技術(shù)可以被開發(fā)利用進(jìn)行“廣泛的”網(wǎng)絡(luò)攻擊。

 

自GPT-4發(fā)布以來,Open AI一直在用“插件”為人工智能系統(tǒng)添加功能,使其能在開放網(wǎng)絡(luò)上查找數(shù)據(jù)、計(jì)劃假期,甚至訂購雜貨等。但該公司必須處理“能力過?!眴栴}——系統(tǒng)發(fā)布時(shí)比它所預(yù)知的更強(qiáng)大。

 

公開信還詳細(xì)介紹了與人類競爭的人工智能系統(tǒng),將以經(jīng)濟(jì)和政治破壞的形式對社會和文明造成的潛在風(fēng)險(xiǎn),呼吁開發(fā)者與政策制定者就治理和監(jiān)管機(jī)構(gòu)展開合作。

 

這封信發(fā)布之前2天,即3月27日,歐盟警察機(jī)構(gòu)歐洲刑警組織(Europol)警告道,ChatGPT等系統(tǒng)可能被濫用于網(wǎng)絡(luò)釣魚企圖、虛假信息和網(wǎng)絡(luò)犯罪。


對奇點(diǎn)心存恐懼


從太空旅行到自動(dòng)駕駛汽車,馬斯克希望將科技推向絕對極限。但在人工智能方面,馬斯克卻劃清了界限。

 

早在2014年,馬斯克首次分享對人工智能的看法時(shí),就將其比作“召喚惡魔”,稱其為人類“最大的生存威脅”。彼時(shí),馬斯克透露,他投資人工智能公司不是為了賺錢,而是密切關(guān)注這項(xiàng)技術(shù),以防它失控。

 

馬斯克最擔(dān)心的是,如果人工智能在錯(cuò)誤的人手里變得先進(jìn),它可能會超過人類,宣告人類的終結(jié),這就是常說的奇點(diǎn)。

 

許多聰明人都曾有這樣的擔(dān)憂,包括已故者斯蒂芬·霍金(Stephen Hawking),2014年他就曾告訴BBC(英國廣播公司):“完全人工智能的發(fā)展可能意味著人類的終結(jié)。”人工智能會自己起飛,并以不斷加快的速度重新設(shè)計(jì)自己。

 

盡管馬斯克對人工智能心存恐懼,但他還是投資了總部位于舊金山的人工智能公司Vicarious和DeepMind,后者已被谷歌和Open AI收購。正是Open AI創(chuàng)造了最近幾個(gè)月風(fēng)靡全球的ChatGPT程序。

 

馬斯克與Open AI現(xiàn)任首席執(zhí)行官山姆·阿爾特曼一起創(chuàng)立了Open AI公司。2016年,馬斯克在一次采訪中坦言,他和阿爾特曼創(chuàng)立這家公司是為了“讓人工智能技術(shù)民主化,讓它得到廣泛應(yīng)用”。

 

2018年,馬斯克試圖控制這家初創(chuàng)公司,其請求被拒絕后,他被迫從Open AI退出,但仍繼續(xù)從事其他項(xiàng)目。2022年11月,Open AI推出ChatGPT,在全球迅速獲得成功。

 

這個(gè)聊天機(jī)器人是一個(gè)經(jīng)過大量文本數(shù)據(jù)訓(xùn)練的大型語言模型,根據(jù)給定的提示生成類似人類的文本。ChatGPT可用于撰寫研究論文、書籍、新聞文章和電子郵件等。

 

當(dāng)阿爾特曼沉浸在ChatGPT的榮耀之中時(shí),馬斯克正在從各個(gè)方面攻擊ChatGPT。馬斯克說,這款人工智能已經(jīng)“覺醒”,偏離了Open AI最初的非營利使命。


今年2月,馬斯克在推特上寫道:“Open AI作為一個(gè)開源(這就是我為什么把它命名為Open AI)的非盈利公司而創(chuàng)建,旨在與谷歌抗衡,但現(xiàn)在,它已經(jīng)成為一個(gè)由微軟有效控制的封閉資源的最大利潤公司?!?/span>

 

雖然Open AI似乎在馬斯克的目標(biāo)清單上,但他仍然擔(dān)心人工智能會達(dá)到奇點(diǎn)。

 

“奇點(diǎn)”這個(gè)詞在世界范圍內(nèi)引起軒然大波,因?yàn)槿斯ぶ悄馨l(fā)展只能在科幻小說中看到——它實(shí)際代表什么意思?

 

簡而言之,奇點(diǎn)描述了一種假設(shè)的未來,在那里技術(shù)超越了人類的智力,改變了我們的演變道路。專家表示,一旦人工智能達(dá)到這一點(diǎn),它的創(chuàng)新速度將比人類快得多。

 

這一進(jìn)步有兩種方式展現(xiàn)。第一種方式是人類和機(jī)器合作,創(chuàng)造一個(gè)更適合人類的世界。例如,人類可以掃描自己的意識,將其存儲在電腦中,他們將在那里永遠(yuǎn)生存下去。

 

第二種方式是人工智能變得比人類更強(qiáng)大,控制人類并使人類成為它的奴隸——但如果這是真的,那也是在遙遠(yuǎn)的未來。研究人員正在尋找人工智能達(dá)到奇點(diǎn)的跡象,比如該技術(shù)能像人類一樣準(zhǔn)確地翻譯語音,更快地執(zhí)行任務(wù)。

谷歌前工程師雷·庫茲韋爾(Ray Kurzweil)預(yù)測,奇點(diǎn)將在2045年到來。自1990年代初期以來,庫茲韋爾已經(jīng)對技術(shù)進(jìn)步做出過147次預(yù)測,其中86%是正確的。

 

1000多人聯(lián)名簽署的公開信中寫道,人工智能實(shí)驗(yàn)室目前“陷入了一場失控的競賽,開發(fā)和部署更強(qiáng)大的數(shù)字思維,沒有人——甚至包括它們的創(chuàng)造者——能夠理解、預(yù)測或可靠地控制它”。

 

谷歌和微軟都沒有人簽字,而這兩家公司被認(rèn)為是開發(fā)這項(xiàng)技術(shù)的前沿。

 

微軟所支持的Open AI,自ChatGPT發(fā)布以來,競爭對手已推出類似產(chǎn)品,促使企業(yè)將其或類似技術(shù)集成到自己的應(yīng)用程序和產(chǎn)品中。

 

阿爾特曼愿意聽取有關(guān)ChatGPT的反饋,希望更好了解其風(fēng)險(xiǎn)。在3月27日的播客采訪中,他坦承這個(gè)工具會造成傷害?!皶袀?,也會有巨大的好處。我們將把壞的最小化,把好的最大化。”


“這更像是一場自殺式競賽”


支持人工智能暫停的團(tuán)體表示,暫停6個(gè)月或更長時(shí)間,讓行業(yè)有時(shí)間為人工智能設(shè)計(jì)制定安全標(biāo)準(zhǔn),以阻止風(fēng)險(xiǎn)最高的人工智能技術(shù)的潛在危害。

 

“我們已經(jīng)達(dá)到這樣的地步,這些系統(tǒng)已經(jīng)足夠智能,可以用在對社會有害的方面?!泵商乩麪柎髮W(xué)蒙特利爾學(xué)習(xí)算法研究所所長Yoshua Bengio(本吉奧)接受采訪時(shí)說。

 

公開信沒有呼吁停止所有人工智能的開發(fā),但敦促相關(guān)公司暫時(shí)停止比GPT-4更強(qiáng)大的培養(yǎng)系統(tǒng)。GPT-4是Open AI公司本月發(fā)布的技術(shù)。

 

Open AI還沒有開始研發(fā)GPT-5。阿爾特曼表示,公司在開發(fā)過程中一直將安全性放在首位,GPT-4發(fā)布前花了6個(gè)多月時(shí)間進(jìn)行安全測試。

 

“某種意義上,這是對唱詩班的說教?!卑柼芈J(rèn)為,“我們對這些問題的討論是最大聲、最激烈、最長久的。”

 

一邊是暫停的呼吁,一邊是科技公司和初創(chuàng)公司對生成式人工智能(一種能根據(jù)人工提示生成原創(chuàng)內(nèi)容的技術(shù))加倍投入的愿景。去年秋天,Open AI公司推出一款聊天機(jī)器人,該機(jī)器人能提供冗長的答案,像人類一樣復(fù)雜地編寫計(jì)算機(jī)代碼。

關(guān)于生成式人工智能的討論自此爆發(fā)。

 

微軟已經(jīng)在必應(yīng)搜索引擎和其他工具中采用了這種技術(shù)。谷歌則部署了競爭對手的系統(tǒng),Adobe、Zoom和Salesforce等公司也推出了先進(jìn)的人工智能工具。

 

“競賽從今天開始打響?!蔽④浭紫瘓?zhí)行官薩提亞·納德拉(Satya Nadella)上個(gè)月說,“我們要行動(dòng),而且要快?!?/span>

 

這種做法引發(fā)了人們的擔(dān)憂——快速推廣可能在帶來實(shí)際好處的同時(shí),產(chǎn)生意想不到的后果。

 

生命未來研究所所長、麻省理工學(xué)院物理學(xué)教授馬克斯·泰格馬克(Max Tegmark)認(rèn)為,人工智能的進(jìn)步已經(jīng)超過許多專家?guī)啄昵罢J(rèn)為可能實(shí)現(xiàn)的水平。

 

“不幸的是,這更像是一場自殺式競賽。誰先到并不重要,這只是意味著,人類作為一個(gè)整體可能會失去對自己命運(yùn)的控制。”泰格馬克說。

 

馬斯克和沃茲尼亞克都表達(dá)過對人工智能技術(shù)的擔(dān)憂。3月29日,馬斯克在推特上寫道,這種先進(jìn)人工智能技術(shù)的開發(fā)者“不會注意到這個(gè)警告,但至少有人這么說過”。

 

特斯拉汽車也采用了一些人工智能工具,用于高級駕駛輔助功能。特斯拉上個(gè)月宣布,擬召回約36.28萬輛配備“完全自動(dòng)駕駛測試版”技術(shù)的汽車。

 

美國最高汽車安全機(jī)構(gòu)認(rèn)為,在極少數(shù)情況下,這項(xiàng)技術(shù)可能違反當(dāng)?shù)亟煌ǚㄒ?guī),如果司機(jī)不進(jìn)行干預(yù),可能會增加發(fā)生碰撞的風(fēng)險(xiǎn)。


3月29日,Stability AI首席執(zhí)行官穆斯塔克(Mostaque)在推特上說,盡管他簽署了聯(lián)名信,但并不同意暫停6個(gè)月?!八鼪]有任何約束力,但將開啟一場重要討論,這有望為一個(gè)不透明領(lǐng)域帶來更多透明度和治理。”

 

微軟拒絕置評。谷歌沒有立即回復(fù)置評請求。

 

泰格馬克稱,許多公司在將先進(jìn)的人工智能技術(shù)添加到產(chǎn)品中時(shí),感到了“瘋狂的商業(yè)壓力”。暫停6個(gè)月將給行業(yè)“喘息的空間”,不會對那些謹(jǐn)慎行動(dòng)的企業(yè)帶來不利。

 

人工智能實(shí)驗(yàn)室和專家可以利用這段時(shí)間,為高級人工智能設(shè)計(jì)制定一套共享的安全規(guī)則,這些規(guī)則應(yīng)該由外部專家進(jìn)行審計(jì)和監(jiān)督。

 

本吉奧認(rèn)為,我們承受不起前進(jìn)和打破現(xiàn)狀的代價(jià),我們確實(shí)需要花時(shí)間共同思考這個(gè)問題。


| 聯(lián)名叫停公開信

廣泛的研究表明,具有人類競爭智能的人工智能系統(tǒng),可能對社會和人類造成深遠(yuǎn)的風(fēng)險(xiǎn)。頂級人工智能實(shí)驗(yàn)室對此也供認(rèn)不諱。

正如已被廣泛認(rèn)可的阿西洛瑪人工智能準(zhǔn)則所述,先進(jìn)的人工智能可能代表地球生命史上的一場深刻變革,因此,應(yīng)該投入相應(yīng)的關(guān)注和資源對其進(jìn)行規(guī)劃和管理。

不幸的是,高規(guī)格的規(guī)劃和管理并沒有發(fā)生。盡管最近幾個(gè)月,人工智能實(shí)驗(yàn)室陷入了一場失控的競賽,競相開發(fā)和部署更強(qiáng)大的數(shù)字思維,沒有人——甚至包括它們的創(chuàng)造者——能夠理解、預(yù)測或可靠地控制它。

在一般任務(wù)上,當(dāng)代人工智能系統(tǒng)可以具備與人類競爭的實(shí)力,我們必須捫心自問——我們是否應(yīng)該讓機(jī)器用鼓吹和謊言淹沒我們的信息渠道?我們是否應(yīng)該把所有的工作都自動(dòng)化,包括那些令人滿意的工作?我們是否應(yīng)該發(fā)展非人類思維,讓它們最終在數(shù)量上、智力上超過我們,淘汰并取代我們?我們是否應(yīng)該冒險(xiǎn)失去對人類文明的控制?

如此重要的決定權(quán),不應(yīng)該交給未經(jīng)選舉產(chǎn)生的科技領(lǐng)導(dǎo)者。

只有在我們確信它的影響是積極的、風(fēng)險(xiǎn)是可控的情況下,才應(yīng)該開發(fā)強(qiáng)大的人工智能系統(tǒng)。這種信心必須有充分的驗(yàn)證,并隨著智能系統(tǒng)潛在影響的大小而增加。

Open AI最近在關(guān)于人工智能的聲明中表示,“在某一個(gè)時(shí)刻,在開始訓(xùn)練未來的系統(tǒng)之前,獲得獨(dú)立的審查可能很重要。對于最先進(jìn)的努力,同意限制用于創(chuàng)建新模型的計(jì)算增長速度也很重要。”

我們贊同Open AI的說法,而這個(gè)時(shí)刻就是現(xiàn)在。

因此,我們呼吁,所有人工智能實(shí)驗(yàn)室立即暫停比GPT-4更強(qiáng)大的人工智能系統(tǒng)實(shí)驗(yàn),至少6個(gè)月。這種暫停應(yīng)該是公開的、可核實(shí)的,包括所有關(guān)鍵行為者。如果這樣的暫停不能迅速實(shí)施,政府就應(yīng)該介入并實(shí)施暫停。

人工智能實(shí)驗(yàn)室和獨(dú)立專家應(yīng)該利用這6個(gè)月的時(shí)間,共同開發(fā)和實(shí)施一套先進(jìn)人工智能設(shè)計(jì)和開發(fā)的共享安全協(xié)議。這些協(xié)議由獨(dú)立的外部專家嚴(yán)格審計(jì)和監(jiān)督,確保遵守這些協(xié)議的系統(tǒng)絕對安全。

這并不意味著,人工智能開發(fā)總體上的暫停,只是從危險(xiǎn)的競賽退回到,具有應(yīng)急能力的更大的不可預(yù)測的黑盒模型。

人工智能的研究和開發(fā)應(yīng)該重新聚焦于,使當(dāng)今強(qiáng)大的最先進(jìn)的系統(tǒng)更加準(zhǔn)確、安全、可解釋、透明、健康、一致、值得信賴和忠誠。

與此同時(shí),人工智能開發(fā)人員必須與政策制定者合作,大幅加快開發(fā)強(qiáng)大的人工智能監(jiān)管系統(tǒng)。

這些措施至少應(yīng)包括——專屬人工智能的全新、有能力的監(jiān)管機(jī)構(gòu);監(jiān)督和跟蹤高性能人工智能系統(tǒng)和大型計(jì)算能力池;出處和水印系統(tǒng),以幫助區(qū)分真實(shí)的和合成內(nèi)容,并跟蹤模型泄漏;健全的審計(jì)和認(rèn)證生態(tài)系統(tǒng);人工智能造成的損害責(zé)任;為人工智能技術(shù)安全研究提供強(qiáng)有力的公共資金;資源豐富的機(jī)構(gòu),以應(yīng)對人工智能將造成的巨大經(jīng)濟(jì)和政治混亂(尤其是對民主的破壞)。

有了人工智能,人類可以享受繁榮的未來。在成功創(chuàng)建強(qiáng)大的人工智能系統(tǒng)之后,我們現(xiàn)在可以享受一個(gè)“人工智能之夏”。在這個(gè)夏天,我們可以收獲回報(bào),為了所有人的明顯利益設(shè)計(jì)這些系統(tǒng),并給社會一個(gè)適應(yīng)的機(jī)會。

社會已經(jīng)暫停其他對社會有潛在災(zāi)難性影響的技術(shù)。對于人工智能,我們也可以這樣做。讓我們享受一個(gè)漫長的人工智能之夏,而不是毫無準(zhǔn)備地匆忙進(jìn)入秋天。

    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多