除了行業(yè)競(jìng)爭(zhēng)層面的擔(dān)憂,OpenAI 首席科學(xué)家透露了不開源的另外一個(gè)原因:模型越強(qiáng),安全隱患也越多。 昨天凌晨,OpenAI 出人意料地發(fā)布了 GPT-4。 這次發(fā)布令科技界頗感意外,畢竟人們普遍認(rèn)為 GPT-4 會(huì)在微軟周四的「The Future of Work with AI」活動(dòng)上宣布。距離 ChatGPT 首次亮相才不過(guò)四個(gè)月,它便創(chuàng)造了「歷史上增長(zhǎng)最快的消費(fèi)者應(yīng)用程序」記錄。如今 GPT-4 上線,這款產(chǎn)品的應(yīng)對(duì)能力又上了一層樓。震撼之余,很多研究者認(rèn)真閱讀了 GPT-4 的技術(shù)報(bào)告,卻感到了失望:怎么沒有技術(shù)細(xì)節(jié)呢?在公告中,OpenAI 分享了大量 GPT-4 基準(zhǔn)和測(cè)試結(jié)果以及一些有趣的演示,但幾乎沒有提供有關(guān)用于訓(xùn)練系統(tǒng)的數(shù)據(jù)、算力成本或用于創(chuàng)建 GPT-4 的硬件或方法等信息。比如,一種省流讀 GPT-4 論文的結(jié)論是:「我們用的 Python?!?/span>更有人打趣道:「我讀到了 GPT-4 是基于 Transformer 架構(gòu)的。」許多 AI 領(lǐng)域的成員批評(píng)了這一決定,指出它破壞了 OpenAI 作為研究型組織的創(chuàng)始精神,并使其他人更難復(fù)現(xiàn)其工作。 對(duì) GPT-4 封閉模型的大多數(shù)初始反應(yīng)都是負(fù)面的,但似乎憤怒已經(jīng)不能改變其「閉源」的決定:其實(shí)對(duì)于 OpenAI 不開源的批判已持續(xù)了一段時(shí)間。連 OpenAI 的創(chuàng)始團(tuán)隊(duì)成員馬斯克都公開質(zhì)疑過(guò)其「背離初心」:就這件事,讓馬斯克至今仍感到困惑:「我不懂,當(dāng)初投了近 1 億美元的非營(yíng)利機(jī)構(gòu)怎么就變成了市值 300 億的商業(yè)公司呢?」Nomic AI 信息設(shè)計(jì)副總裁 Ben Schmidt 說(shuō)道:「我認(rèn)為可以停止稱其『Open』了 —— 介紹 GPT-4 的 98 頁(yè)論文自豪地宣稱他們沒有披露關(guān)于訓(xùn)練集內(nèi)容的任何信息。」 還有一些人認(rèn)為, OpenAI 隱藏 GPT-4 細(xì)節(jié)的另一個(gè)原因是法律責(zé)任。AI 語(yǔ)言模型是在巨大的文本數(shù)據(jù)集上訓(xùn)練的,許多模型(包括早期的 GPT 系統(tǒng))都會(huì)從網(wǎng)絡(luò)上抓取信息,其中一個(gè)來(lái)源可能包括受版權(quán)保護(hù)的素材。目前已有幾家公司正被獨(dú)立藝術(shù)家和圖片網(wǎng)站 Getty Images 起訴。一些人表示,更重要的是,這會(huì)使針對(duì) GPT-4 構(gòu)成的威脅制定保障措施變得更困難。Ben Schmidt 也認(rèn)為,由于無(wú)法看到 GPT-4 訓(xùn)練的數(shù)據(jù),很難知道該系統(tǒng)可以在哪里安全使用并提出修復(fù)方案。「眾所周知,像 GPT-4 這樣的神經(jīng)網(wǎng)絡(luò)是黑盒子。事實(shí)上,它們的操作是不可預(yù)測(cè)和難以理解的,這是關(guān)于是否應(yīng)該使用它們、在何處使用它們的最重要問(wèn)題之一?,F(xiàn)在 OpenAI 正逐步制定一個(gè)標(biāo)準(zhǔn),進(jìn)一步擴(kuò)展了這個(gè)謎團(tuán)?!笲en Schmidt 表示。OpenAI 首席科學(xué)家:開源 GPT-4 是不明智的OpenAI 的首席科學(xué)家兼聯(lián)合創(chuàng)始人 Ilya Sutskever 對(duì)上述爭(zhēng)議進(jìn)行了回應(yīng),表示 OpenAI 不分享更多 GPT-4 細(xì)節(jié)信息的原因是「害怕競(jìng)爭(zhēng)和擔(dān)心安全」:「從競(jìng)爭(zhēng)格局上看,外界的競(jìng)爭(zhēng)很激烈。GPT-4 的開發(fā)并不容易,幾乎集聚了所有的 OpenAI 力量,經(jīng)過(guò)很長(zhǎng)時(shí)間的努力才產(chǎn)出了這個(gè)東西,而且有很多公司都想做同樣的事情?!?/span>「安全方面的原因不像競(jìng)爭(zhēng)方面那樣突出,但它也會(huì)發(fā)生變化。這些模型是非常高效的,而且它們變得越來(lái)越高效。某些時(shí)候,如果有人愿意,用這些模型造成巨大的傷害將會(huì)相當(dāng)容易。隨著這些能力越來(lái)越高,不公開它們是有道理的。」當(dāng)被問(wèn)及「為什么 OpenAI 改變了分享研究成果的方式」,Sutskever 回答說(shuō):「坦率地說(shuō),我們錯(cuò)了。如果你像我們一樣相信,在某個(gè)時(shí)候,AI 或 AGI 將變得極其強(qiáng)大、令人難以置信,那么開源就沒有意義。這是一個(gè)壞主意,我完全相信在幾年內(nèi),每個(gè)人都會(huì)清楚地認(rèn)識(shí)到開源 AI 是不明智的。」Lightning AI 首席執(zhí)行官、開源工具 PyTorch Lightning 的創(chuàng)建者 William Falcon 對(duì) VentureBeat 表示,自己能從商業(yè)角度理解這個(gè)決定:「作為一家公司,你完全有權(quán)這樣做。」但他也表示,OpenAI 此舉為更廣泛的社區(qū)樹立了一個(gè)「壞的模板」,可能會(huì)產(chǎn)生有害影響。關(guān)于 OpenAI 不共享其訓(xùn)練數(shù)據(jù)的原因,Sutskever 的解釋是:「我對(duì)此的看法是,訓(xùn)練數(shù)據(jù)是技術(shù)。我們不公開訓(xùn)練數(shù)據(jù)的原因與我們不公開參數(shù)數(shù)量的原因幾乎相同?!巩?dāng)被問(wèn)及 OpenAI 是否可以明確聲明其訓(xùn)練數(shù)據(jù)不包含盜版材料時(shí),Sutskever 沒有回答。Sutskever 同意 OpenAI 批評(píng)者的觀點(diǎn),即開源模型有助于保障措施的開發(fā)。「如果有更多人研究這些模型,我們就會(huì)了解更多,那就更好了,」他說(shuō)。出于這些原因,OpenAI 向某些學(xué)術(shù)和研究機(jī)構(gòu)提供了訪問(wèn)其系統(tǒng)的權(quán)限。由 GPT-4 引發(fā)的熱議預(yù)計(jì)還會(huì)持續(xù)一陣,以至于人們可能會(huì)忽略一些其他動(dòng)態(tài)。比如,在昨日鋪天蓋地的討論中,谷歌的發(fā)布就顯得靜悄悄。目前,Google Workspace 中已經(jīng)全面集成了生成式 AI,更新了生成圖片、演示文稿、電子郵件、文檔等功能??梢韵胂蟮氖牵@將是一次生產(chǎn)力的大提升。接下來(lái),人們可以期待的還有很多:不久之后,微軟 CEO 薩蒂亞?納德拉將親自登臺(tái)演講,介紹微軟和 OpenAI 的更多合作,比如基于 GPT-4 的 Office 套件。
消息來(lái)源:https://www./articles/microsoft-rations-access-to-ai-hardware-for-internal-teams
|