午夜视频在线网站,日韩视频精品在线,中文字幕精品一区二区三区在线,在线播放精品,1024你懂我懂的旧版人,欧美日韩一级黄色片,一区二区三区在线观看视频

分享

深度學習不是AI的終極答案

 葉老師YP 2023-03-11 發(fā)布于湖北
圖片
出品|虎嗅科技組
作者|齊健
編輯|陳伊凡
頭圖|FlagStudio
“一天清晨,你的AI助理給我發(fā)出了一份訪談邀約,于是我讓我的AI助理處理它。后面的事情則是由兩個AI系統(tǒng)來完成了,在它們之間經歷多輪對話,最終敲定日期,并預定了會議室,全程沒有人類參與?!?/div>
這是邁克爾·伍爾德里奇(Michael Wooldridge)描繪的未來圖景。他是英國AI科學家,現任牛津大學計算機科學系教授。
當人工智能可以互相交流時,我們的社會將發(fā)生怎樣的變化?
在1個小時的對談過程中,伍德里奇對這個話題興趣盎然,他是多智能體系統(tǒng)(Multi Agent System)研究的全球頂尖學者之一,“AI之間的協(xié)作”是他的重點研究方向。
在伍爾德里奇看來,無論是打敗人類的AlphaGO,還是對答如流的ChatGPT,雖然人工智能變得越來越像人類,甚至在一些領域開始超越人類,但我們離真正的人工智能仍有一段很長的距離。
當大多數人沉浸在OpenAI創(chuàng)造的現象級創(chuàng)新時,伍爾德里奇顯得冷靜許多。ChatGPT在展現神經網絡的強大時,也展示了它的瓶頸——其無法解決巨大的功耗和算力問題、無法解決的AI“黑盒”問題,“深度神經網絡雖然經常能完美回答我們的問題,但我們并不真正理解它為什么會這樣回答?!?/span>
超過人類的AI常被稱為“強人工智能”,而具有普遍人類智能水平的AI則稱為通用人工智能(Artificial general intelligence,AGI)。伍爾德里奇在他的著作《人工智能全傳》中這樣描述AGI:AGI大致等同于一臺擁有一個普通人所擁有的全部智慧能力的計算機,包括使用自然語言交流、解決問題、推理、感知環(huán)境等能力,與一個普通人處于同等或者更高等級的智能水準。關于AGI的文獻通常不涉及自我意識或者自主意識之類,因此AGI被認為是弱人工智能的弱版本。
然而再“弱”的AGI也與當代的人工智能研究相去甚遠。
“ChatGPT是一款成功的AI產品,它非常擅長涉及語言的任務,但僅此而已。我們離AGI還有很長的路要走?!痹谂c虎嗅的對談中,伍德里奇說,深度學習使我們有能力構建一些幾年前無法想象的AI程序。但這些取得非凡成就的AI程序,遠算不上推動AI朝著宏偉夢想前進的魔法,也并不是當前AGI發(fā)展難題的答案。
圖片
邁克爾·伍爾德里奇(Michael Wooldridge)是國際人工智能學界領軍人物,現任牛津大學計算機學院院長,投身人工智能研究30余年。曾擔任2015年-2017年國際人工智能聯(lián)合會議(IJCAI)主席(該會議是人工智能界頂級會議之一),2020年獲頒英國計算機領域至高榮譽——洛芙萊斯獎章,被譽為英國計算機領域具有重要影響力的三位學者之一。
ChatGPT并不是構建AGI的答案
在ChatGPT出現之前多數人認為通用人工智能非常遙遠,2018年出版的一本名為《智能架構》的書中,對23位AI領域專家進行了調研,在回答“哪一年能夠有50%的機會實現通用人工智能”時,谷歌工程總監(jiān)Ray Kurzweil認為是2029年,而iRobot聯(lián)合創(chuàng)始人Rodney Brooks給出的時間則是2200年。所有回答了這個問題的18位專家預測的平均時間點是2099年。
不過Elon Musk在2022年也發(fā)表了關于2029年實現AGI的觀點,他在Twitter中表示,“2029 feels like a pivotal year. I'd be surprised if we don't have AGI by then.(感覺2029年是關鍵的一年。如果那時我們還沒有AGI,我會很驚訝)”
對此,知名AI學者Gary Marcus提出了五個檢驗 AGI 是否實現的標準,包括:看懂電影、讀懂小說、當廚師、根據自然語言規(guī)范或通過與非專業(yè)用戶的交互,可靠地便攜超過10000行無bug代碼,以及用自然語言編寫的數學文獻中任意提取證明,并將其轉換為適合于符號驗證的符號形式。
現在看來,ChatGPT代表的通用大模型似乎朝AGI邁出了一大步。讀懂小說和看懂電影的任務,似乎指日可待了。對此,邁克爾·伍爾德里奇教授認為,目前來看,人類仍然很難在2029年實現AGI。
虎嗅:像AlphaGo一樣的AI專家雖然打敗了人類,但它們的能力在實際應用方面存在很大的局限性,今天的通用大模型似乎正在打破這樣的局面。您對專家型AI和AGI未來的發(fā)展有怎樣的看法?
邁克爾·伍爾德里奇:“符號人工智能”是早期人工智能的一種模式,即假設“智能”是一個關于“知識”的問題,如果你想要一個智能系統(tǒng),只需要給它足夠多的知識就可以了。
這種模式相當于對人對“思維”進行建模,主導了從二十世紀五十年代到八十年代末的人工智能發(fā)展,并最終演變成了“專家系統(tǒng)”。如果你想讓人工智能系統(tǒng)做一件事,比如將英語翻譯成中文,你需要先掌握人類翻譯家的專業(yè)知識,再使用編程語言,將這些知識傳遞給計算機。
這種方法存在很大的局限性,他不能解決與“感知”相關的問題。感知是指你理解周圍世界、解釋周圍事物的能力。比如,我現在正看著電腦屏幕,我旁邊有一個書架,有一盞燈。我的人類智能可以理解這些事物、環(huán)境,也可以把它們描述出來。但是,讓計算機進行這個過程非常困難。這就是符號人工智能的局限,它在知識積累型的問題上表現良好,但在理解問題上表現不佳。
AI把貓識別成狗
另一種方法是基于心智模型的人工智能。如果你在顯微鏡下觀察動物的大腦或神經系統(tǒng),你會發(fā)現大量的神經元互連接。研究人員從這種龐大的網絡和神經結構中汲取了靈感,嘗試給動物大腦中的結構建模,設計了一種與動物大腦相似的神經網絡。在這個過程中我們不是在建模思維,而是在建模大腦。
“建模思維”的符號人工智能和“建模大腦”的神經網絡,是兩種主要的人工智能模式。在今天大數據和大算力的支持下,神經網絡的發(fā)展速度更快,OpenAI的ChatGPT就是神經網絡的一個典型例子。
ChatGPT的成功更增強了人們對深度神經網絡期待,甚至有一些人認為AGI就要來了。的確,AGI是很多人工智能研究者的目標,但我認為我們離AGI還有很長的路要走。雖然ChatGPT在涉及語言問題時表現的通用能力很強,但它并不是AGI,它不存在于現實世界中,也無法理解我們的世界。
舉個例子,如果你現在開始與ChatGPT進行對話,說完一句之后就去度假了。當你出游一周回來時,ChatGPT仍然在那里耐心地等待你輸入下一個內容,它不會意識到時間已經過去或者世界發(fā)生了哪些變化。
虎嗅:你認為2029年實現AGI的預言會成真嗎?
邁克爾·伍爾德里奇:雖然ChatGPT在某種程度上可以被視為通用AI的一部分,但它并不是構建AGI的答案。它只是為了執(zhí)行特定的、狹隘領域的任務而構建和優(yōu)化的軟件組合。我們需要更多的研究和技術進步才能實現AGI。
我對2029年實現AGI這個觀點持懷疑態(tài)度。人類智能的基礎是“能夠生活在物質世界和社交世界中”。比如,我可以用手感知到我的咖啡杯,我可以吃早餐,我也可以和任何人互動交流。但很遺憾,AI不僅做不到這些,而且也不能理解其中任何一項的含義。在AI能夠感知現實世界之前,AGI還有很長的路要走。
雖然計算機的感知和理解能力有限,但是它仍在經驗中學習,并成為人類決策的助手。目前來看,只要AI能像“真人助手”一樣解決問題,那爭辯一個計算機系統(tǒng)是否能夠“感知和理解”,又有什么意義呢?
我們終將看到一個完全由AI構建的世界
從無人駕駛汽車,到人臉識別攝像頭,從AI繪畫、AI數字人,到AI寫代碼、寫論文,用不了多久,只要是涉及技術的領域,不論是教育、科學、工業(yè)、醫(yī)療還是藝術,每個行業(yè)都會看到人工智能的身影。
在談到是否經常使用ChatGPT時,伍爾德里奇教授表示,ChatGPT是他研究的一部分,所以肯定會經常使用。不過在使用過程中,他發(fā)現ChatGPT確實是基礎工作的好幫手,在很多重復工作方面可以節(jié)省大量時間。
虎嗅:您在工作中會使用ChatGPT嗎?對于ChatGPT Plus的訂閱模式怎么看?
邁克爾·伍爾德里奇:我經常使用ChatGPT。我認為在未來幾年中,ChatGPT以及通用大模型可能還會涌現出上千種不同的用途,甚至逐漸成為通用工具,就像網絡瀏覽器和電子郵件客戶端一樣。
我也是ChatGPT Plus的訂閱用戶。不過對于25美元的價格,我認為仁者見仁,智者見智。每個用戶只有親自嘗試之后,才知道ChatGPT是否適合他們,是否有必要付費訂閱增強版。對于一些人來說,他們可能只是覺得有趣,而在工作中他們更愿意自己做事情。對于我來說,我發(fā)現它非常有用,可以處理很多日常重復的案頭工作。不過,目前我更多地是將其作為我研究的一部分。
虎嗅:今天的AI市場上正在形成一種以大模型能力為核心的新型PaaS商業(yè)模式。OpenAI的GPT-3催生了Jasper,ChatGPT則吸引了Buzzfeed。您認為圍繞通用大模型是否會形成新的AI生態(tài)?
邁克爾·伍爾德里奇:ChatGPT現在已有很多應用層面的創(chuàng)新,而且很快可能就會迎來創(chuàng)意的“大爆炸”。我認為一兩年內,ChatGPT及類似應用就會大規(guī)模落地,在商業(yè)化軟件中完成文字校對、語句潤色、歸納總結等簡單的重復性文案工作。
此外,在多模態(tài)人工智能中,我們可能會看到更多新的應用場景。例如與圖像識別、圖像生成相結合的大型語言模型,可能會在AR領域發(fā)揮作用;基于大模型的視頻內容理解,可以利用AI快速給視頻、影視劇生成摘要等。不過,多模態(tài)場景的商業(yè)化可能還需要一段時間,但我們最終將看到由AI生成的各種各樣的內容,甚至是完全由AI創(chuàng)建的虛擬世界。
虎嗅:要從頭開始打造一家如OpenAI一樣的公司,您認為需要具備哪些條件?
邁克爾·伍爾德里奇:我想要從頭開始創(chuàng)立一家OpenAI這樣的公司非常困難。首先你需要龐大的計算資源,采購數萬個昂貴的頂級GPU,組建專門用于AI的超級計算機,僅電費可能就耗資巨大。你也可以選擇云服務,但目前云計算的價格并不便宜。因此,每次訓練AI可能都要花費數百萬美元,且需要運行幾個月甚至更長的時間。
此外,還需要海量的數據,其規(guī)模可能是整個互聯(lián)網的數據,如何獲得這些數據也是一個難題。而數據和算力,都還只是基礎,更重要的是要聚攏一群高精尖的AI研發(fā)人才。
虎嗅:在AI研發(fā)上哪家公司更有實力?您對AI研發(fā)方面,各國之間的技術差異怎么看?
邁克爾·伍爾德里奇:在這條賽道上的玩家可能包括互聯(lián)網公司、研究機構,也許還有政府,只是他們沒有公開。目前,公開宣布具備大模型實力的玩家并不多,甚至一只手就能數得過來。大型科技公司目前都在研發(fā)自己的大型語言模型,他們的技術也相對領先。
因此我不想評價誰更強,我認為各家模型之間沒有明顯可比性,他們的區(qū)別主要在于投入市場的節(jié)奏,以及用戶數量。OpenAI的技術并不一定是最先進的,但他們在市場化方面領先了一年,而這一年的優(yōu)勢給他積攢了數億用戶,這也使他在用戶數據反饋方面遙遙領先。
目前,美國在人工智能領域一直占主導地位,無論是谷歌還是微軟,甚至創(chuàng)立于英國的DeepMind,如今也屬于美國的Alphabet(谷歌母公司)。
不過,在過去的40年中,中國在AI領域的發(fā)展也相當快。1980年的AAAI conference(American Association for AI conference,美國人工智能協(xié)會會議),只有一篇來自中國香港的論文。但到今天,來自中國的論文數量已經與美國相當。
當然,英國也擁有優(yōu)秀的人工智能團隊,但我們沒有中國那樣的規(guī)模,我們是一個相對較小的國家,但我們絕對擁有世界領先的研究團隊。
這是一個有趣的時代,很多國家都擁有極強的人工智能團隊。
深度學習進入瓶頸
當人們探討ChatGPT是否能夠代替搜索引擎時,很多人認為ChatGPT的數據只覆蓋到2021年以前,無法獲取實時數據,因此沒法勝任搜索任務。但也有人認為,其實我們日常搜索的內容,在很大程度上都是2021年以前的已有知識,即便此后生成的數據量再大,實際使用需求也并不高。
事實上,ChatGPT使用的數據量已經非常龐大了,它的前輩GPT-2模型是在40GB的文本數據上進行預訓練的,GPT-3模型則是在45TB的文本數據上進行預訓練的。這些預訓練數據集,包括了各種類型的文本,如新聞文章、小說、社交媒體帖子等,大模型能夠學習到不同領域和風格的語言知識。很多實踐證明,即便只有2021年以前的數據,ChatGPT仍是一個上知天文下知地理的“博士”。
而這也引發(fā)了人們對大模型訓練的數據憂慮,當我們要訓練一個比ChatGPT更大的模型時,我們這個世界的數據還夠用嗎?未來的互聯(lián)網上,會不會充斥著AI生成的數據,從而在AI訓練過程中,形成一條數據的“銜尾蛇”?
銜尾蛇被認為“寓意著無限”
虎嗅:您曾在書中提到神經網絡是機器學習中最耀眼的技術。如今,神經網絡引導我們在算法、數據尤其是算力上不斷前行,隨著技術進步,您是否看到了神經網絡發(fā)展的瓶頸?
邁克爾·伍爾德里奇:我認為神經網絡目前面臨三個主要的挑戰(zhàn)。第一是數據,像ChatGPT這樣的工具是通過大量語料數據構建的,其中很多來自互聯(lián)網。如果你想構建比ChatGPT大10倍的系統(tǒng),可能需要10倍的數據量。但我們的世界上有那么多數據嗎?這些數據從哪里來?如何創(chuàng)建這些數據?
例如,當我們訓練一個大型語言模型時,我們有大量的英文數據、中文數據。但當我們想訓練小語種時,比如,像冰島這樣人口不到100萬的小國家,他們的語種數據量明顯小的多,這就會出現數據量不足的問題。
同時,當ChatGPT這樣強大的生成式AI被大規(guī)模應用以后,可能會發(fā)生一個令人擔憂的現象。未來互聯(lián)網上的很多數據可能是由AI生成的。當我們需要用互聯(lián)網數據來訓練下一代AI工具,可能使用的都是由AI創(chuàng)造的數據。
下一個問題是關于算力。如果你要訓練一個比ChatGPT大10倍的系統(tǒng),就需要10倍的算力資源。在訓練和使用的過程中,會消耗大量能源,產生大量二氧化碳,這也是人們廣泛擔憂的問題。
第三個重大挑戰(zhàn)涉及科學進步,我們需要基礎科學進步來推動這項技術的發(fā)展。僅僅增加數據和計算資源確實能推動我們在人工智能的研發(fā)上走得更遠,但這都不及科學創(chuàng)新帶來的進步。就像是學會用火或是發(fā)明計算機,才能真正使人類的進步發(fā)生質的飛躍。在科學創(chuàng)新方面,未來深度學習面臨的主要挑戰(zhàn)是,如何研發(fā)出更加高效的神經網絡。
除了以上三個挑戰(zhàn),AI還需要“可解釋”。目前人類尚不能完全理解神經網絡背后的邏輯,很多問題的計算過程藏在AI的“黑盒”中。雖然神經網絡已經能夠給出很好的答案,但我們并不真正理解它們?yōu)槭裁磿o出這些答案,這不僅阻礙了神經網絡的研發(fā),也使得人類無法完全相信AI提供的答案。這其中還包括AI的魯棒性問題(Robust),而要這種使用AI,我們需要確保神經網絡不會崩潰,不會以不可預測的方式失控。
雖然發(fā)展瓶頸擺在面前,但短期內我認為不會看到神經網絡的顛覆。我們現在甚至還不知道它是如何工作的,所以距離顛覆還很遠。不過我認為神經網絡并不是人工智能的答案。我認為它只是“完整的人工智能”的一個組成部分,肯定還有其他組成部分,但我們還不太清楚它們是什么。
虎嗅:如果算力是AI發(fā)展的重要因素之一,那么在AI芯片的研發(fā)方面您看到了哪些創(chuàng)新性研究?
邁克爾·伍爾德里奇:算力在未來很可能是AI技術發(fā)展的一個瓶頸。人類大腦的能效比很高,人腦在思考時的功率只有20W,相當于一個燈泡的能量消耗,這樣的能量消耗相對于計算機,可以說是微乎其微。
需要大量算力和數據資源構建的AI系統(tǒng)與自然智能之間,存在天然的巨大鴻溝。人類可以更加高效地學習,但人類的這只“燈泡”始終只有20W,不是一枚很亮的燈泡。
因此,我們面對的挑戰(zhàn)是如何讓神經網絡和機器學習技術(如ChatGPT)更加高效。目前無論從軟件還是硬件角度,我們都不知道如何使神經網絡在學習方面像人腦一樣高效,在這方面還有很長的路要走。
當系統(tǒng)與系統(tǒng)直接對話
多智能體系統(tǒng)是AI領域的一個重要分支,指由多個智能體組成的系統(tǒng),這些智能體可以相互交互、協(xié)作或競爭,以實現某種目標。在多智能體系統(tǒng)中,每個智能體都具有自己的知識、能力和行為,并且可以通過與其他智能體通信和協(xié)作來完成任務。
多智能體系統(tǒng)在許多領域都有應用,例如機器人控制、智能交通系統(tǒng)、電力系統(tǒng)管理等。它的優(yōu)點在于可以實現分布式決策和任務分配,提高系統(tǒng)的效率和魯棒性。
如今,在AI大模型的加持下,很多場景的多智能體系統(tǒng)與LLM可以嘗試結合應用,從而大幅拓展AI能力的邊界。
虎嗅:當下大火的AI大模型與多智能體系統(tǒng)有哪些可以結合的點?
邁克爾·伍爾德里奇:我的研究關注“人工智能系統(tǒng)相互交流時會發(fā)生什么”。大多數人都有智能手機以及智能手機的AI助手,比如Siri、Alexa或Cortana,我們稱之為“代理”。
舉個例子,當我想在餐廳訂座位時,我會直接打電話給餐廳。但在不遠的將來,Siri或是其他智能助手可以幫我完成這個任務。Siri會給餐廳打電話,代表我進行預訂。而多智能體系統(tǒng)的理念是,為什么Siri不能直接與另一個Siri交流?為什么不讓這些AI程序相互通信?多智能體系統(tǒng)關注的是,這些AI程序相互交流時所涉及的問題。
多智能體系統(tǒng)和大模型的結合是我們正在研究的項目。我認為,在構建多智能體+大語言模型方面,有一個非常有趣的工作要做。通過讓大語言模型相互交流,我們能否獲得更高的智能?我認為這是一個非常有趣的挑戰(zhàn)。
比如說,我們現在要預約一場會議,你我都是用Siri代為溝通,但是你喜歡早上開會,而我喜歡下午開會。當我們之間存在爭議時,代表你我的Siri如何協(xié)作解決這個問題?他們會協(xié)商嗎?當AI不僅與人交談,還與其他AI系統(tǒng)交談時,會產生很多新的問題。這就是我正在研究的領域,我相信多智能體系統(tǒng)是未來的方向。
另一個關于多智能體和大型語言模型的有趣問題是,如果AI系統(tǒng)只是相互交流,它們是不是就不需要人類語言了?我們是否能為這些AI系統(tǒng)設計更有效的語言?
然而這又會引發(fā)了另一些問題,我們需要給這些代理、AI程序的交流制定規(guī)則,人類該如何管理由AI構成的人工智能社會?
Siri的問答
AI無法代替人類坐牢
英國科學家邁克爾·法拉第(Michael Faraday)于1831年發(fā)明了電動機,他也沒預料到會產生電椅這種刑具。1886年獲得汽車專利的卡爾·本茨(Karl Benz)肯定無法預言,他的發(fā)明在未來的一個世紀里會造成數百萬人的死亡。人工智能是一門通用技術:它的應用僅僅受限于我們的想象。
在人工智能跨越式發(fā)展的同時,我們也需要注意人工智能可能帶來的潛在風險和挑戰(zhàn),如數據隱私、就業(yè)崗位流失等問題。因此,在推動人工智能技術發(fā)展的同時,我們也需要謹慎地考慮其社會和倫理影響,并采取相應的措施。
如果我們真的能構建具有人類智力和能力的AI,那么它們是否應該被視為與人類平等的存在?它們是否應該擁有自己的權利和自由?這些問題需要我們認真思考和探討。
虎嗅:中文互聯(lián)網有一個有趣的觀點,“AI永遠不可能從事會計、審計工作。因為AI不能坐牢?!盇IGC在版權方面同樣存在這樣的問題,AI可以輕易抄襲人類的繪畫、寫作風格,同時人類利用AI進行的創(chuàng)作也存在權屬不明的問題。那么您對人工智能在法律、道德方面面臨的風險怎么看?
邁克爾·伍爾德里奇:“AI不能坐牢”這個想法非常妙。有些人認為AI能成為他們的“道德代理人”,對其行為負責。然而這種想法明顯曲解了人類對于“對、錯”的界定。我們不該去考慮怎么制造“有道德責任”的AI,而是應該以負責任的方式研究AI。
AI本身無法負責,一旦AI出了問題,擁有AI、構建AI和部署AI的人就要負責。如果他們使用的AI觸犯了法律,或者他們將AI用于犯罪,那么應該被送進監(jiān)獄的一定是人類。
此外,ChatGPT在隱私保護方面需要加強監(jiān)管。如果ChatGPT收集了整個互聯(lián)網的信息,那么他一定也讀到了關于我們每個人的信息。例如,我的社交媒體、我的書籍、我的論文,以及其他人在社交媒體上對我發(fā)表的評論等,甚至是已經刪除了的信息。AI可能還能根據這些信息描繪每個人的畫像,從而進一步侵犯或傷害我們的隱私。
目前有很多關于人工智能法律方面的討論,并不只針對ChatGPT,人工智能的法律問題一直存在,且日趨重要,但目前社會各界對此還仍在討論和摸索階段。
我認為ChatGPT或是其他的AI技術在未來幾年中將會變得越來越普遍。但是,我也認為我們需要謹慎地使用它,確保我們不會失去人類的關鍵技能,例如閱讀和寫作。AI無疑可以幫助人類提高生產效率、生活質量,但它不能完全取代人類的思維和創(chuàng)造力。

    本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現有害或侵權內容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多