SmartFlowAI 點擊上方藍字關(guān)注我們 想象一下,如果艾倫·圖靈和約翰·麥卡錫有 Instagram,他們的帖子可能會讓服務(wù)器崩潰! 在科技界的歷史長河中,人工智能的發(fā)展歷程就像是一場過山車,經(jīng)歷了激動人心的高潮和令人沮喪的低谷。1950年,圖靈提出了“圖靈測試”,仿佛在科技界投下了一枚深水炸彈。緊接著,1956年的達特茅斯會議上,麥卡錫正式提出了“人工智能”這個術(shù)語,引發(fā)了一場科技界的“大地震”。但是由于算力以及數(shù)據(jù)的限制,當年人工智能所提出的美好愿景并沒有能夠真正的兌現(xiàn),也因此在上世紀的八九十年代進入了一段時間的寒冬。 隨著計算能力的飛躍和大數(shù)據(jù)的浪潮,AI 終于在 21 世紀迎來了自己的春天。尤其是在2012年,AlexNet 在圖靈獎得主 Geoff Hinton 的實驗室里橫空出世,AlexNet 不僅在 ImageNet 競賽中一騎絕塵,更讓世界看到了人工智能改變世界的巨大潛力。此后,語音識別、自然語言處理、自動駕駛汽車、醫(yī)療診斷等諸多領(lǐng)域在 AlexNet 的影響下均取得了顯著進展。 01 — 弱人工智能與強人工智能的對比 “ 弱人工智能就像是個專注于一項運動的運動員,而強人工智能則像是奧運十項全能冠軍,無所不能。” 雖然 AI 已經(jīng)在學術(shù)界和產(chǎn)業(yè)界被廣泛研究和應(yīng)用了,但其對于絕大部分普通人而言還是比較遙遠的。因為過去是由弱人工智能主導的,即設(shè)計和訓練用來執(zhí)行特定任務(wù)的智能系統(tǒng)。這種類型的AI并不具有真正的理解或意識,它僅僅在其被訓練的特定任務(wù)領(lǐng)域內(nèi)表現(xiàn)出智能。 舉個例子,用 YOLOX 檢測安全帽的模型,如果它有情感,可能會覺得自己的工作很“帽子”——它只能檢測到安全帽的存在,卻無法理解工人是否真的正確佩戴。后續(xù)假如我們假如想知道是否正確佩戴安全帽的話,可能還需要在數(shù)據(jù)上進行調(diào)整或后續(xù)的一些處理邏輯才能真正實現(xiàn)業(yè)務(wù)流程上的閉環(huán)。 而強人工智能,盡管尚未實現(xiàn),卻已經(jīng)在 Transformer 架構(gòu)的推動下,展現(xiàn)出了邁向全能的潛力。
02 — 聊天機器人的進化 “ 早期的聊天機器人(弱人工智能)可能更適合去當門衛(wèi),因為它們只會說“是”或“不是”。然而,基于 Transformer 的 ChatGPT 的出現(xiàn),就像是聊天機器人界的“文藝復(fù)興”,ChatGPT 在剛被推出的時候就受到了廣泛的關(guān)注,是史上用戶增長速度最快的消費級應(yīng)用程序。” 以往 AI 常被我們戲稱為“人工智障”,但 ChatGPT 除了一些敏感話題(比如澀澀或者政治)確實問什么能夠回答什么,并且知識體系比你還更加豐富,這在以往的聊天機器人中是難以想象的。 這之間主要的差異在于,以前早期的聊天機器人主要依靠模式匹配和固定的回答庫,它們?nèi)狈φ嬲睦斫饽芰挽`活性。這其實也是前面我們所提到的弱人工智能。 比如蘋果手機用戶常見的 Siri 就是一個早期版本的聊天機器人。這一類的機器人會設(shè)定好一個回復(fù)的范圍,比如說只在聽到地點、鬧鐘或者特定的模式的情況下才會啟動,當我們發(fā)出超過其數(shù)據(jù)庫所支持的信息的時候,Siri 會選擇拒絕回答,這也是為什么我們會經(jīng)常覺得 Siri 有點笨笨的原因。 ChatGPT這種基于 Transformer 架構(gòu)的大語言模型與傳統(tǒng)的聊天機器人截然不同。這種模型通過在大量文本數(shù)據(jù)上進行預(yù)訓練,學習了語言的深層結(jié)構(gòu)和上下文關(guān)系,因此能夠生成連貫且相關(guān)的文本。這個模型不是簡單地遵循一套預(yù)設(shè)的規(guī)則,而是通過分析互聯(lián)網(wǎng)上海量的數(shù)據(jù)來掌握詞語間的邏輯關(guān)系,結(jié)合人類的強化學習以及指令跟隨的微調(diào),逐漸學會了用人類的方式進行交流。 這就像嬰兒從小聽到大量的語言,隨著基本語法和表達方式的學習,孩子的語言能力會逐步成熟,最終能夠流利地進行對話。 當然 ChatGPT 肯定不單純是一個牙牙學語的嬰兒,在我個人的角度看來,ChatGPT更像是一個學過網(wǎng)上所有知識的,能夠使用大量工具且保守而道德的名校本科畢業(yè)生,但是只能進行短暫的理性思考,并對我們的問題只能產(chǎn)生有限的回復(fù)。 這樣一個“名校本科畢業(yè)生”的訓練過程遠不是簡單地制定幾條規(guī)則那么簡單,而涉及一個精心設(shè)計的模擬人腦的深層神經(jīng)網(wǎng)絡(luò)。模型通過大量文本輸入,學習不同場景下的最優(yōu)回應(yīng)。然而,由于神經(jīng)網(wǎng)絡(luò)的多層復(fù)雜性,我們很難完全理解其內(nèi)部工作機制,這也是為什么它被稱為“黑盒模型”——我們只知道輸入問題后,機器就會生成一個答案 A,但我們并不知道這個答案依靠的具體原理和觸發(fā)的機制。這其實與大腦的運作類似,但 ChatGPT 的能力也確實已經(jīng)對我們產(chǎn)生巨大的影響。
03 — 生成式AI的“超能力” 除了文字寫作交流之外,當前的生成式AI技術(shù)已經(jīng)擴展到聽、說、讀等多個方面。例如,ChatGPT可以借助 DALL.E 3 的功能進行圖像生成,并能解析圖片中的內(nèi)容和信息。此外,OpenAI最新在手機應(yīng)用上也支持通過語音與AI進行交互。用戶只需口述問題,OpenAI的 Whisper 模型便能將語音轉(zhuǎn)換為文字,并通過接近真人的語音回應(yīng)用戶。 還有就是最近非?;鸨矣?OpenAI 推出的文生視頻模型 SORA,它打破了視頻生成行業(yè)過往技術(shù)的舊框架,不僅能夠生成長達一分鐘以上的高清視頻,還支持連續(xù)視頻生成和多角度展示,完全顛覆了我們對視頻制作的傳統(tǒng)認知(盡管雖然目前還沒有完全放開讓用戶進行使用和測試)。 那既然 ChatGPT 能夠擁有聽說讀寫的能力,已經(jīng)基本具備了一個工具“人”的前提條件。那假如我們能夠為其打造一幅機器的身軀時期能夠真正的做到某些的事情那豈不是更好。當然就已經(jīng)有公司這么去做了,比如說下面圖片所展示的 Figure,就是利用機器人與 ChatGPT 的結(jié)合使其能夠明白自己接下來要做的事情,并且找到合適的程序去執(zhí)行這部分內(nèi)容。
04 — 生成式AI所帶來的沖擊與改變 從上面我所介紹的這一系列的技術(shù)進步和突破無不說明著當前的生成式AI工具正在慢慢的從某種特定領(lǐng)域的智能慢慢走向多領(lǐng)域綜合智能方向上的發(fā)展,也就是我們所說的強人工智能。其能夠開始通過文字、語音、圖片等信息綜合的回復(fù)我們。雖然在實際技術(shù)上,尤其是視頻和圖像生成方面還并不太成熟,但是真的已經(jīng)在對我們現(xiàn)有的生活或者工作進行了沖擊。 想象一下,我們在網(wǎng)頁和ChatGPT對話就好像在對面坐了一個知識面很寬泛且豐富的人一樣,并且 7* 24 小時的為我們進行待命。只要我們能夠合理的提出我們的需求,他都能夠第一時間給予我解答。無論這個答案最終到底是對不對的,但是其還是會為我們提供一些有益的思路進行進一步的工作。 這對于學生而言,由于他們的日常工作就是學習,有了 ChatGPT 那幾乎就等于是請了一個有教無類的私教。我回想起自己研究生期間學習關(guān)于機器學習的基礎(chǔ)知識的時候,很多問題不知道找誰能夠去請教,就只能自己在B站或者YouTube上看視頻一個個的來學習,而且由于代碼能力弱,當代碼出現(xiàn)Bug的時候也會很無力想放棄。但是現(xiàn)在有了 ChatGPT 后,幾乎我們能夠在數(shù)據(jù)處理以及模型訓練方面實時的獲取到幫助與回復(fù),并且在遇到 Bug 時能夠替我分析問題出在哪里以及要如何改進。 這樣定制化的學習體驗是無與倫比的,畢竟一些教學視頻只能夠針對于一個特定的問題,當這個問題稍微變換了一下可能就會導致錯誤的發(fā)生。但是ChatGPT真的能夠基于你個人特定的問題進行針對性的解答,并且實時的反饋,就好像那只點擊按鈕能夠獲得快感的老鼠一樣,我們點擊就能夠得到反饋和回復(fù),我們真的可能會開始依賴這個技術(shù)來成長和進步。 另外,對于學生而言,其很重要的一個工作就是寫論文。那在寫論文的過程中我們其實經(jīng)常會犯的一個問題就是寫作過于口語化。這個其實也是我的親身經(jīng)歷,我就在本科論文寫作的階段被導師說太多的口語化的內(nèi)容,本質(zhì)上來說就是不夠簡潔明了。一般來說我們假如自己不想學不想做的話,那是要找專門的潤色公司或者收費軟件來對論文進行處理的,但是假如我們現(xiàn)在有了ChatGPT之后,我們其實直接一部分部分丟進去讓其幫忙潤色就可以了,根本就不需要再花很多錢去找了,這其實真的會節(jié)省掉很多的時間。就像李宏毅老師在其生成式AI的課堂所提到的說,他會讓所有他的研究生在發(fā)論文給他看之前先潤色一遍,那這樣就基本語言就會比較嚴謹一些而且不會有太多的語法錯誤。 那對于工作中的人而言,同樣有其重要的價值所在。比如說現(xiàn)在很多無意義且空洞的“盒子工程”,其實就是內(nèi)容沒人看但是你得寫完放進盒子里,那其實借助大語言模型的力量來生成這部分無意義的文字會比起自己寫效率高很多。那除了無意義的文字工作以外,讓原本沒有代碼能力的人擁有通過自然語言來編程來讓自己部分的工作變得自動化,這也是非常重要的內(nèi)容之一。編程語言的學習的門檻其實也是有一些的,就比如比較簡單的編程語言python學起來也是需要一段時間的,但是現(xiàn)在我們都可以不用學習編程語言,而是通過ChatGPT這類大語言模型作為其中的'翻譯器'來進行轉(zhuǎn)換形成一個可以實際應(yīng)用的代碼文件,這本身就是一個很有價值的事情。 就拿解壓文件來說,當我們需要手動一個個的解壓然后點開的話,其實還是蠻復(fù)雜的,但是假如我們將文件地址發(fā)給ChatGPT然后讓其對這個文件夾里所有的文件都進行解壓,然后幾行代碼的運作就能夠?qū)崿F(xiàn)的話,這個還是非常方便且快捷的。除此之外,還有像是pdf轉(zhuǎn)word以及圖片文字提取這類的工作,python中也有大量的庫去支持完成。那就不需要我們額外去尋找一些APP去執(zhí)行這部分的事情了,直接通過代碼又快捷又好用的來完成即可。 那無論是打工人還是學生,利用ChatGPT來完成一些文檔總結(jié)或是資料搜索也是非常方便的,這其實就相當于一個加速器,對于能夠利用好AI工具的人們來說,他們的學習速度或者工作效率會提升非常多。那對于老板而言,這也是非常高興的,因為這樣的效率提升對他們而言就意味著可能能夠以更低的成本賺到更多的錢,這也是為什么我們看到國外的大型科技公司其實裁員都蠻嚴重的,畢竟很多的工作內(nèi)容經(jīng)過了AI的加速后就并不需要那么多的人完成了。并且現(xiàn)在的經(jīng)濟環(huán)境整體也是在下行趨勢,很多的企業(yè)也都在進行裁員及優(yōu)化,這個時候資本家們也更有動力去利用AI技術(shù)去優(yōu)化人員提升整體收益。并且寫一個應(yīng)用AI的故事也可能會對公司的估值產(chǎn)生積極的影響,何樂而不為呢?
05 — 生成式AI的局限性 是不是開始有危機感覺得說大模型可能對我們產(chǎn)生威脅了。實際上大模型對我們的威脅還遠遠未到來。首先就是當下這個階段的AI在面對實際復(fù)雜的工作的時候還是很難獨自去完成。即便是使用上Agent技術(shù)的AutoGPT,實際測試下來真的要完成某一個相對比較復(fù)雜困難的任務(wù)的時候經(jīng)常會錯誤百出,很難真的能夠組合成一個團隊完成某些特定的任務(wù)。又比如說最近很火的AI程序員Devin,雖然其能夠做到大量的編程相關(guān)的任務(wù),并且在SWE-bench上自動正確解決問題的比例也遠高于Claude 2(4.80%)以及GPT-4(1.74%),但是實際的正確率也僅僅只有13.86%,還遠沒有能夠做到替代程序員的可能性。 除此之外,之所以現(xiàn)在的生成式AI很難取代現(xiàn)在的人類,其實有一個更重要的原因就是消耗的能源。我們應(yīng)該都知道訓練一個大模型所需要花費的時間以及算力都是非常龐大的,經(jīng)常就是一個模型用幾萬張顯卡訓練個幾個月才能得到一個基礎(chǔ)模型,那每一張顯卡的運行都是依靠的是電力資源,雖然在一些水資源或者太陽資源豐富的區(qū)域里電價可能會比起單純的火力發(fā)電比起來便宜,但是整體來說為了讓大模型訓練出來以及后期來自全網(wǎng)的大量模型推理,這其中的產(chǎn)生的能源消耗以及碳排放都是難以想象的。就如下面這張圖所展示的那樣,在2022年時候就統(tǒng)計了訓練175B的GPT所花費大約500噸的碳排放,而人類生活一年所產(chǎn)生的碳排放也就才5.5噸。未來在國內(nèi)有指標要實現(xiàn)碳達峰和碳中和的情況下,碳排放可能就變成一個權(quán)力了,我們到時候可能都未必能夠買得到足夠的碳排放額度來訓練模型了。 與基于深度學習的大模型所消耗的能源相比,人腦則有著其得天獨厚的優(yōu)勢。人腦在處理信息和執(zhí)行復(fù)雜任務(wù)時,能源效率遠超現(xiàn)代計算機和AI系統(tǒng)。據(jù)研究表明,人腦的能量消耗大約為20瓦特,相當于一個小型燈泡的功率,而當前的AI系統(tǒng)在執(zhí)行相似的任務(wù)時可能需要數(shù)千倍的能量。此外,人腦在處理不確定性、進行抽象思維以及學習新技能方面顯示出了極高的適應(yīng)性和靈活性,這些是目前的AI技術(shù)難以匹敵的。因此,盡管AI在處理大量數(shù)據(jù)和執(zhí)行特定算法方面表現(xiàn)出色,但人腦在能源使用效率和處理復(fù)雜性方面仍保持著明顯的優(yōu)勢。 但是其實我們也并不能完全的掉以輕心去不擔心AI會將我們?nèi)〈?。在李飛飛聯(lián)合領(lǐng)導的斯坦福大學以人為本人工智能研究所(Stanford HAI)發(fā)布了的《2024 年人工智能指數(shù)報告》(Artificial Intelligence Index Report 2024)中就指出,人工智能在某些任務(wù)上已經(jīng)超越了人類,比如說圖像分類、視覺推理以及英語理解等方面。當然在在競賽級數(shù)學、視覺常識推理和規(guī)劃等更復(fù)雜的任務(wù)上依然落后于人類。但是隨著AI技術(shù)飛快的發(fā)展,越來越多的模型在不斷迭代升級。2022年11月才發(fā)布的GPT-3.5,2023年3月就推出GPT-4,并且最近要推出GPT-5的留言也越來越甚囂塵上。未來會變成什么樣是真的很難去預(yù)測。
06 — 總結(jié) 總的來說,在這個時代下,我們作為人類而言,其實真的需要好好思考一下大模型的能力局限以及人類的特長所在。在AI模型做得很好的地方,我們其實可以利用AI工具來完成,比如說一些簡單的重復(fù)工作,這些就交給AI來寫程序就好。但是對于AI模型做得不好的地方又是人類所擅長的地方,比如說復(fù)雜的思考與分析,那我們就要積極的抓住這些機會,努力的發(fā)展出競爭性的差異,從而避免在未來與AI的競爭中落于下風。那假如想知道我們需要培養(yǎng)的品質(zhì)和能力有哪些,敬請期待下期關(guān)于AI時代下我們所需的品質(zhì)與能力的介紹吧! SmartFlowAI 新鮮時事 AI 前線 |
|