最近關(guān)于機(jī)器人與人工智慧的新聞不斷,不管是Boston Dynamics、AlphaGo 還是人形機(jī)器人Sophia,都使關(guān)注人工智慧的朋友越來越多,自然而然有很多人開始產(chǎn)生疑問: 天網(wǎng)的時(shí)代是不是要來臨了? (按:不要跟我說你沒看過終結(jié)者。) 對于人工智慧的莫名恐懼 我們對于人工智慧的恐懼,其實(shí)可以追溯到科學(xué)怪人(Frankenstein),甚至招魂術(shù)(Necromancy)以前。我們害怕我們有一天能夠自己創(chuàng)造或賦予一物體智慧,最后卻失去對其之控制而遭殺身之禍。 當(dāng)然,這種恐懼不是完全沒有可能,但是在下任何結(jié)論以前,我們必須先深入了解什么是人工智慧。 何謂人工智慧? 其實(shí)我們口語上的人工智慧和學(xué)術(shù)上討論的人工智慧有很大的差異。 多數(shù)人每天討論的人工智慧,是非常含糊的概念,不但包含了所有的自動(dòng)化、程序化作業(yè)外,任何模擬智能、模擬感官,甚至模擬情緒的現(xiàn)象都被人稱之為人工智慧。 定義如此包山包海,也難怪那么容易就會挑動(dòng)人們對于末日說的敏感神經(jīng)。 反觀,學(xué)術(shù)界的人工智慧雖然依學(xué)術(shù)領(lǐng)域不同而在定義上有些許差異,但基本上仍不離「了解、模擬人類或動(dòng)物之智能、認(rèn)知與行為」的宗旨。若要再細(xì)分,人工智慧大致上可以分為以下四大塊: 粗略地解釋,第一欄(黃色),關(guān)注的是人類在思考和做決策時(shí),所需的知識、記憶和資訊處理技巧,并將這些理論模型透過機(jī)器進(jìn)行實(shí)作,以達(dá)到模擬人類思考與行為的目的;第二欄,關(guān)注的則是邏輯性和理性的判斷,出發(fā)點(diǎn)通常是以邏輯和計(jì)算學(xué)為基礎(chǔ)。這兩大派系的分歧并不是技術(shù)上的,而是哲學(xué)上對人工智慧的觀點(diǎn)不同。 而說到人工智慧,其最早出自于哲學(xué)的知識學(xué)(Epistemology)。哲學(xué)上的知識學(xué)慢慢地知識學(xué)逐漸衍生出心理學(xué)、數(shù)學(xué)、經(jīng)濟(jì)學(xué)、計(jì)算學(xué)等學(xué)術(shù)領(lǐng)域,但最終的目的仍然在于了解知識模型與決策模型。 當(dāng)然,各領(lǐng)域?qū)τ谌斯ぶ腔鄣恼J(rèn)知都經(jīng)過了大幅度的變革,而最重大的變革應(yīng)該算是五零年代的認(rèn)知科學(xué)革命(Cognitive Revolution)。 在五零年代以前,我們對于人類心理與智能的認(rèn)知,由行為主義(Behaviorism)主導(dǎo)。行為主義學(xué)派認(rèn)為人類與動(dòng)物的行為是以控制和動(dòng)機(jī)為主,因此可靠重復(fù)訓(xùn)練(Conditioning)養(yǎng)成。行為主義者一般認(rèn)為具有智慧的行為可以用行為和訓(xùn)練去模擬,而無須去探討人類與動(dòng)物的認(rèn)知系統(tǒng)。若以非常狹義行為主義而論,人類若有機(jī)會挑選面包多半會挑選體積較大的面包吃,若一只鳥可以被訓(xùn)練去挑選大的面包來吃的話,那這只鳥至少在挑選面包這方面擁有類似人類的智能。 所以,我們要怎么去定義和測量人工智慧呢? 說到人工智慧的測驗(yàn),大家應(yīng)該都聽過鼎鼎大名的亞倫圖靈(Alan Turing)。圖靈測驗(yàn)(Turing Test)假設(shè)若一人透過一介面去跟一電腦(或另一人)互動(dòng),若測試者無法判斷電腦和人類的差別,那該電腦之人工智慧便達(dá)到跟人類一樣的等級。 許多電影和科幻小說都喜歡拿圖靈測驗(yàn)來做文章,但是這測驗(yàn)存有很大的一個(gè)問題,那就是:我們到底測試電腦和人類的共通點(diǎn)到底代表什么? 舉個(gè)例子:若今天測試者問電腦說二加三等于多少,電腦回答五,這是許多受過教育的人類會給的解答,這只代表電腦有能力做基本運(yùn)算;如果今天測試者問電腦說大象有幾只腳,若電腦回答四,這也是許多受過教育的人的解答,這也只代表電腦擁有了一些關(guān)于動(dòng)物的基本知識;反觀,若電腦反問說「大象是什么?」,這也是沒有見過大象的人可能會問的問題;若測試者問電腦今天開心嗎,不管電腦回答是與否都合乎人類的標(biāo)準(zhǔn),但這并不代表電腦真的了解人類的情感的感受以或是其在知識和決策上的意義。 圖靈測試到底要測試多久?又測試的是什么?其實(shí)并沒有一個(gè)標(biāo)準(zhǔn)答案。 為什么?因?yàn)閳D靈過世于1954年,當(dāng)時(shí) 的認(rèn)知科學(xué)尚未成形。而在那個(gè)年代,圖靈與其同儕所討論的人工智慧,嚴(yán)格上來說其實(shí)是今天的計(jì)算學(xué)(Computational Theory)。當(dāng)時(shí)的人工智慧論者,在乎的是將人類所從事的工作步驟化、系統(tǒng)化,最后再將這種系統(tǒng)化的過程加以理論化。與其說是在形容人類的智慧,不如說是在奠定計(jì)算學(xué)的基礎(chǔ)。 認(rèn)知科學(xué)的到來,學(xué)術(shù)界對于智能的觀點(diǎn)開始以人類和動(dòng)物的認(rèn)知架構(gòu)(Cognitive Architecture)加以定義。在這種架構(gòu)下,一個(gè)人的認(rèn)知能力不但有基本的感官能力、短期記憶、長期記憶、專注力等,更有知識管理、情緒管理、學(xué)**管理等能力。由于認(rèn)知科學(xué)的進(jìn)步能解釋許多人類智能和認(rèn)知能力的特性和限制,因而取代了行為主義成為心理學(xué)和哲學(xué)的主流。 同樣地,學(xué)術(shù)界對于人工智慧的認(rèn)知也隨著心理學(xué)進(jìn)步而一日千里。過去的圖靈實(shí)驗(yàn),今天看來是多么地含糊?同理,當(dāng)我們重新審視大眾口語之人工智慧就能看出其定義上的缺陷。 人工智慧真的危險(xiǎn)嗎?不見得,人工智慧可能是利用類似人類的知識管理系統(tǒng)來進(jìn)行推理、利用搜尋演算法來做決策(AlphaGo 就是此類)、或是利用臉頰特征去做臉部辨識,這些都是很稀松平常的「智慧型」工作,似乎無須大驚小怪。 以下,讓我們來進(jìn)一步探討人工智慧。 人類智能vs. 人工智慧 由于人工智慧與人類智能息息相關(guān),因此人工智慧作為一學(xué)術(shù)領(lǐng)域,算是出自于哲學(xué)與心理學(xué)。一直到九零年代以前,人工智慧領(lǐng)域之實(shí)作方法幾乎清一色是以人類的認(rèn)知能力與智能為設(shè)計(jì)藍(lán)本。當(dāng)時(shí)的人工智慧以模擬人類智能之知識、分析、演繹、歸納等能力為宗旨,與今天業(yè)界使用的機(jī)器學(xué)**有不小的差異。(機(jī)器學(xué)**部分下一段落再討論) 過去的人工智慧方法衍生出以下(部分)主題與問題: 知識管理(Knowledge Base) 人類利用許多結(jié)構(gòu)性知識來輔助自然語言。如: 類似這樣的知識結(jié)構(gòu),讓我們可以了解「大象看見兔子」因?yàn)榇笙笥醒劬σ虼瞬⒎遣缓侠?。但隨著知識庫增長,大部分知識庫都發(fā)生了語義歧異性(Semantic Ambiguity)的問題,比如說阿帕契發(fā)射飛彈、阿帕契來自于墨西哥,以及阿帕契是開放原始碼軟體等語句都合理(但同時(shí)也都不合理),因?yàn)榘⑴疗踹@詞有太多定義,必須靠更精準(zhǔn)的語義分析去判斷,而很難客觀地(獨(dú)立于語言的情況下)儲存知識。這類問題成為知識庫方法最大的缺點(diǎn)。 知識管理雖然仍在搜尋引擎中廣為使用(多以知識圖Knowledge Graph 的方式呈現(xiàn)),但其結(jié)構(gòu)已不再是以豐富的結(jié)構(gòu)性知識為主,而是以機(jī)器學(xué)**衍生出以統(tǒng)計(jì)學(xué)導(dǎo)向的語義關(guān)聯(lián)性為主。 規(guī)則式系統(tǒng)(Rule-based Systems) 與專家系統(tǒng)(Expert Systems) 由于人工智慧除了知識外還需要視情況動(dòng)作,這種模擬人類智能的架構(gòu)在過去都以專家系統(tǒng)的方式呈現(xiàn),而專家系統(tǒng)又多以規(guī)則式系統(tǒng)的方式實(shí)作。 所謂專家系統(tǒng)就是將我們認(rèn)為正確的規(guī)則以「情況」(Context)、「目標(biāo)」(Target)與「動(dòng)作」(Action)三集合的方式呈現(xiàn)。只有在合乎情況的時(shí)候,系統(tǒng)才會對目標(biāo)進(jìn)行更新的動(dòng)作。比如說今天我們在設(shè)計(jì)一四則運(yùn)算系統(tǒng),若兩整數(shù)之個(gè)位數(shù)相加超過10(情況),那我們應(yīng)該要在十位數(shù)欄位之上方(目標(biāo))加一以表示進(jìn)位(動(dòng)作) 。 規(guī)則式系統(tǒng)與一般的結(jié)構(gòu)式程式設(shè)計(jì)最大的不同在于規(guī)則式系統(tǒng)的執(zhí)行是屬于非線性的,因此被用于模擬人類解題時(shí)使用的各種知識。 專家系統(tǒng)與規(guī)則式系統(tǒng)嚴(yán)格上來說并沒有被機(jī)器學(xué)**淘汰,但是由于其設(shè)計(jì)成本和建置成本極高,因而今天在業(yè)界已較少見。 非線性邏輯(Non-monotonic Logic)與信仰更新系統(tǒng)(Belief Revision) 一般的邏輯系統(tǒng)在增加新的知識(或語句)后,其能夠代表的可能性會增加。但是人類的知識卻不見得如此,如果今天碰到互相矛盾的知識,可能性可能會因此減少。因此人工智慧發(fā)展出了非線性邏輯。 打個(gè)比方,若我們知道下雨會使地面**,而今天地面是干的,那前兩語句為真的情況下,那我們知道今天不可能有下雨。非線性邏輯系統(tǒng)的作用在于能自動(dòng)移除不合理的結(jié)論,以維持系統(tǒng)的相容性(Consistency)而不會互相矛盾。 影格問題(Frame Problem) 在人工智慧中一直都是難以解決的問題,F(xiàn)rame problem 當(dāng)屬其一。所謂的Frame problem,就是若把世界當(dāng)作一電影,把時(shí)間與物件用「影格」的方式去分開,我們要如何去表示和儲存該「影格」中的知識和規(guī)則?又要如何因應(yīng)事件去改變影格內(nèi)的知識? 打個(gè)比方:若今天兩小孩在玩接球的游戲,A孩將球丟給B孩,之后B又將球丟給A。若一開始是Frame 1、A 孩球丟給B 之后是Frame 2,而B 將球丟給A 之后是Frame 3,那很明顯地,我們可以推測在Frame 1 時(shí)A 手上有球(不然怎么丟?)、在Frame 2 時(shí)B 拿到球,而A 手上沒有球(不然B 手上拿到的是誰的球?),但是到了Frame 3,A 手上應(yīng)該是沒有球(已丟出),但是B 有可能會有球(成功接球)但是也有可能沒有球(沒接到球掉地上了)。若我們在Frame 2 與Frame 3 之間再**一Frame 2,我們可能會發(fā)現(xiàn)A 與B 手上都沒有球,而球在空中(因?yàn)槿绻粼诘厣希?就接不到了)。 如此簡單的邏輯語言,卻暗藏了許許多多的隱性知識,若全部用顯性的邏輯規(guī)則去表示,那一個(gè)簡單的人工智慧系統(tǒng)在輸入任何專家規(guī)則前,恐怕已有數(shù)不清的隱性知識了。由于人工智慧使用的資料中的語句通常都只有顯性知識,要如何將知識系統(tǒng)、規(guī)則系統(tǒng)等全部整合起來來精準(zhǔn)地追蹤每個(gè)「影格」的隱性知識與相關(guān)結(jié)論,是人工智慧至今無完解的問題。 故此,在九零年代以前,人工智慧作為一學(xué)術(shù)領(lǐng)域仍然以許多智能相關(guān)的議題為主,但是由于傳統(tǒng)人工智慧方法有許多結(jié)構(gòu)性和規(guī)則性設(shè)計(jì),一旦資料集合過大,常常會碰到歧異性問題和系統(tǒng)性矛盾,使得人工智慧的系統(tǒng)實(shí)作方法都很難用來建置大型系統(tǒng)。 故此,雖然人工智慧的研究在哲學(xué)和心理學(xué)仍持續(xù)進(jìn)行,在工程領(lǐng)域,許多實(shí)作方法已被機(jī)器學(xué)**取代。 機(jī)器學(xué)**vs. 人工智慧 機(jī)器學(xué)**的理論基礎(chǔ)出自統(tǒng)計(jì)學(xué),其功用在于使用統(tǒng)計(jì)數(shù)據(jù)來歸納出可用于預(yù)測的統(tǒng)計(jì)模型。隨著人工智慧領(lǐng)域?qū)Υ笮蛯0傅膶?shí)用性要求增加,機(jī)器學(xué)**便成為人工智慧中最重要的領(lǐng)域。如今業(yè)界看到的人工智慧解決方案,幾乎都是以機(jī)器學(xué)**為主。甚至許多心理學(xué)、社會學(xué)、經(jīng)濟(jì)學(xué)、語言學(xué)等領(lǐng)域都借助機(jī)器學(xué)**來輔助建立結(jié)構(gòu)性模型。 而機(jī)器學(xué)**(部分)有幾大類: Unsupervised Learning (非監(jiān)督式學(xué)**) 非監(jiān)督式學(xué)**,粗略地解釋就是從未被標(biāo)示的資料中找到可預(yù)測的模型。由于資料尚未被標(biāo)示,你很難直接去設(shè)定辨識的「正確」標(biāo)準(zhǔn)和雜音標(biāo)準(zhǔn),因此非監(jiān)督式學(xué)**多仰賴資料本身去尋找聚類集合(Cluster),并以此為標(biāo)示的基準(zhǔn)。打個(gè)比方,若你今天有搜集到許多擁有不同特征的花,但是你卻不知道他們是什么花。那你可以利用花的各種特征來尋找類似花朵的集合,未來找到新的花朵時(shí),你可以依照花朵的特征來將其歸類于其中一個(gè)集合,這種學(xué)**方式即類似非監(jiān)督式學(xué)**。 非監(jiān)督式學(xué)**的演算法包括K-means、Expectation-Maximization、Principal Component Analysis 等。 Supervised Learning (監(jiān)督式學(xué)**) 監(jiān)督式學(xué)**,相對于先前提到的非監(jiān)督式學(xué)**,差別就在于資料已被明確標(biāo)示,因此你可以去設(shè)定辨識的「正確」標(biāo)準(zhǔn)(通常能明確地標(biāo)示辨識結(jié)果)。相對于前者,監(jiān)督式學(xué)**通常都有更復(fù)雜的結(jié)構(gòu)。打個(gè)比方,若你今天有許多貓的特征資料與其所屬的品種,你可以利用監(jiān)督式學(xué)**去建出以特征資料去預(yù)測品種的統(tǒng)計(jì)模型,這種作法即類似監(jiān)督式學(xué)**。 監(jiān)督式學(xué)**包括類神經(jīng)網(wǎng)路(Neural Networks)、貝氏學(xué)**(Bayesian Learning)、決策樹(Decision Tree)等。 Reinforcement Learning (強(qiáng)化學(xué)**) 在強(qiáng)化學(xué)**中,通常系統(tǒng)中都有一假設(shè)的「玩家」(Agent)。而這玩家在該環(huán)境中的所有動(dòng)作都有反饋,也就是得失(Win & Loss)。因此在學(xué)**時(shí),玩家必須要依環(huán)境中的資訊來尋找能將好處最大化的選項(xiàng)。舉個(gè)例子,若一系統(tǒng)在幫助一機(jī)器人尋找回家的路,在任何時(shí)候機(jī)器人的位置和狀態(tài)都存有一定的不確定性,而這不確定性極有可能造成機(jī)器人摔入坑洞(壞處),也有可能幫助機(jī)器人成功返家(好處),系統(tǒng)必須依照環(huán)境中的資訊去決定對機(jī)器人最有利的決定。這種問題,多可用強(qiáng)化學(xué)**的Markov Decision Process 來解決。 看到這邊很多聰明的讀者可能已經(jīng)發(fā)現(xiàn):傳統(tǒng)人工智慧仍用結(jié)構(gòu)性方法去建置智能,但是到了機(jī)器學(xué)**,卻改用統(tǒng)計(jì)學(xué)方法去處理大型資料來模擬人類的某種智慧型行為。后者最大的好處在于其可以因應(yīng)資料的特性而彈性地進(jìn)行調(diào)適,并訓(xùn)練出新的統(tǒng)計(jì)模型。對于現(xiàn)實(shí)世界中充滿雜訊的大型資料集合,機(jī)器學(xué)**的彈性和錯(cuò)誤通融性(Error Tolerance)都使其較過去的人工智慧方法高更實(shí)用。 但是,機(jī)器學(xué)**同時(shí)也有缺點(diǎn)一些缺點(diǎn):首先,從科學(xué)的角度看來,傳統(tǒng)AI 方法還可以算是某種程度的描述性科學(xué)(Descriptive Science),意思就是其產(chǎn)生的各種模型的結(jié)構(gòu)仍以描述人類的認(rèn)知架構(gòu)為宗旨,反觀機(jī)器學(xué)**的方法雖然模擬人類的智慧型行為,卻幾乎放棄了作為人類認(rèn)知架構(gòu)的科學(xué)基礎(chǔ),嚴(yán)格上來說是種工程方法(當(dāng)然這也是好事)。再來,機(jī)器學(xué)**很難單獨(dú)建出擁有高語義復(fù)雜度的知識庫,尤其當(dāng)專案規(guī)模不大時(shí),機(jī)器學(xué)**達(dá)到一定準(zhǔn)確度(85%+)所需的資料量比傳統(tǒng)人工智慧大很多(傳統(tǒng)人工智慧可能只需要幾十行的邏輯式資料便能進(jìn)行推理,機(jī)器學(xué)**卻需要上千筆以上的資料才能建出像樣的模型)。 故此,在看待現(xiàn)代機(jī)器學(xué)**主導(dǎo)的人工智慧,擁有「智慧型」的行為不代表擁有智能動(dòng)物的知識管理、推理和決策架構(gòu)和能力。打個(gè)比方,一現(xiàn)代機(jī)器學(xué)**系統(tǒng)能了解「大象」與「哺乳類」二詞有明顯地關(guān)聯(lián)性,但是卻無法保證能演繹出「大象有能力哺乳」,或是「大象是胎生動(dòng)物」等結(jié)論(通常需要設(shè)計(jì)新的系統(tǒng)重新訓(xùn)練)。 機(jī)器人vs. 人工智慧 在這邊稍微繞道討論一下機(jī)器人學(xué)和人工智慧的關(guān)系。對于大眾來說,自動(dòng)化的各種機(jī)械都被認(rèn)為是擁有某種程度的人工智慧。這樣說沒錯(cuò),但是卻稍嫌含糊了點(diǎn)。 機(jī)器人作為一學(xué)術(shù)領(lǐng)域是兩千年以后的事情,而其學(xué)術(shù)領(lǐng)域?qū)τ跈C(jī)器人的定義很簡單,就是: 感測(Sense) 思考(Think) 動(dòng)作(Act) 很明顯地,這定義其實(shí)比傳統(tǒng)的人工智慧廣很多,因?yàn)檫@么說來,一擁有影像辨識能力的智慧型機(jī)械手臂,也可以算是機(jī)器人。 嚴(yán)格上來說,機(jī)器人學(xué)的目標(biāo)和傳統(tǒng)人工智慧有關(guān)聯(lián)但是卻不互相隸屬。傳統(tǒng)人工智慧在乎的是模擬人類的知能,而機(jī)器人學(xué)的重點(diǎn)在于創(chuàng)造可以根據(jù)資訊做出判斷并與環(huán)境進(jìn)行物理互動(dòng)的智慧型機(jī)械。后者可明顯受益于許多知識管理和推理系統(tǒng),但卻不見得一定要運(yùn)用人工智慧的架構(gòu)才能夠創(chuàng)造有用的機(jī)器人。 人類意識vs. 人工智慧 最后,我們要來討論一下人類的意識(Consciousness)。說穿了,大眾對于人工智慧的恐懼,其實(shí)害怕的不是智慧而是意識。換句話說,我們不是怕機(jī)器會取代我們,而是我們害怕機(jī)器會擁有類似人類的愛恨情仇。 這邊我們講到重點(diǎn)了:一機(jī)器擁有人工智慧,卻不代表擁有人工意識。 目前為止幾乎99.999****99%的人工智慧研究,都是專注于模擬人類的某種智能行為,并且用建出的模型去進(jìn)行某種生產(chǎn)活動(dòng)。這種活動(dòng)其實(shí)跟意識完全沒有關(guān)系,意思就是擁有人工智慧的機(jī)器會工作,但是對于工作、環(huán)境乃至世間萬物,都沒有真正的「感覺」。 說到意識,在哲學(xué)上仍是一個(gè)相對模糊且具有爭議性的概念,但目前在現(xiàn)象學(xué)(Phenomenology)中研究的意識架構(gòu),人類意識包含了以下(部分)因素: 意向性(Intentionality) 所謂意向性就是能夠「專注」于某事物上。比如說我們的意識擁有意向性,因此我們能夠去觀察特定的視覺物體、聲音,甚至是在腦海中想像某事物。 直覺性(Intuition) 直覺性粗略的解釋就是在意識中探索一物件的屬性,即使是在腦中想像一物件的材質(zhì)、重量、溫度等。 同理性(Empathy) 同理性,是意識透過觀察另一個(gè)體來感受特定經(jīng)驗(yàn)的能力。比如說一人可以看到另外一人快樂而想像對方的快樂。 以上只是現(xiàn)象學(xué)與哲學(xué)等領(lǐng)域非常粗淺的部分定義。由此可見,意識的本質(zhì)是人類一切價(jià)值判斷的基礎(chǔ),而從以上定義看來,目前沒有機(jī)器擁有類似人類的意識。故此,機(jī)器在進(jìn)行既定的處理工作時(shí),并沒有意向、直覺、同理等,因此機(jī)器即使從事跟人類一樣的工作,并不代表機(jī)器對于此工作有任何感覺,也不會對其有任何價(jià)值判斷。 至少在未來數(shù)十年內(nèi),敝人相信人工智慧的研究仍不會認(rèn)真考慮人工意識的可能性。 為什么呢?因?yàn)閾碛幸庾R和價(jià)值判斷的機(jī)器有能力出自自我意愿去抗拒命令,而這對于設(shè)計(jì)重視生產(chǎn)力的智慧型機(jī)器并沒有什么明顯的好處,只能說是有趣的實(shí)驗(yàn)而已,最后至多跟傳統(tǒng)人工智慧方法有類似的下場,因?yàn)槿狈?shí)用性而逐漸沒落。 故此,其實(shí)人們真正應(yīng)該擔(dān)心的不是智慧型機(jī)械,而是當(dāng)人工智慧日益強(qiáng)大,最后有心人士會怎么使用這些機(jī)器來破壞秩序(高頻交易造成股市和期貨市場動(dòng)蕩較以前劇烈就是很好的例子)。 結(jié)語 聊到這邊,我們對于人工智慧的討論差不多要告一段落了。現(xiàn)在重新回顧Boston Dynamics、AlphaGo還是人形機(jī)器人Sophia等機(jī)器,我們會發(fā)現(xiàn)其實(shí)這些最近的「人工智慧」突破,其實(shí)是機(jī)器學(xué)**的高精準(zhǔn)度結(jié)果。而先前討論過,機(jī)器學(xué)**的統(tǒng)計(jì)模型雖然可達(dá)到高精準(zhǔn)度,卻不具備有類似人類的知識管理和推理能力,因此,AlphaGo的演算法無法使其學(xué)**其他游戲(因?yàn)槠洳⒉痪邆溆锌珙I(lǐng)域之規(guī)則推理和歸納引擎)、Boston Dynamics的機(jī)器人若腳被換成輪子馬上就作廢(因?yàn)闄C(jī)器人其實(shí)不懂得透過推理去學(xué)**物理),而人形機(jī)器人Sophia雖然可以認(rèn)出你的臉和記住你的國籍和學(xué)歷,但是卻不了解你教育程度、文化背景對于你的生活、飲食**慣和工作**慣的影響(沒有深層的背景知識和推理能力)。 因此在看待這些人工智慧產(chǎn)品時(shí),我們對于人工智慧和人工意識的想像跟現(xiàn)代的機(jī)器學(xué)**工程方法有一定的出入,因此在驚奇之余實(shí)在無須太過緊張。 文章來源:微信公眾號“電子發(fā)燒友” |
|