午夜视频在线网站,日韩视频精品在线,中文字幕精品一区二区三区在线,在线播放精品,1024你懂我懂的旧版人,欧美日韩一级黄色片,一区二区三区在线观看视频

分享

從腦科學到人工智能

 文殊院士 2020-05-12

摘要:回顧人工智能(artificial intelligence,AI)的發(fā)展歷史,我們可以清晰地看到腦科學給AI領(lǐng)域帶來的巨大突破,如深度學習。目前,盡管AI及其應(yīng)用的發(fā)展趨勢已經(jīng)超越了人類的預(yù)期,但AI與人類智能之間仍然存在著難以逾越的鴻溝。從腦科學到AI、從了解大腦到模擬大腦,在腦科學與AI研究之間建立起一座橋梁已經(jīng)成為一種迫切需求。為此,我們首先需要通過研究新型腦成像技術(shù)來探索腦科學的秘密,建立大腦的動態(tài)連接圖譜以及將神經(jīng)科學實驗與理論、模型和統(tǒng)計學相結(jié)合等。在此基礎(chǔ)上,我們將進一步研究新一代AI理論和方法,從而建立起從機器感知和機器學習到機器思維和機器決策的顛覆性模型和工作模式。與此同時,本文還將討論在腦科學啟發(fā)新一代AI過程中的一些機遇與挑戰(zhàn)。

關(guān)鍵詞:人工智能;腦科學

1. 引言

從人工智能(artificial intelligence,AI)發(fā)展的歷史來看,我們可以清楚地看到腦科學與AI之間的聯(lián)系,許多AI的先驅(qū)科學家也是腦科學家。使用顯微鏡發(fā)現(xiàn)的生物大腦的神經(jīng)連接啟發(fā)了人們對人工神經(jīng)網(wǎng)絡(luò)[7]的研究;使用電子探測器發(fā)現(xiàn)的卷積特性和多層結(jié)構(gòu)啟發(fā)了人們對卷積神經(jīng)網(wǎng)絡(luò)和深度學習[10,11]的研究;使用通過正電子發(fā)射斷層掃描(PET)成像系統(tǒng)發(fā)現(xiàn)的注意力機制啟發(fā)了人們對注意力模塊[15]的研究;使用功能磁共振成像(fMRI)技術(shù)發(fā)現(xiàn)的工作記憶啟發(fā)了人們對機器學習模型中記憶模塊的研究,并最終發(fā)展成為對長短期記憶模型(LSTM)[25]的研究;使用雙光子成像系統(tǒng)發(fā)現(xiàn)的學習時期形成的脊柱變化啟發(fā)了人們對彈性權(quán)重鞏固(EWC)模型[31]的研究。雖然目前AI領(lǐng)域和腦科學領(lǐng)域似乎有些脫節(jié),但是腦科學的研究成果揭示了與AI原理相關(guān)的一些重要問題,并進一步使AI在理論和技術(shù)上取得了重大突破?,F(xiàn)在我們處于深度學習時代,而深度學習更是直接受到了腦科學的啟發(fā)。我們可以看到,越來越多的腦科學研究成果可以激發(fā)新的深度學習模型。在不久的將來,AI的下一個突破很可能來自腦科學。

2. 受腦科學啟發(fā)的AI

AI的研究目標是開展理論研究和開發(fā)能夠代替生物智能或人類智能來執(zhí)行任務(wù)的計算機系統(tǒng),并且該系統(tǒng)具有感知、識別、決策和控制等功能[1] 。相反,腦科學(亦被稱為神經(jīng)科學)的研究目標是研究生物大腦的結(jié)構(gòu)、功能和運行機制,如大腦是如何處理信息、做出決策以及與環(huán)境交互的[2]。顯然,AI可以被看作是對人類智能的模擬。因此,研究AI的一種簡單的方法是將AI與腦科學及其相關(guān)領(lǐng)域(如認知科學和心理學)相結(jié)合。事實上,許多AI研究的先驅(qū),如Alan Turing[3]、Marvin Minsky[4]、John McCarthy[5]和Geoffrey Hinton[6],都對這兩個領(lǐng)域非常感興趣,并為AI的研究做出了巨大的貢獻,這也歸功于他們在腦科學方面的扎實背景。

在現(xiàn)代計算機問世之后,AI的研究目標是建立智能“思維”機器。自AI誕生以來,AI與腦科學之間就存在著相互聯(lián)系。在20世紀初,由于顯微鏡的發(fā)展,研究人員觀察到了包括大腦在內(nèi)的神經(jīng)系統(tǒng)中神經(jīng)元之間的聯(lián)系。受到神經(jīng)元之間相互聯(lián)系的啟發(fā),計算機科學家開發(fā)了人工神經(jīng)網(wǎng)絡(luò),這是AI史上最早、最成功的模型之一。1949年,Hebbian學習算法被提出[7],它是最早的學習算法之一。該算法的提出是受到了生物神經(jīng)系統(tǒng)力學的啟發(fā)。當突觸兩側(cè)(輸入和輸出)的神經(jīng)元具有高度相關(guān)的輸出信號時,兩個神經(jīng)元之間的突觸會被加強;同樣,在Hebbian學習算法中,當輸入與輸出信號高度相關(guān)時,學習算法會增強兩個神經(jīng)元之間的連接權(quán)重。之后,人工神經(jīng)網(wǎng)絡(luò)受到研究人員的廣泛關(guān)注。一項具有代表性的研究成果是感知器[8],它直接模擬了大腦中的信息存儲和組織功能。感知器是一種具有多維輸入信號的單層人工神經(jīng)網(wǎng)絡(luò),它為之后的多層網(wǎng)絡(luò)的發(fā)展奠定了基礎(chǔ)。

1959年,1981年諾貝爾生理學或醫(yī)學獎獲得者Hubel和Wiesel利用電子信號探測器捕捉到了神經(jīng)元在視覺系統(tǒng)看到不同圖像時的反應(yīng)[9]。來自哺乳動物視覺皮層的單細胞記錄揭示了視覺輸入信號是如何在V1區(qū)域的簡單和復雜細胞中被過濾和匯集的。這項研究表明,大腦中的視覺處理系統(tǒng)進行了卷積操作,而且該系統(tǒng)具有多層結(jié)構(gòu)。生物系統(tǒng)利用具有非線性計算的連續(xù)層級結(jié)構(gòu)將原始視覺輸入信號轉(zhuǎn)換為越來越復雜的特征集,從而使視覺系統(tǒng)在識別視覺輸入信號時對姿勢和比例等變換保持不變。這些發(fā)現(xiàn)直接啟發(fā)了卷積神經(jīng)網(wǎng)絡(luò)[10,11],卷積神經(jīng)網(wǎng)絡(luò)是現(xiàn)階段深度學習技術(shù)的基本模型[12]。人工神經(jīng)網(wǎng)絡(luò)和深度學習的另一個關(guān)鍵組成部分是反向傳播算法[13],它解決了如何調(diào)整人工神經(jīng)網(wǎng)絡(luò)中的參數(shù)或權(quán)重的問題。有趣的是,反向傳播算法的基本思想最初是由神經(jīng)科學家和認知科學家在20世紀80年代提出的[14],而不是由計算機科學家或機器學習研究人員提出的。這些科學家觀測到,神經(jīng)系統(tǒng)的微觀結(jié)構(gòu)和生物大腦的神經(jīng)系統(tǒng)是通過一個學習過程逐步被調(diào)整的,其目的是最小化誤差和最大化輸出回報。注意力機制是在19世紀90年代首次被作為心理學概念而引入的,它的設(shè)計目的是使智能體可以選擇性地集中在一些重要信息上而不是全部信息上,從而改善認知過程 [15]。自20世紀90年代以來,研究者開始使用新的醫(yī)學成像技術(shù),如PET,去研究大腦的注意力機制。1999年,PET被用于研究大腦的選擇性注意力[16]。之后,研究人員通過運用更多的成像技術(shù),發(fā)現(xiàn)了更多關(guān)于生物大腦的注意力機制[17]。受到生物大腦中注意力機制的啟發(fā),AI研究人員開始將注意力模塊納入基于時間[18]或空間[19]方式的人工神經(jīng)網(wǎng)絡(luò)中,分別提高了深度神經(jīng)網(wǎng)絡(luò)在自然語言處理和計算機視覺任務(wù)中的性能表現(xiàn)。利用注意力模塊,人工神經(jīng)網(wǎng)絡(luò)能夠選擇性地關(guān)注重要的對象或詞語并忽略不相關(guān)的部分,從而使訓練和推理過程比傳統(tǒng)深度網(wǎng)絡(luò)更高效。

機器學習模型通常會忘記它已經(jīng)處理的數(shù)據(jù)中的信息,而生物智能卻能夠?qū)⑦@種信息記住一段時間,生物大腦有工作記憶功能,它能記住過去的數(shù)據(jù)。工作記憶的概念最初是在20世紀70年代被引入的,它是通過一些認知實驗所總結(jié)的[20,21]。自1990年以來,研究人員就開始使用PET和fMRI來研究生物大腦的工作記憶,并發(fā)現(xiàn)大腦的前額葉皮質(zhì)是關(guān)鍵部分[22–24]。受到腦科學工作記憶研究的啟發(fā),AI研究人員試圖將記憶模塊納入機器學習模型。一種典型的方法是LSTM[25],該方法為諸多序列處理任務(wù)奠定了基礎(chǔ),如自然語言處理、視頻理解以及時間序列分析。最近的一項研究表明,工作記憶模塊可以使機器學習模型執(zhí)行復雜的推理和工作任務(wù),如找到特定點之間的最短路徑并在隨機生成的圖形中推斷缺失的連接[26]。通過記憶以往的知識,我們可以進行一次性學習,即只需要標記少量的樣本就可以學習一個新的概念[27]。

連續(xù)學習是生物智能的一項基本技能,利用該方法可以在不會忘記以前任務(wù)的同時學習到新的任務(wù)。生物神經(jīng)系統(tǒng)是如何實現(xiàn)在不同時間學習多個任務(wù)的,這是一個具有挑戰(zhàn)性的研究課題。1990年,雙光子顯微技術(shù) [28]使得在單個突觸的空間尺度上觀察樹突棘在學習期間的體內(nèi)結(jié)構(gòu)和功能成為可能[29]。通過這種成像系統(tǒng),一些研究人員在2010年對大腦中新皮質(zhì)在連續(xù)學習期間的可塑性進行了研究,研究結(jié)果揭示了神經(jīng)系統(tǒng)在學習新任務(wù)時是如何通過控制神經(jīng)元的生長來記住之前的任務(wù)的[30]。受到生物神經(jīng)系統(tǒng)研究的啟發(fā),一種名為EWC的學習算法被提出并被用于深度神經(jīng)網(wǎng)絡(luò)的研究。這種算法在學習新任務(wù)時控制著網(wǎng)絡(luò)參數(shù)的變化,從而保留了舊的知識,使深度學習中的連續(xù)學習成為可能[31]

強化學習(RL)是一種被廣泛使用的機器學習框架,該框架已被用于許多應(yīng)用程序,如AlphaGo。它與AI智能體如何采取行動并與環(huán)境進行交互相關(guān)。事實上,RL也與生物學習過程密切相關(guān)[32]。時間差分學習(TDL)是一種重要的RL方法,也是RL的早期算法之一。TDL通過價值函數(shù)的當前估計值的引導來學習,該策略類似于動物系統(tǒng)中二階調(diào)節(jié)的概念[33]。

3. 腦計劃

許多國家和地區(qū)都開展了大腦研究項目以加速腦科學研究,如表1所示[34–39]。盡管研究的重點和路線不同,但基于腦科學的發(fā)現(xiàn)進行的下一代AI的開發(fā)是所有大腦研究項目的共同目標。各國政府和大多數(shù)科學家似乎已達成共識,即發(fā)展神經(jīng)成像和控制技術(shù)可以幫助我們探索大腦的工作原理,從而使我們能夠設(shè)計出更好的、包括硬件和軟件在內(nèi)的AI架構(gòu)。在研究期間,包括生物學、物理學、信息學和化學在內(nèi)的多個學科之間的相互合作對于實現(xiàn)不同方面的新發(fā)現(xiàn)是非常必要的。

在過去五年中,在大腦研究項目的支持下,研究者們?nèi)〉昧酥匾某晒?。光遺傳學的發(fā)展使我們能夠以單細胞分辨率精確地控制神經(jīng)活動[40]。利用先進的波束調(diào)制方法可以進一步實現(xiàn)大規(guī)模控制[41,42]。與此同時,多種方法已經(jīng)被研究人員提出,并被用來以3D形式記錄大規(guī)模神經(jīng)活動[43–45]。被記錄到的神經(jīng)元數(shù)量在不斷增加,從數(shù)十個增加到數(shù)千個,而且隨著大視場高分辨率成像技術(shù)的不斷發(fā)展,近期這一數(shù)量可能增加到數(shù)百萬個[46–48]。神經(jīng)光子學領(lǐng)域中顯著的技術(shù)進步為神經(jīng)科學中的重要發(fā)現(xiàn)提供了技術(shù)基礎(chǔ)[49,50]。例如,腦計劃(BRAIN Initiative)的關(guān)注重點將逐漸轉(zhuǎn)向發(fā)現(xiàn)驅(qū)動型科學。

BRAIN Initiative旨在通過神經(jīng)科學革新機器學習,其中一個經(jīng)典案例是MICrONS(大腦皮質(zhì)網(wǎng)絡(luò)的機器智能計劃)。通過使用連續(xù)切片電子顯微鏡,研究人員能夠以前所未有的分辨率通過3D形式重建復雜的神經(jīng)結(jié)構(gòu)[51]。結(jié)合多尺度數(shù)據(jù)的高通量數(shù)據(jù)分析技術(shù)[52,53],一些創(chuàng)新性的科學方法可以被開發(fā)以探索基本的神經(jīng)科學問題[54]?;谶@種被改進的理解方式,研究人員提出了用于深度神經(jīng)網(wǎng)絡(luò)的創(chuàng)新性架構(gòu),并嘗試對當前架構(gòu)的工作原理進行理解[55,56]。此外,當前的深度學習技術(shù)還可以對研究中大量的數(shù)據(jù)處理進行加速,從而形成良性循環(huán)。

受益于近年來的技術(shù)發(fā)展,我們能夠以前所未有的時空分辨率系統(tǒng)地觀察神經(jīng)活動。同時,許多大規(guī)模數(shù)據(jù)分析技術(shù)被提出,用于解決此類技術(shù)產(chǎn)生的大量數(shù)據(jù)所帶來的挑戰(zhàn)。按照這條路線,各種大腦研究項目可以指數(shù)形式加快腦科學研究。通過越來越多的研究成果,我們可以更好地了解人類的大腦。毫無疑問,大腦的工作原理將會啟發(fā)下一代AI的設(shè)計,這就像過去對大腦研究的發(fā)現(xiàn)啟發(fā)了今天的AI成就一樣。

4. 腦科學和AI之間的橋梁——儀器

利用儀器對大腦進行的觀測對AI的出現(xiàn)和發(fā)展作出了巨大的貢獻?,F(xiàn)代神經(jīng)生物學的發(fā)展是從亞細胞到組織水平的微觀結(jié)構(gòu)的信息獲取開始的,這一過程受益于顯微鏡的發(fā)明以及細胞和組織中物質(zhì)的偏色。著名的神經(jīng)解剖學家Santiago Ramo?n y Cajal是第一個使用Golgi染色法去觀察大量神經(jīng)系統(tǒng)組織標本的人,他提出了神經(jīng)元和神經(jīng)信號傳導的基本理論。Cajal和Golgi于1906年分享了諾貝爾生理學或醫(yī)學獎(Nobel Prize in Physiology or Medicine)。Cajal現(xiàn)在被廣泛稱為“現(xiàn)代神經(jīng)生物學之父”。

當前,我們對人類大腦日益豐富的理解得益于神經(jīng)技術(shù)所取得的各種進步,包括神經(jīng)元、神經(jīng)系統(tǒng)和大腦的控制、處理和信息獲取,以及認知和行為學習等。在這些進步中,用于高質(zhì)量成像采集的新技術(shù)和新儀器的研發(fā)早已成為焦點,并有望在未來受到更多關(guān)注。例如,美國在2013年推出的BRAIN Initiative旨在繪制動態(tài)大腦圖像,用于展示腦細胞與其周圍神經(jīng)回路之間快速而復雜的相互作用,并揭示神經(jīng)組織與大腦功能之間的多維交織關(guān)系。這類研究成果有望讓我們了解大腦記錄、處理、應(yīng)用、存儲和檢索大量信息的過程。2017年,BRAIN Initiative資助了哈佛大學的一些跨學科科學家,這些科學家致力于對神經(jīng)環(huán)路與行為之間的關(guān)系進行研究,他們主要通過使用高質(zhì)量成像技術(shù)來獲取和處理各種條件下神經(jīng)系統(tǒng)的大型數(shù)據(jù)集。

傳統(tǒng)的神經(jīng)科學研究主要采用電生理學方法,如利用金屬電極進行神經(jīng)刺激和信號采集,這種方法具有靈敏度高、時間分辨率高的優(yōu)點。然而,電生理學方法是侵入性的,它不適用于長時間的觀測。同時,該方法的空間分辨率較低、擴展能力有限,難以在單神經(jīng)元分辨率下對全局神經(jīng)活動進行并行觀測。相比之下,光學方法是非侵入性的,該方法具有高空間分辨率、高時間分辨率以及高靈敏度。這類方法能夠從神經(jīng)元個體、神經(jīng)活動及其相互作用中獲取動態(tài)和靜態(tài)信息,并能夠把對神經(jīng)系統(tǒng)的分析從亞細胞水平擴展到整個大腦。此外,光學方法還被發(fā)展成為一種控制工具,利用該工具通過光遺傳學方法可以控制高時空分辨率下的神經(jīng)活動。

開發(fā)具備大視場和高時空分辨率的技術(shù)和儀器已迫在眉睫。在空間尺度上,成像必須從幾十微米大小的亞微米突觸和神經(jīng)元跨越到幾毫米寬的大腦。在時間尺度上,幀獲取的速度應(yīng)高于所使用的熒光蛋白探針的響應(yīng)速率。然而,由于光學成像的固有衍射極限,其在大視場、高分辨率和大景深之間存在著固有的矛盾。適用于單個神經(jīng)元甚至更小組織的高分辨成像技術(shù)往往無法觀測到幾毫米以上的大腦組織結(jié)構(gòu),并且動態(tài)成像通常伴隨著更高的噪聲。然而,用于實時和長時間采集的活體非侵入式成像技術(shù)僅限于發(fā)生散色光的組織顆粒表層。如何突破上述瓶頸以及實現(xiàn)大視場、高時空分辨率和大景深將成為未來十年微觀成像技術(shù)發(fā)展面臨的最大挑戰(zhàn)。

最后,對微觀結(jié)構(gòu)維度的探索可能會產(chǎn)生一種新型的神經(jīng)計算單元,而對宏觀結(jié)構(gòu)維度進行的實時探索有助于理解跨腦思維的操作,并揭示了大腦在復雜環(huán)境下利用多個信息源(聽覺、視覺、嗅覺、觸覺等)進行綜合決策的機制。毫無疑問,整個大腦實時探索微觀和宏觀結(jié)構(gòu)維度的二元性將促進下一代AI的發(fā)展。因此,顯微成像儀器的發(fā)展目標是實現(xiàn)從像素到體速、從靜態(tài)到動態(tài)的更寬、更高、更快和更深的成像。這種儀器可以在“生物學的宏觀認知決策”與“神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與功能”之間建立直接聯(lián)系,為揭示“認知與智能”的計算本質(zhì)奠定基礎(chǔ),最終促進人類的自我認知,從而彌補AI與人類智能之間的差距。

致謝

本工作得到了中國工程院戰(zhàn)略咨詢研究項目(2019-XZ-9)、國家自然科學基金委員會重大科研儀器設(shè)備研制專項(61327902)、北京市科委項目(Z181100003118014)的資助。

References

[1] Russell SJ,Norvig P. Artificial intelligence: a modern approach. 3rd ed. New York: Pearson Education, 2010.

[2] Miller GA. The cognitive revolution:a historical perspective. Trends Cogn Sci 2003;7(3):141–4.

[3] Turing A. Computing machinery and intelligence. Mind 1950;236:433–60.

[4] Minsky M,Papert S. Perceptrons:an introduction to computational geometry. Cambridge,MA:MIT Press,1987.

[5] McCarthy J. Defending AI research:a collection of essays and reviews. Stanford:CSLI Publications,1996.

[6] Hinton GE,Rumelhart DE,McClelland JL. Distributed representations. In:Parallel distributed processing:explorations in the microstructure of cognition:foundations. Cambridge, MA: MIT Press;1986. p. 77–109.

[7] Hebb DO. The organization of behavior. Hoboken:John Wiley & Sons,1949.

[8] Rosenblatt F. The perceptron: a probabilistic model for information storage and organization in the brain. Psychol Rev 1958;65(6):386–408.

[9] Hubel DH, Wiesel TN. Receptive fields of single neurones in the cat’s striate cortex. J Physiol 1959;148(3):574–91.

[10] LeCun Y,Boser B, Denker JS,Henderson D,Howard RE,Hubbard W,et al. Backpropagation applied to handwritten zip code recognition. Neural Comput 1989;1(4):541–51.

[11] Krizhevsky A,Sutskever I, Hinton G. ImageNet classification with deep convolutional neural networks. In:Pereira F,Burges CJC,Bottou L,and Weinberger KQ, editors. Proceedings of the Neural Information Processing Systems 2012;2012 Dec 3–6;Lake Tahoe,NV,USA;2012. p. 1097–105.

[12] LeCun Y,Bengio Y,Hinton G. Deep learning. Nature 2015;521(7553):436–44.

[13] Rumelhart DE,McClelland JL. Learning internal representations by error propagation. In:Parallel distributed processing:explorations in the microstructure of cognition: foundations. Cambridge,MA: MIT Press;1986. p. 318–62.

[14] Rumelhart DE,McClelland JL. Parallel distributed processing:explorations in the microstructures of cognition:foundations. Cambridge,MA: MIT Press;1986.

[15] James W,Burkhardt F,Bowers F,Skrupskelis IK. The principles of psychology. New York:Henry Holt;1890.

[16] Raichle ME. Positron emission tomography. In:Wilson RA,Keil LC,editors. The MIT encyclopedia of the cognitive sciences. Cambridge,MA:MIT Press:1999. p. 656–8.

[17] Scolari M,Seidl-Rathkopf KN,Kastner S. Functions of the human frontoparietal attention network:evidence from neuroimaging. Curr Opin Behav Sci 2015;1:32–9.

[18] Bahdanau D,Cho K,Bengio Y. Neural machine translation by jointly learning to align and translate. 2014. arXiv:1409.0473.

[19] Reed S,Zhang Y,Zhang Y,Lee H. Deep visual analogy-making. In:Cortes C,Lawrence ND,Lee DD,Sugiyama M,and Garnett R, editors. Proceedings of the Neural Information Processing Systems 2015:2015 Dec 7–12:Montreal,QC,Canada;2015. p. 1252–60.

[20] Atkinson RC,Shiffrin RM. Human memory:a proposed system and its control processes. In:Spence KW,Spence JT,editors. Psychology of learning and motivation (volume 2). New York:Academic Press;1968. p. 89–195.

[21] Baddeley AD,Hitch G. Working memory. In:Bower GH,editor. Psychology of learning and motivation (volume 8). New York:Academic Press;1974. p. 47–89.

[22] Goldman-Rakic PS. Cellular and circuit basis of working memory in prefrontal cortex of nonhuman primates. Prog Brain Res 1990;85:325–35.

[23] McCarthy G,Puce A,Constable RT,Krystal JH,Gore JC,Goldman-Rakic P. Activation of human prefrontal cortex during spatial and nonspatial working memory tasks measured by functional MRI. Cereb Cortex 1996;6(4):600–11.

[24] Jonides J, Smith EE, Koeppe RA, Awh E, Minoshima S, Mintun MA. Spatial working memory in humans as revealed by PET. Nature 1993;363(6430):623–5.

[25] Hochreiter S,Schmidhuber J. Long short-term memory. Neural Comput 1997;9(8):1735–80.

[26] Graves A,Wayne G,Reynolds M,Harley T,Danihelka I,Grabska-Barwin?ska A, et al. Hybrid computing using a neural network with dynamic external memory. Nature 2016;538(7626):471–6.

[27] Santoro A,Bartunov S,Botvinick M,Wierstra D,Lillicrap T. One-shot learning with memory-augmented neural networks. 2016. arXiv:1605.06065.

[28] Denk W,Strickler JH,Webb WW. Two-photon laser scanning fluorescence microscopy. Science 1990;248(4951):73–6.

[29] Nishiyama J,Yasuda R. Biochemical computation for spine structural plasticity. Neuron 2015;87(1):63–75.

[30] Cichon J,Gan WB. Branch-specific dendritic Ca2+ spikes cause persistent synaptic plasticity. Nature 2015;520(7546):180–5.

[31] Kirkpatrick J,Pascanu R,Rabinowitz N,Veness J,Desjardins G,Rusu AA,et al. Overcoming catastrophic forgetting in neural networks. Proc Natl Acad Sci USA 2017;114(13):3521–6.

[32] Sutton R,Barto A. Introduction to reinforcement learning. Cambridge,MA:MIT Press;1998.

[33] Sutton RS,Barto AG. Toward a modern theory of adaptive networks:expectation and prediction. Psychol Rev 1981;88(2):135–70.

[34] Insel TR,Landis SC,Collins FS. The NIH BRAIN Initiative. Science 2013;340(6133):687–8.

[35] Jeong S,Lee Y,Jun B,Ryu Y,Sohn J,Kim S,Woo C,et al. Korea Brain Initiative:emerging issues and institutionalization of neuroethics. Neuron 2019;101(3):390?3.

[36] Amunts K,Ebell C,Muller J,Telefont M,Knoll A,Lippert T. The human brain project:creating a European research infrastructure to decode the human brain. Neuron 2016;92(3):574–81.

[37] Okano H,Sasaki E,Yamamori T,Iriki A,Shimogori T,Yamaguchi Y,et al. Brain/MINDS: a Japanese national brain project for marmoset neuroscience. Neuron 2016;92(3):582–90.

[38] Jabalpurwala I. Brain Canada: one brain one community. Neuron 2016;92(3):601?6.

[39] Alliance A. A neuroethics framework for the Australian Brain Initiative. Neuron 2019;101(3):365?9.

[40] Deisseroth K. Optogenetics. Nat Methods 2011;8(1):26–9.

[41] Pe?gard NC,Mardinly AR,Oldenburg IA,Sridharan S,Waller L,Adesnik H. Three-dimensional scanless holographic optogenetics with temporal focusing(3D-SHOT). Nat Commun 2017; 8(1):1228.

[42] Hochbaum DR, Zhao Y, Farhi SL, Klapoetke N, Werley CA, Kapoor V, et al. Alloptical electrophysiology in mammalian neurons using engineered microbial rhodopsins. Nat Methods 2014;11(8):825–33.

[43] Ji N,F(xiàn)reeman J,Smith SL. Technologies for imaging neural activity in large volumes. Nat Neurosci 2016;19(9):1154–64.

[44] Weisenburger S,Vaziri A. A guide to emerging technologies for large-scale and whole-brain optical imaging of neuronal activity. Annu Rev Neurosci 2018;41(1):431–52.

[45] Ahrens MB,Orger MB,Robson DN,Li JM,Keller PJ. Whole-brain functional imaging at cellular resolution using light-sheet microscopy. Nat Methods 2013;10(5):413–20.

[46] Kim TH,Zhang Y,Lecoq J,Jung JC,Li J,Zeng H,et al. Long-term optical access to an estimated one million neurons in the live mouse cortex. Cell Rep 2016;17(12):3385–94.

[47]McConnell G,Tr?g?rdh J,Amor R,Dempster J,Reid E,Amos WB. A novel optical microscope for imaging large embryos and tissue volumes with sub cellular resolution throughout. Elife 2016;5:e18659.

[48] Stirman JN,Smith IT,Kudenov MW,Smith SL. Wide field-of-view,multiregion,two-photon imaging of neuronal activity in the mammalian brain. Nat Biotechnol 2016;34(8):857–62.

[49] Chen JL,Carta S,Soldado-Magraner J,Schneider BL,Helmchen F. Behaviourdependent recruitment of long-range projection neurons in somatosensory cortex. Nature 2013;499:336–40.

[50] Sofroniew NJ,F(xiàn)lickinger D,King J,Svoboda K. A large field of view twophoton mesoscope with subcellular resolution for in vivo imaging. Elife 2016;5:e14472.

[51] Joesch M,Mankus D,Yamagata M,Shahbazi A,Schalek R,Suissa-Peleg A,et al. Reconstruction of genetically identified neurons imaged by serial-section electron microscopy. Elife 2016;5:e15015.

[52] Friedrich J,Yang W, Soudry D,Mu Y,Ahrens MB,Yuste R,et al. Multi-scale approaches for high-speed imaging and analysis of large neural populations. PLoS Comput Biol 2017;13(8):e1005685.

[53] Berens P,F(xiàn)reeman J,Deneux T,Chenkov N,McColgan T,Speiser A,et al. Community-based benchmarking improves spike rate inference from twophoton calcium imaging data. PLoS Comput Biol 2018;14(5):e1006157.

[54] Paninski L,Cunningham JP. Neural data science:accelerating the experimentanalysis-theory cycle in large-scale neuroscience. Curr Opin Neurobiol 2018;50:232–41.

[55] Hoffer E,Hubara I,Soudry D. Train longer,generalize better:closing the generalization gap in large batch training of neural networks. In:Guyon I,Luxburg UV,Bengio S,Wallach H,F(xiàn)ergus R,Vishwanathan S,and Garnett R,editors. Proceedings of the Neural Information Processing Systems 2017; 2017 Dec 4–9;Long Beach,CA,USA;2017. p. 1731–41.

[56] Kadmon J,Sompolinsky H. Optimal architectures in a solvable model of deep networks. In:Lee DD,Sugiyama M,Luxburg UV,Guyon I,and Garnett R,editors.Proceedings of the Neural Information Processing Systems 2016;2016 Dec 5–10;Barcelona,Spain;2016. p. 4788–96.

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多