* “中美友好互信合作計(jì)劃”是由復(fù)旦發(fā)展研究院和豐實(shí)集團(tuán)共同打造的中美關(guān)系研究的學(xué)術(shù)平臺(tái) 導(dǎo)言:此前馬斯克曾發(fā)布反對(duì)人工智能通用大模型的請(qǐng)?jiān)感?,正在揭示伴隨著生成式人工智能大爆發(fā)而呼之欲出的人工智能治理。但正如彭博資訊科技專欄作家帕米·奧爾森 (Parmy Olson)指出的那樣,在某種程度上,埃隆·馬斯克的請(qǐng)?jiān)感艁?lái)的太晚了,因?yàn)樯墒饺斯ぶ悄芤呀?jīng)釋放了眾多風(fēng)險(xiǎn)。 在巨大的國(guó)內(nèi)外監(jiān)管呼吁下,ChatGPT之父、OpenAI首席執(zhí)行官山姆·奧特曼(Sam Altman)于當(dāng)?shù)貢r(shí)間2023年5月16日,在美國(guó)國(guó)會(huì)就人工智能技術(shù)的潛在風(fēng)險(xiǎn)參加聽(tīng)證會(huì),并首次公開(kāi)呼吁政府對(duì)生成式人工智能進(jìn)行監(jiān)管和干預(yù)。他的配合態(tài)度無(wú)疑將對(duì)生成式AI產(chǎn)業(yè)起到示范作用,對(duì)政府和社會(huì)的治理起到積極作用,預(yù)示著人工智能治理的又一個(gè)轉(zhuǎn)捩點(diǎn)。 那么,生成式人工智能 ChatGPT到底釋放了何種風(fēng)險(xiǎn)?將給人類社會(huì)帶來(lái)怎樣的沖擊與挑戰(zhàn)?通過(guò)簡(jiǎn)單梳理三、四月份涌現(xiàn)出的政府、機(jī)構(gòu)和行業(yè)對(duì)于生成式人工智能的負(fù)面反饋,我們便可以初步管窺。在西方社會(huì),人工智能帶來(lái)的一般社會(huì)問(wèn)題首先表現(xiàn)為權(quán)利與法的特殊形式,本文將之概括為權(quán)責(zé)危機(jī),即相關(guān)的權(quán)利與義務(wù)的調(diào)整、生成與分配上存在著危機(jī),而其本質(zhì)上則是擁有不同利益關(guān)切的社會(huì)組織與群體間的關(guān)系問(wèn)題,換言之,即社會(huì)關(guān)系問(wèn)題。 01 國(guó)會(huì)聽(tīng)證會(huì)中的OpenAI首席執(zhí)行官 值得注意的是,5月16日,OpenAi首席執(zhí)行官山姆·阿特曼(Sam Altman)出席參議院司法隱私、技術(shù)和法律小組委員會(huì)(Senate Judiciary Privacy, Technology & the Law Subcommittee)名為“人工智能監(jiān)督:人工智能規(guī)則”(Oversight of A.I.: Rules for Artificial Intelligence)的聽(tīng)證會(huì),這也是阿特曼首次公開(kāi)亮相國(guó)會(huì)山。聽(tīng)證會(huì)聚焦人工智能技術(shù)增長(zhǎng)帶來(lái)的公權(quán)力監(jiān)管、就業(yè)以及用戶關(guān)系等挑戰(zhàn)。 圖源:路透社 5月15日,阿特曼先與約60名眾議員舉行晚宴,并向他們閉門(mén)演示了一些ChatGPT的功能與場(chǎng)景。根據(jù)CNBC的報(bào)道,議員們對(duì)此評(píng)價(jià)頗高。“我認(rèn)為這太棒了,”眾議院民主黨核心小組副主席、加利福尼亞州民主黨眾議員泰德·劉(Ted Lieu)說(shuō),“讓國(guó)會(huì)議員全神貫注將近兩個(gè)小時(shí)并不容易,為此阿特曼提供了很多信息”;密歇根州民主黨眾議員海莉·史蒂文斯(Haley Stevens)表示,盡管她已進(jìn)入國(guó)會(huì)的第三個(gè)任期,但她“從未參加過(guò)這樣的會(huì)議”,并稱贊“我們整個(gè)國(guó)會(huì)的所有代表聚集在一起”參與“一個(gè)正在改變我們世界的話題”。 據(jù)《紐約時(shí)報(bào)》報(bào)道,聽(tīng)證會(huì)總體氣氛輕松和睦,議員并未對(duì)奧特曼先生進(jìn)行粗暴的盤(pán)問(wèn),因?yàn)樗麄兏兄x阿特曼先生與他們私下會(huì)面并同意出席聽(tīng)證會(huì),“阿特曼(談?wù)撐C(jī)時(shí))的坦率與真誠(chéng)吸引了華府的許多人”,新澤西州民主黨人科里·布克(Cory Booker)更是多次以“山姆”直呼阿特曼。對(duì)此,CNN評(píng)論稱,阿特曼在幾小時(shí)內(nèi)就完成了其他技術(shù)高管多年來(lái)一直試圖努力達(dá)到的目標(biāo):他“迷住了國(guó)會(huì)”。 阿特曼在美國(guó)參議院聽(tīng)證會(huì)上表示,人工智能被用來(lái)操縱選民和針對(duì)虛假信息的可能性是他“最關(guān)心的領(lǐng)域”,尤其是因?yàn)椤懊绹?guó)明年將面臨選舉,而這些模型正在變得更為強(qiáng)大?!?/strong> 對(duì)于工作崗位問(wèn)題,阿特曼承認(rèn)人工智能技術(shù)的發(fā)展會(huì)“破壞一些工作崗位”,但也會(huì)“創(chuàng)造新的崗位”。在新舊崗位的更替中,阿特曼認(rèn)為政府應(yīng)該著手制定緩解相應(yīng)沖擊的措施。 阿特曼還對(duì)用戶隱私問(wèn)題進(jìn)行了回應(yīng),他認(rèn)為人工智能的用戶應(yīng)有選擇刪除(輸入給AI的)個(gè)人數(shù)據(jù)的權(quán)利,而這些數(shù)據(jù)是訓(xùn)練AI模型的材料之一。 在5月15日晚,阿特曼在晚宴時(shí)首先提及人工智能監(jiān)管的問(wèn)題,阿特曼說(shuō),“我認(rèn)為一旦(人工智能)這項(xiàng)技術(shù)出了問(wèn)題,則可能就是極為嚴(yán)重的問(wèn)題。我們希望對(duì)此直言不諱……我們希望與政府合作,防止這種情況發(fā)生”。而在聽(tīng)證會(huì),阿特曼則指出,需要對(duì)人工智能進(jìn)行監(jiān)管,如果沒(méi)有針對(duì)(可能出現(xiàn)的)更強(qiáng)大人工智能的嚴(yán)格監(jiān)管標(biāo)準(zhǔn),未來(lái)二十年內(nèi)將會(huì)出現(xiàn)更多清晰的危險(xiǎn)。阿特曼還建議,成立一個(gè)以美國(guó)為主導(dǎo)的人工智能監(jiān)管機(jī)構(gòu),該機(jī)構(gòu)有權(quán)向?qū)嶓w授予或吊銷開(kāi)發(fā)人工智能的許可,而這類許可將具有極其強(qiáng)大的約束力。不過(guò),盡管阿特曼對(duì)人工智能的潛在危害進(jìn)行了約三小時(shí)的討論,他仍確認(rèn)OpenAI將繼續(xù)開(kāi)發(fā)有關(guān)技術(shù),他認(rèn)為,OpenAI對(duì)AI模型的“迭代部署”并不是魯莽行事,而是讓機(jī)構(gòu)有時(shí)間了解潛在威脅——這一戰(zhàn)略舉措將“相對(duì)薄弱”和“非常不完善”的技術(shù)引入世界,以幫助發(fā)現(xiàn)相關(guān)的安全風(fēng)險(xiǎn)。 在聽(tīng)證會(huì)上,共和黨參議員喬什·霍利(Josh Hawley)表示,人工智能可能具有革命性,但也將此比作“原子彈”的發(fā)明。民主黨參議員、委員會(huì)技術(shù)小組主席理查德·布盧門(mén)撒爾(Richard Blumenthal)則稱,人工智能主導(dǎo)的未來(lái)“不一定是我們想要的未來(lái)”。參議員理查德·布盧門(mén)撒爾(Richard Blumenthal)表示,此次聽(tīng)證會(huì)是旨在更多地了解人工智能的潛在利弊并最終為其“制定規(guī)則”的一系列聽(tīng)證會(huì)中的第一次。 不過(guò)阿特曼也面臨批評(píng)。華盛頓大學(xué)計(jì)算機(jī)語(yǔ)言學(xué)教授艾米莉·班德(Emily Bender)批評(píng)阿特曼與眾議員們?cè)谕硌缟系谋憩F(xiàn),“在參加旨在告知該行業(yè)如何受到監(jiān)管的聽(tīng)證會(huì)之前,作為受監(jiān)管約束的行業(yè)公司之一,其首席執(zhí)行官向監(jiān)管機(jī)構(gòu)進(jìn)行了一場(chǎng)魔術(shù)表演,這似乎非常糟糕”。班德補(bǔ)充說(shuō),“政客與記者一樣,必須抵制被打動(dòng)的沖動(dòng)”。政策研究中心AI Now Institute常務(wù)董事莎拉·邁爾斯·韋斯特(Sarah Myers West)則稱,阿特曼的法規(guī)建議不夠深入,還應(yīng)該包括限制人工智能在警務(wù)中的使用方式以及在生物識(shí)別數(shù)據(jù)等領(lǐng)域的使用。她指出,阿特曼沒(méi)有表現(xiàn)出任何減緩ChatGPT工具開(kāi)發(fā)的跡象。West女士評(píng)論稱:“看到人們對(duì)危害的擔(dān)憂態(tài)度是如此具有諷刺意味,(而正是)這些人正在迅速將造成這些危害的系統(tǒng)投入商業(yè)使用?!?/p> 02 ChatGPT的社會(huì)沖擊與權(quán)責(zé)危機(jī) 生成式人工智能對(duì)的社會(huì)沖擊在首當(dāng)其沖的西方世界中首先表現(xiàn)為對(duì)基本人權(quán)及其引申出的諸多權(quán)利構(gòu)成的沖擊,進(jìn)而對(duì)社會(huì)穩(wěn)定與可持續(xù)發(fā)展構(gòu)成的威脅。具體來(lái)說(shuō),其可能對(duì)社會(huì)與公眾的安全、所有權(quán)與生存發(fā)展,以及相關(guān)的社會(huì)公共治理造成沖擊。 (一)安全問(wèn)題 生成式人工智能可能給人身、財(cái)產(chǎn)和隱私與信息安全帶來(lái)威脅,從而威脅社會(huì)的普遍安全。 3月21日,紐約大學(xué)心理學(xué)與神經(jīng)科學(xué)教授加里·馬庫(kù)斯(Gary Marcus)就對(duì)ChatGPT的生成產(chǎn)品表示了擔(dān)憂,認(rèn)為由于大型語(yǔ)言模型(Large language model,簡(jiǎn)稱LLM)的自身缺陷,可能會(huì)增加錯(cuò)誤信息,從而影響社會(huì)上流通的信息的真實(shí)性,影響政治、經(jīng)濟(jì)與社會(huì)的安全與穩(wěn)定。ICO監(jiān)管風(fēng)險(xiǎn)執(zhí)行董事Stephen Almond也就大型語(yǔ)言模型對(duì)數(shù)據(jù)安全構(gòu)成的風(fēng)險(xiǎn)發(fā)出了警告。 六天后,3月27日,歐盟警方歐洲刑警組織(European Union police force,簡(jiǎn)稱Europol)就曾發(fā)出警告,指出ChatGPT可能被不法分子用于網(wǎng)絡(luò)釣魚(yú)、傳播虛假信息和網(wǎng)絡(luò)犯罪,從而對(duì)民眾的人身、財(cái)產(chǎn)和信息安全造成負(fù)面影響。 僅僅三天后,美國(guó)AI和數(shù)字政策中心(CAIDP)向美國(guó)聯(lián)邦貿(mào)易委員會(huì)(FTC)提起訴訟,指出AI文本生成工具“存在偏見(jiàn)、具有欺騙性,并且對(duì)公共安全構(gòu)成風(fēng)險(xiǎn)(biased, deceptive, and a risk to privacy and public safety)”,要求政府調(diào)查OpenAI是否違反了消費(fèi)者保護(hù)規(guī)則,并對(duì)生成式人工智能的發(fā)展實(shí)施更為嚴(yán)格的監(jiān)管。 緊隨其后,在3月31日和4月5日,意大利數(shù)據(jù)保護(hù)監(jiān)管機(jī)構(gòu)與英國(guó)數(shù)據(jù)監(jiān)管機(jī)構(gòu)分別對(duì)ChatGPT于3月20日發(fā)生的數(shù)據(jù)泄露事件開(kāi)展調(diào)查、監(jiān)管與處罰。前者認(rèn)為人工智能在訓(xùn)練算法時(shí)大規(guī)模收集和存儲(chǔ)個(gè)人數(shù)據(jù)的行為缺少法律依據(jù),并指出ChatGPT在實(shí)際運(yùn)行中可能違反數(shù)據(jù)保護(hù)規(guī)則。而后者則強(qiáng)調(diào)現(xiàn)有數(shù)據(jù)保護(hù)法律體系對(duì)生成式人工智能產(chǎn)品在數(shù)據(jù)隱私保護(hù)義務(wù)方面的強(qiáng)制約束力。 這些新聞也揭示了生成式人工智能在造謠傳謠、隱私泄露、被用于違法犯罪活動(dòng)等問(wèn)題上應(yīng)該承擔(dān)的義務(wù)。 (二)所有權(quán)問(wèn)題 私有制與所有權(quán)是現(xiàn)代社會(huì)的普遍制度與法律安排,涉及到人對(duì)自己的財(cái)產(chǎn)占有、使用、收益和處分等權(quán)利。在生成式人工智能方面,所有權(quán)體系面臨的沖擊主要是以版權(quán)為重要表現(xiàn)的知識(shí)產(chǎn)權(quán)及其收益權(quán)。 3月7日,美國(guó)波士頓聯(lián)邦法院在初創(chuàng)公司Neural Magic訴Meta公司侵犯其人工智能產(chǎn)權(quán)案中判定Meta公司敗訴。美國(guó)地區(qū)法官丹尼斯·卡斯珀(Dennis Kasper)表示,Neural Magic于2020年起訴Meta,指控其竊取自己的人工智能算法。 可以想象,伴隨著生成式人工智能軍備競(jìng)賽的無(wú)序擴(kuò)張,各個(gè)科技巨頭間的惡性競(jìng)爭(zhēng)很可能引發(fā)對(duì)初創(chuàng)科技企業(yè)的人工智能相關(guān)技術(shù)產(chǎn)權(quán)的吞并和侵奪,從而對(duì)現(xiàn)有知識(shí)產(chǎn)權(quán)保護(hù)體系構(gòu)成沖擊與調(diào)整。 除了技術(shù)產(chǎn)權(quán),文藝作品的版權(quán)同樣遭受到挑戰(zhàn)。4月2日,澳大利亞新聞集團(tuán)首席執(zhí)行官M(fèi)ichael Miller表示,如果允許ChatGPT這類的人工智能產(chǎn)品利用他人的原創(chuàng)內(nèi)容謀利而不支付報(bào)酬,內(nèi)容創(chuàng)作行業(yè)將遭受毀滅性的打擊。他指出,生成式人工智能的訓(xùn)練和產(chǎn)品生成,需要以包括內(nèi)容創(chuàng)作行業(yè)從業(yè)者的圖文作品在內(nèi)的數(shù)據(jù)集與信息庫(kù)為基礎(chǔ)。然而,在這一過(guò)程中,人工智能應(yīng)用程序卻沒(méi)有為其運(yùn)用的新聞和內(nèi)容付費(fèi)。因此,他要求政府應(yīng)制定相關(guān)法律,保障內(nèi)容創(chuàng)作者的權(quán)益。 這揭示了對(duì)生成式人工智能產(chǎn)品運(yùn)行所需的信息與數(shù)據(jù)的所有權(quán)識(shí)別與認(rèn)證問(wèn)題,以及由生成式人工智能生成的圖文產(chǎn)品的版權(quán)歸屬與分配問(wèn)題。 (三)生存發(fā)展權(quán)問(wèn)題 生成式人工智能對(duì)生存發(fā)展權(quán)帶來(lái)的最引人注目的沖擊,就是對(duì)就業(yè)與工作權(quán)利,造成的挑戰(zhàn)。這是生成式AI發(fā)展帶來(lái)的系統(tǒng)性的負(fù)外部性。 根據(jù)Open AI自己發(fā)布的研究報(bào)告《GPT就是GPT:大型語(yǔ)言模型對(duì)勞動(dòng)力市場(chǎng)潛在影響初探》(《GPTs are GPTs: An early look at the labor market impact potential of large language models》)顯示,對(duì)約80%的美國(guó)勞動(dòng)者而言,其10%的工作任務(wù)會(huì)被生成式人工智能的大語(yǔ)言模型影響,而對(duì)另外約19%的勞動(dòng)者而言,其至少50%的工作會(huì)受到影響。其中,編程和寫(xiě)作類技巧占主導(dǎo)的工作將主要受到波及。 將會(huì)受到生成式AI影響的職業(yè) 圖源:OpenAI 根據(jù)資本的或所謂“效率”的邏輯,更高的生產(chǎn)效率意味著生產(chǎn)相同單位產(chǎn)品可以投入更少的勞動(dòng),這意味著一部分職業(yè)的從業(yè)者可能在享受人工智能帶來(lái)的便利的同時(shí),也會(huì)看到高懸在頭頂上的“失業(yè)”的“達(dá)摩克里斯之劍”。 早在3月份,高盛的約瑟夫·布里格斯(Joseph Briggs)和德維什·科德納尼(Devesh Kodnani)便撰寫(xiě)的報(bào)告稱,像chatGPT這樣的生成式人工智能系統(tǒng)可能會(huì)全球3億個(gè)全職工作崗位,尤其是白領(lǐng)工作。其中,大約三分之二的工作將面臨某種程度的自動(dòng)化,而四分之一的工作可能被人工智能取代。高盛的報(bào)告強(qiáng)調(diào)美國(guó)的法律工作者與行政人員尤其會(huì)受到生成式AI的沖擊。而早些時(shí)候,普林斯頓大學(xué)(Princeton University)、賓夕法尼亞大學(xué)(University of Pennsylvania)和紐約大學(xué)(new York University)的研究人員進(jìn)行的一項(xiàng)評(píng)估也表示,法律服務(wù)行業(yè)最有可能受到chatGPT的影響。 Insider 在與包括麥肯錫全球研究所合伙人 Anu Madgavkar、高盛研究者 Manav Raj和畢馬威合伙人迪倫·羅伯茨 (Dylan Roberts) 在內(nèi)的專家們討論研究的基礎(chǔ)上,給出了一份被人工智能取代風(fēng)險(xiǎn)最高的工作清單,其中包括: ● 技術(shù)工作(編碼員、計(jì)算機(jī)程序員、軟件工程師、數(shù)據(jù)分析師) ● 媒體工作(廣告、內(nèi)容創(chuàng)作、技術(shù)寫(xiě)作、新聞) ● 法律行業(yè)工作(律師助理、法律助理) ● 市場(chǎng)研究分析師 ● 教師 ● 財(cái)務(wù)職位(財(cái)務(wù)分析師、個(gè)人財(cái)務(wù)顧問(wèn)) ● 貿(mào)易商 ● 平面設(shè)計(jì)師 ● 會(huì)計(jì)師 ● 客戶服務(wù)代理 這些擔(dān)憂或許是人工智能發(fā)展對(duì)就業(yè)市場(chǎng)帶來(lái)系統(tǒng)性沖擊,倒逼勞動(dòng)力群體轉(zhuǎn)型或升級(jí)的前奏。一旦沖擊發(fā)生,相關(guān)行業(yè)從業(yè)者的就業(yè)、生存與發(fā)展無(wú)疑會(huì)成為社會(huì)的重大問(wèn)題。屆時(shí),整個(gè)社會(huì)的結(jié)構(gòu)與社會(huì)治理體系都需要進(jìn)行系統(tǒng)性的調(diào)整以應(yīng)對(duì)。 (四)公開(kāi)透明問(wèn)題 而科技巨頭對(duì)人工智能開(kāi)發(fā)的高度壟斷性與封閉性則可能給普通民眾對(duì)人工智能工具的知情權(quán)、可使用性與其紅利的可及性(accessibility)帶來(lái)影響。這是制度性的負(fù)外部性。 一方面,民眾無(wú)法獲得人工智能發(fā)展的相關(guān)信息可能會(huì)阻礙他們對(duì)相關(guān)領(lǐng)域公共治理的參與。另一方面,壟斷技術(shù)的科技巨頭可能會(huì)使得普通民眾喪失議價(jià)權(quán),從而限制一般社會(huì)大眾對(duì)于這種前沿生產(chǎn)工具的使用,以及對(duì)其紅利的享有。 正如4月19日42個(gè)德國(guó)工會(huì)與協(xié)會(huì)組織就人工智能治理向政府請(qǐng)?jiān)笗r(shí)提到的那樣,政府應(yīng)該制定規(guī)則,明確責(zé)任與問(wèn)責(zé)制度,監(jiān)管人工智能基礎(chǔ)模型供應(yīng)商,以便在整個(gè)產(chǎn)品周期中規(guī)范人工智能的研發(fā)與生產(chǎn)。而意大利數(shù)據(jù)保護(hù)局也對(duì)ChatGPT提出了數(shù)據(jù)管理的透明度要求。 參考文獻(xiàn) https://www./chatgpt-jobs-at-risk-replacement-artificial-intelligence-ai-labor-trends-2023-02#tech-jobs-coders-computer-programmers-software-engineers-data-analysts-1 https://www./generative-ai-chatpgt-300-million-full-time-jobs-goldman-sachs-2023-3 https:///research/gpts-are-gpts https:///news/elon-musk-and-tech-execs-call-for-pause-on-ai-development https:///news/elon-musk-led-petition-to-halt-ai-development-divides-tech-community https://www./technology/2023/04/09/ai-safety-openai/ https:///article/artificial-intelligence-chatgpt-risks-petition-elon-musk-steve-wozniak-534f0298d6304687ed080a5119a69962 https://www./opinion/articles/2023-03-30/elon-musk-wants-to-pause-ai-progress-with-chatgpt-it-s-too-late-for-that?srnd=technology-vp&leadSource=uverify%20wall https://www.jiemian.com/article/8893975.html https:///publication/gpt-4-technical-report https://www.thepaper.cn/newsDetail_forward_22522162 https://mingukkang./GigaGAN/ https://www./index/introducing-claude https://ui.adsabs./abs/2023arXiv230311717Z/abstract https://ui.adsabs./abs/2022arXiv220613353C/abstract https:///articles/chatgpt-is-the-iphone-moment-of-ai-nvidia-ceo-says/ https:///articles/chatgpt-is-the-iphone-moment-of-ai-nvidia-ceo-says/ https://www./technology/venture-capitalists-race-land-next-ai-deal-big-techs-turf-2023-03-24/ https://cloud.tencent.com/developer/news/1045399 https://mp.weixin.qq.com/s/FXnD4onCIBQLM5XyWbQzUQ https://mp.weixin.qq.com/s/3425N1dtb9GXSKCFylOsnQ https://mp.weixin.qq.com/s/7QBFApCUl0Jl72pYBlDM1w https://mp.weixin.qq.com/s/xZh7YPdi19w1XwJEYIW6DA https://mp.weixin.qq.com/s/efBNTNrhUSaFptuhLFSzeg https://mp.weixin.qq.com/s/9KIFVYcm0S-Ejofu6NCRHw https://mp.weixin.qq.com/s/cuq1xSCaRNONic1xPnsVCw https://mp.weixin.qq.com/s/cg_k8FLwHYuGmktQy_kZ2w https://mp.weixin.qq.com/s/bzGjzXdIAjmM3H5RKwml_Q https://mp.weixin.qq.com/s/y7k7CXkcK3bdsvCyLId74g https://twitter.com/bcmerchant/status/1641553523849728000?s=20 https://www./technology/2023/04/09/ai-safety-openai/ https:///news/eu-legislators-call-for-safe-ai-as-google-s-ceo-cautions-on-rapid-development https://www./world/europe/german-authors-performers-call-tougher-chatgpt-rules-amid-copyright-concerns-2023-04-19/ https://www./2023/05/16/tech/sam-altman-openai-congress/index.html https://www./technology/2023/05/16/sam-altman-open-ai-congress-hearing/ https://www./2023/05/16/openai-ceo-woos-lawmakers-ahead-of-first-testimony-before-congress.html https://www./2023/05/16/technology/openai-altman-artificial-intelligence-regulation.html https://www./2023/05/17/tech/sam-altman-congress/index.html |
|
來(lái)自: 頤源書(shū)屋 > 《新場(chǎng)景》