核心觀點
題目 | ChatGPT對學(xué)術(shù)期刊的影響及應(yīng)對策略研究 來源 | 《出版與印刷》2023年第4期 作者 | 張璐1)2), 郭曉亮1), 景勇1), 孫俊3) 作者單位 |1)沈陽工業(yè)大學(xué)學(xué)報編輯部;2)沈陽工業(yè)大學(xué)管理學(xué)院;3)遼寧能源投資集團遼寧省城鄉(xiāng)燃?xì)夤煞萦邢薰?/p> Doi | 10.19619/j.issn.1007-1938.2023.00.043 * 基金項目:遼寧省社會科學(xué)規(guī)劃基金重點項目“我國學(xué)術(shù)不端的系統(tǒng)治理與聯(lián)合預(yù)防”(編號L22AXW005),“融媒體時代學(xué)術(shù)期刊全球開放獲取發(fā)展路徑與趨勢研究”(編號L20AXW002);遼寧省教育科學(xué)“十四五”規(guī)劃項目“基于征信的學(xué)術(shù)誠信保障體系構(gòu)建”(編號JG21DB410);遼寧省教育廳科學(xué)研究經(jīng)費服務(wù)地方項目 “融媒體視角下學(xué)術(shù)期刊開放獲取發(fā)展路徑與趨勢研究”(編號WFGD202001)。 引用參考文獻(xiàn)格式: 張璐, 郭曉亮, 景勇, 等. ChatGPT對學(xué)術(shù)期刊的影響及應(yīng)對策略研究[J].出版與印刷,2023(4):91-96. 摘要 | 規(guī)避ChatGPT等人工智能工具不當(dāng)使用所帶來的風(fēng)險,助力學(xué)術(shù)期刊高質(zhì)量發(fā)展。ChatGPT在學(xué)術(shù)領(lǐng)域的不當(dāng)運用,給學(xué)術(shù)期刊帶來了一些負(fù)面影響和挑戰(zhàn),具體包括:增加學(xué)術(shù)不端行為的甄別難度;擾亂學(xué)術(shù)生態(tài)環(huán)境;增加學(xué)術(shù)共同體的不信任感,引發(fā)隱私安全問題。為應(yīng)對這些問題,提出以下建議:探索人機協(xié)同工作模式,強化對學(xué)術(shù)不端行為的問責(zé)機制;制定出版政策,規(guī)范人工智能工具的使用;加強用戶隱私保護,保障數(shù)據(jù)安全。 關(guān)鍵詞 | ChatGPT;人工智能;學(xué)術(shù)期刊;學(xué)術(shù)出版 → 查看HTML全文 生成式人工智能ChatGPT(Chat Generative Pre-trained Transformer)自發(fā)布以來,迅速風(fēng)靡全球,廣泛應(yīng)用于金融、教育、傳媒等領(lǐng)域。壹點智庫研究員運用壹點智庫“傳播力測評工具”對ChatGPT進(jìn)行傳播力測評發(fā)現(xiàn),僅2022年11月至2023年2月,關(guān)于ChatGPT的信息傳播總量就達(dá)到2 829 057條,其網(wǎng)絡(luò)傳播影響力指數(shù)的月度平均傳播廣度值達(dá)到5.24,根據(jù)信息傳播廣度等級的劃分標(biāo)準(zhǔn),可將ChatGPT的信息傳播廣度認(rèn)定為最高級——爆發(fā)級。[1]ChatGPT使用大規(guī)模的預(yù)訓(xùn)練模型和海量的語料庫來學(xué)習(xí)自然語言的語法、語義和上下文,具有強大的語言處理能力和邏輯能力,在全球產(chǎn)生了廣泛影響。ChatGPT強大的搜索能力和邏輯推理能力,使其具備了學(xué)術(shù)文本生成能力,給學(xué)術(shù)期刊的發(fā)展帶來挑戰(zhàn)。學(xué)術(shù)期刊是學(xué)術(shù)活動和學(xué)術(shù)研究成果的展示平臺,ChatGPT的出現(xiàn),增加了對學(xué)術(shù)不端行為的甄別難度,降低了學(xué)術(shù)生產(chǎn)的門檻,有可能引發(fā)更多隱私安全問題。因此,學(xué)術(shù)期刊一方面要積極擁抱新技術(shù),探索ChatGPT在學(xué)術(shù)生產(chǎn)中的可能應(yīng)用;另一方面也應(yīng)充分考慮ChatGPT在學(xué)術(shù)期刊領(lǐng)域可能引發(fā)的負(fù)面影響,有效控制其無序發(fā)展,避免其對學(xué)術(shù)生態(tài)造成威脅和破壞,進(jìn)而影響學(xué)術(shù)期刊的良性發(fā)展。 一、ChatGPT的出現(xiàn)與應(yīng)用 ChatGPT是由美國人工智能研究實驗室OpenAI研發(fā)的聊天機器人程序。作為一款由人工智能技術(shù)驅(qū)動的自然語言處理工具,ChatGPT被認(rèn)為是人類科技的又一個“技術(shù)奇點”,其使用處理序列數(shù)據(jù)的Transformer神經(jīng)網(wǎng)絡(luò)架構(gòu),能夠通過學(xué)習(xí)和理解人類的語言,連接大量來自真實世界中形成的語料庫,使用英語或其他語言就用戶感興趣的話題展開深度交流。[2]不僅如此,ChatGPT還能夠撰寫郵件、視頻腳本、文案、代碼,為用戶提供翻譯、繪圖、撰寫論文和詩句等服務(wù),可謂是一個“全能者”。截至2023年1月,ChatGPT的月用戶數(shù)已突破1億人次,成為歷史上增長最迅速的消費者應(yīng)用程序。據(jù)調(diào)查,美國有89%的大學(xué)生曾利用ChatGPT完成作業(yè)。[3]以色列總統(tǒng)赫爾佐格(Isaac Herzog)更是利用ChatGPT撰寫演講稿件,成為全球首位公開使用ChatGPT的國家領(lǐng)導(dǎo)人。[4]ChatGPT在短時間內(nèi)能夠在全球掀起風(fēng)暴是因為其廣泛的應(yīng)用領(lǐng)域。[5-6] 作為一種機器學(xué)習(xí)系統(tǒng),ChatGPT可以在大量文本數(shù)據(jù)集上進(jìn)行訓(xùn)練后,完成復(fù)雜且智能的寫作。例如,在醫(yī)療領(lǐng)域,應(yīng)用ChatGPT生成簡潔的出院小結(jié)和檢查報告,可節(jié)省人力成本,為醫(yī)護人員騰出寶貴的時間;[7]在工程管理領(lǐng)域,應(yīng)用ChatGPT可為簡單的建筑項目生成施工進(jìn)度表;在學(xué)術(shù)研究領(lǐng)域,ChatGPT可用于學(xué)術(shù)論文摘要的撰寫和文獻(xiàn)的搜集工作。[8] 二、ChatGPT對學(xué)術(shù)期刊的主要影響 1.增加學(xué)術(shù)不端行為的甄別難度 ChatGPT可以基于大量的互聯(lián)網(wǎng)文本數(shù)據(jù)進(jìn)行訓(xùn)練,根據(jù)用戶給定的上下文或者提示生成類似于人類撰寫的文本,內(nèi)容可涵蓋各種主題,并支持多種不同的語言和風(fēng)格。使用ChatGPT進(jìn)行AI對話時,用戶可以簡單地描述想要其完成的任務(wù),讓ChatGPT按照所提供的主題寫作。例如,用戶可以發(fā)出指令“寫一篇關(guān)于ChatGPT的文章”;也可以進(jìn)一步要求其按照提供的框架進(jìn)行寫作,例如“介紹ChatGPT的由來,圍繞其使用的技術(shù)和算法、應(yīng)用領(lǐng)域、未來前景等寫一篇文章”;還可以接著提出補充要求,如“將文章增加至1000字”;等等。通過這些操作,用戶可以對ChatGPT進(jìn)行精準(zhǔn)且有效的引導(dǎo)。[9]操作的便利、性能的卓越以及極低的應(yīng)用成本使ChatGPT被大量應(yīng)用于學(xué)術(shù)寫作。但如果不加限制地將ChatGPT濫用于學(xué)術(shù)寫作,就會造成抄襲泛濫,導(dǎo)致學(xué)術(shù)不端行為的發(fā)生。 由于ChatGPT具有強大的文本生成能力和邏輯推理能力,可以生成高質(zhì)量、邏輯嚴(yán)密的文本,因此辨別由ChatGPT生成的文本內(nèi)容難度較高。有研究者曾經(jīng)做過一個實驗,將作者原創(chuàng)的摘要和ChatGPT根據(jù)論文內(nèi)容生成的摘要交予專業(yè)審稿人審讀并進(jìn)行辨識,結(jié)果32%的由ChatGPT生成的摘要被審稿人識別為原創(chuàng)的論文摘要,14%的原創(chuàng)論文摘要被審稿人識別為ChatGPT生成的摘要。[10] 這意味著,僅僅依靠審稿人已較難識別論文的哪些內(nèi)容是由作者原創(chuàng),哪些內(nèi)容是由ChatGPT生成的。由此可以預(yù)見,未來隨著ChatGPT的發(fā)展和更迭換代,在學(xué)術(shù)審稿環(huán)節(jié)中,識別論文文本是否由ChatGPT生成將變得更為困難。這將大大增加學(xué)術(shù)期刊甄別學(xué)術(shù)不端行為的難度,從長遠(yuǎn)來看將影響學(xué)術(shù)期刊的高質(zhì)量發(fā)展。 2.弱化學(xué)術(shù)責(zé)任,擾亂學(xué)術(shù)生態(tài)環(huán)境 ChatGPT借助海量數(shù)據(jù),應(yīng)用語言訓(xùn)練模型,可以接受和輸出多種語言文本,表面上降低了知識生成和共享的門檻,但由于ChatGPT尚未發(fā)展完善,被應(yīng)用于論文寫作時,往往會給出一個看似合理但卻經(jīng)不起推敲甚至荒謬的答案,有時還會杜撰一些事件或未經(jīng)證實的研究成果。實際上ChatGPT生成的文本中常常存在錯誤和有違學(xué)術(shù)倫理的內(nèi)容,如果作者在學(xué)術(shù)研究中不當(dāng)使用ChatGPT,學(xué)術(shù)期刊審稿人又未能及時識別,就可能導(dǎo)致這些錯誤內(nèi)容的傳播,擾亂學(xué)術(shù)生態(tài)環(huán)境。 此外,ChatGPT “參與”寫作,還可能帶來學(xué)術(shù)責(zé)任分散的風(fēng)險,[11]如果ChatGPT生成的文本出現(xiàn)問題,有可能導(dǎo)致問責(zé)無法落實到具體的個人。更重要的是,在論文寫作過程中過多使用ChatGPT,會導(dǎo)致作者對ChatGPT形成依賴,削弱作者的創(chuàng)造能力。長此以往,可能產(chǎn)生大量由ChatGPT拼湊而成的“學(xué)術(shù)垃圾”,看似“形式規(guī)范、論述嚴(yán)謹(jǐn)”,卻經(jīng)不起推敲,更談不上學(xué)術(shù)創(chuàng)新,嚴(yán)重影響整個學(xué)術(shù)生態(tài)的良性發(fā)展。 3.增加學(xué)術(shù)共同體的不信任感,引發(fā)隱私安全問題 隨著語料庫的不斷擴容,ChatGPT的深度學(xué)習(xí)特質(zhì)和高度仿真性,使其在人機互動時越來越接近人類思維,表現(xiàn)出更高智能。未來,不僅作者應(yīng)用ChatGPT來撰寫論文,同行評審人也可能借助ChatGPT審閱稿件、提供審稿意見。由于ChatGPT生成文本的準(zhǔn)確性和可靠性尚不能保證,如果在學(xué)術(shù)研究中廣泛使用ChatGPT,可能增加作者、評審人、編輯、讀者等學(xué)術(shù)共同體成員之間的不信任感。 ChatGPT擁有強大的邏輯推理能力和“萬能計算能力”。當(dāng)用戶首次使用該程序時,需要對個人信息進(jìn)行登記,以便在系統(tǒng)中建立個人賬戶,為系統(tǒng)的大數(shù)據(jù)算法和智能推理等核心功能提供必要的信息。這一操作就可能引發(fā)隱私安全問題。若該研究者之后使用ChatGPT輔助學(xué)術(shù)創(chuàng)作時,又在系統(tǒng)中提供研究的創(chuàng)作思路、核心觀點、創(chuàng)新點等,不僅會引發(fā)隱私安全問題,還有可能造成涉密信息和數(shù)據(jù)泄露的風(fēng)險。 三、學(xué)術(shù)期刊應(yīng)對ChatGPT的策略建議 1.探索人機協(xié)同工作模式,強化對學(xué)術(shù)不端行為的問責(zé)機制 當(dāng)前,人工智能技術(shù)正從“弱人工智能”模式向“強人工智能”模式轉(zhuǎn)變,以ChatGPT為代表的人工智能可以輔助科研工作者進(jìn)行文獻(xiàn)搜集,快速找到與投稿方向相適應(yīng)的學(xué)術(shù)期刊,加快學(xué)術(shù)科研成果的生成和傳播。但是,ChatGPT不能完全代替人類完成論文撰寫工作,在學(xué)術(shù)寫作中使用ChatGPT必須以人為中心,人工智能為輔助。 對學(xué)術(shù)期刊來說,在學(xué)術(shù)出版的各個階段都可以考慮如何有效利用ChatGPT。例如:在選題策劃階段,可以嘗試使用ChatGPT廣泛收集信息,形成備選方案,供編輯部討論和論證,形成最終決策;在同行評審階段,ChatGPT可以對論文進(jìn)行分類標(biāo)引,推薦審稿專家,收集相同主題的論文,輔助審稿專家審閱稿件;在編輯出版階段,ChatGPT可以替代人工完成大量重復(fù)、繁瑣的編校工作,如核對參考文獻(xiàn)、規(guī)范格式、修改錯別字、統(tǒng)一表述等,期刊編輯可節(jié)省出時間加強期刊內(nèi)容建設(shè)。利用ChatGPT的技術(shù)賦能,可以實現(xiàn)對學(xué)術(shù)期刊出版全流程管控與監(jiān)測,以提高學(xué)術(shù)期刊的辦刊靈活性,打造人機協(xié)同工作模式。[12-13] ChatGPT廣泛應(yīng)用于學(xué)術(shù)期刊出版,在提高研究者和編輯工作效率的同時,也不可避免帶來抄襲、剽竊等學(xué)術(shù)不端問題,影響學(xué)術(shù)環(huán)境的公平性。因此,為防止ChatGPT對學(xué)術(shù)生態(tài)造成負(fù)面影響,學(xué)術(shù)期刊應(yīng)加強對學(xué)術(shù)不端行為的審查,一旦發(fā)現(xiàn)學(xué)術(shù)不端行為,即可通報給作者所在單位進(jìn)行內(nèi)部調(diào)查,并在專門的學(xué)術(shù)不端治理機構(gòu)(如教育行政部門、高校學(xué)術(shù)委員會等)備案,請求其跟蹤、調(diào)查,從根本上杜絕學(xué)術(shù)研究中的不正之風(fēng)。 2.制定出版政策,規(guī)范人工智能工具的使用 技術(shù)在發(fā)展,相關(guān)政策也應(yīng)隨之調(diào)整。毋庸置疑,今后將有越來越多的學(xué)者使用ChatGPT生成文本、撰寫摘要、生成圖表或圖片,學(xué)術(shù)期刊及其主管部門盡快制定關(guān)于人工智能輔助學(xué)術(shù)生產(chǎn)的新政策成為學(xué)術(shù)界的當(dāng)務(wù)之急。國外著名期刊Science(《科學(xué)》)、Nature(《自然》)、Cell(《細(xì)胞》)、The Lancet(《柳葉刀》)等最近紛紛更新了出版政策,特別說明了關(guān)于人工智能的應(yīng)用規(guī)范。Science發(fā)表了一篇標(biāo)題為ChatGPT is fun, but not an author(《ChatGPT很有趣,但它不是作者》) 的文章,認(rèn)為如果沒有得到明確許可,任何論文都不得使用ChatGPT生成的文本,更不能將ChatGPT列為文章作者。[14]Nature于2023年1月24日發(fā)布了類似禁令,即不接受將人工智能模型列為論文作者,不同的是,論文本身可使用人工智能工具產(chǎn)生文本,但應(yīng)在研究方法或致謝中標(biāo)示清楚。Cell和The Lancet也允許使用人工智能工具,但不能取代文章作者完成關(guān)鍵性任務(wù),作者還必須在論文中聲明是否以及如何使用了人工智能工具。同時,針對ChatGPT生成的文本難以辨識這一問題,施普林格·自然(Springer Nature)正在積極研發(fā)偵測AI產(chǎn)生文本的工具,以期能對其準(zhǔn)確分辨。[15]關(guān)于ChatGPT的使用限制也擴展至高校,例如,香港大學(xué)禁止學(xué)生在課堂、作業(yè)和考試中使用ChatGPT等人工智能工具,違規(guī)使用將被視為剽竊,如教師懷疑學(xué)生使用ChatGPT等人工智能工具,可要求其進(jìn)行額外加試。[16] 就當(dāng)前來看,ChatGPT生成內(nèi)容的最大問題在于其無法代替人類的責(zé)任以及知識產(chǎn)權(quán)歸屬問題,也就是說人工智能無法對論文內(nèi)容的完整性和道德倫理性負(fù)責(zé)。但人工智能的發(fā)展勢不可擋,筆者認(rèn)為,不必完全禁止ChatGPT的使用,要利用其相關(guān)優(yōu)點,推動科技進(jìn)步和文化傳播。目前,ChatGPT正迅猛介入學(xué)術(shù)研究領(lǐng)域,但相關(guān)政策制定卻相對滯后,監(jiān)督機制尚未建立,難以有效應(yīng)對ChatGPT賦能學(xué)術(shù)生產(chǎn)可能導(dǎo)致的新型道德倫理問題。除法律法規(guī)、管理規(guī)范等硬約束手段不健全,關(guān)于ChatGPT使用的道德準(zhǔn)則和倫理原則等軟約束條件也同樣欠缺,使在學(xué)術(shù)研究領(lǐng)域使用人工智能工具的行為尚處于自由生發(fā)狀態(tài)。要解決這些問題意味著學(xué)術(shù)期刊界需要制定共同的行業(yè)道德標(biāo)準(zhǔn)、樹立一致的價值理念、建立ChatGPT等人工智能使用的倫理和準(zhǔn)則,提出一套相對完善、可操作、兼顧工具理性和價值理性的實操框架,以防止技術(shù)的濫用。 3.加強用戶隱私保護,保障數(shù)據(jù)安全 “沒有網(wǎng)絡(luò)安全就沒有國家安全”[17],這無疑強調(diào)了網(wǎng)絡(luò)安全的重要性。作為網(wǎng)絡(luò)安全的重要組成部分,數(shù)據(jù)安全受到廣大科研工作者的關(guān)注,保障數(shù)據(jù)安全是一項極其復(fù)雜的系統(tǒng)工程。在數(shù)據(jù)隱私和數(shù)據(jù)安全方面,由于ChatGPT可能在未征得用戶授權(quán)的情況下收集、處理數(shù)據(jù)或超范圍使用數(shù)據(jù),這將帶來個人信息和隱私泄露的風(fēng)險。這一問題已引起各行各業(yè)的擔(dān)憂。同樣,ChatGPT的使用也給學(xué)術(shù)期刊的用戶隱私保護和數(shù)據(jù)安全等帶來了諸多隱患。 然而,隱私保護不是一個單一的問題,必須通過國家、行業(yè)以及個人等多層面的努力,加強對用戶隱私的保護。首先,在國家層面,應(yīng)該通過立法保護用戶的隱私和數(shù)據(jù)安全。目前,與人工智能使用相關(guān)的法律法規(guī)不夠健全,迫切需要進(jìn)行修訂與完善。只有通過國家立法從根本上保護用戶的隱私和數(shù)據(jù)安全,才能有法可依地打擊ChatGPT等人工智能工具對用戶個人隱私和個人信息的侵犯。[18]這也是保護學(xué)術(shù)期刊用戶個人隱私和數(shù)據(jù)安全的重要措施。其次,在行業(yè)層面,學(xué)術(shù)期刊應(yīng)遵守行業(yè)底線,擔(dān)負(fù)起保護用戶數(shù)據(jù)和隱私的社會責(zé)任。學(xué)術(shù)期刊的投審稿系統(tǒng)在登記用戶信息時,應(yīng)秉持“最小收集”原則,充分尊重用戶個人隱私,并最大程度地防止用戶個人隱私的濫用和泄露。最后,在個人層面,用戶需要主動提高隱私保護意識。以ChatGPT的安裝為例,用戶要想使用該程序模型,需要填寫必要的個人相關(guān)信息,如聯(lián)系人、電話、郵箱等,同時需要注明使用ChatGPT的原因及用途。這意味著從此時起,使用者的個人隱私已存在被泄露的風(fēng)險。為防止ChatGPT等人工智能工具對信息數(shù)據(jù)的竊取,用戶個人需要建立起隱私保護的第一道屏障,主動提高隱私保護意識,在使用結(jié)束后可主動刪除歷史數(shù)據(jù)。此外,用戶進(jìn)行數(shù)據(jù)匿名也不失為強化數(shù)據(jù)安全和隱私保護的一種方法。 四、結(jié)語 ChatGPT等人工智能工具的廣泛應(yīng)用,給學(xué)術(shù)期刊帶來了許多潛在風(fēng)險,但挑戰(zhàn)與機遇并存,不能因為存在風(fēng)險就一概否定。ChatGPT如被不加限制地使用,可能對學(xué)術(shù)研究和學(xué)術(shù)期刊造成威脅和破壞,影響學(xué)術(shù)期刊的高質(zhì)量發(fā)展;但如果善加引導(dǎo),則將助力學(xué)術(shù)期刊的良性發(fā)展。為規(guī)避新興技術(shù)使用可能帶來的風(fēng)險,使其發(fā)揮積極作用,應(yīng)從多方面入手,例如通過探索新模式、制定新政策、開發(fā)新技術(shù)等,使ChatGPT等人工智能工具得到正確使用,為學(xué)術(shù)期刊高質(zhì)量發(fā)展保駕護航。 參考文獻(xiàn) Title:Research on the Impact of ChatGPT on Academic Journals and Corresponding Strategies Author : ZHANG Lu1)2), GUO Xiaoliang1), JING Yong1), SUN Jun3) AuthorAffiliation : 1) Editorial Department of Journal of Shenyang University of Technology; 2) School of Management, Shenyang University of Technology; 3) Liaoning Energy Investment Group Liaoning Urban Rural Gas Co., Ltd. Abstract : This research aims to avoid the risks caused by the improper use of artificial intelligence tools such as ChatGPT and assist in the high-quality development of academic journals. The improper use of ChatGPT in the academic field has brought some negative impacts and challenges to academic journals, including increasing the difficulty of identifying academic misconduct; disrupting the academic ecological environment; increasing the sense of distrust in the academic community and provoking privacy and security issues. To address these issues, the following suggestions are proposed: exploring the human-machine collaborative work modes and strengthening the accountability mechanisms for academic misconduct; developing publishing policies to standardize the use of artificial intelligence tools; strengthening the protection of user privacy and ensuring the data security. Keywords : ChatGPT;artificial intelligence;academic journal;academic publishing 編輯:許彤彤 審核:靳瓊 熊喆萍 期刊簡介 《出版與印刷》于1990年創(chuàng)刊,是由上海市教育委員會主管、上海出版印刷高等專科學(xué)校主辦,經(jīng)國家出版主管部門批準(zhǔn)的學(xué)術(shù)性期刊。本刊專注現(xiàn)代出版與印刷專業(yè)人才培養(yǎng),服務(wù)出版與印刷產(chǎn)業(yè)轉(zhuǎn)型發(fā)展,促進(jìn)出版與印刷領(lǐng)域的產(chǎn)教研深度融合。讀者對象主要為出版與印刷領(lǐng)域教育、科研及從業(yè)人員。主要欄目設(shè)有本期聚焦、研究與觀察、出版實務(wù)、期刊研究、印刷與包裝、出版融合、專業(yè)人才培養(yǎng)、出版史話等,內(nèi)容注重學(xué)術(shù)性、專業(yè)性、實用性和可讀性。 《出版與印刷》為中國人文社會科學(xué)期刊AMI綜合評價擴展期刊,《中國學(xué)術(shù)期刊影響因子年報》統(tǒng)計源期刊。全文收錄于中國知網(wǎng)、萬方數(shù)據(jù)、中文科技期刊數(shù)據(jù)庫、超星期刊等。2021年入選第七屆華東地區(qū)優(yōu)秀期刊。 |
|