這是國外情報專家對AI在情報領域應用的見解。文中觀點不代表本號立場。 小編
在當今混亂的世界里,專業(yè)情報分析師必須應對幾乎無窮無盡的數據流,這可能會讓他們不堪重負,同時也加劇了認知偏見的影響。人工智能是解決方案,還是會帶來更多風險(由于目前困擾人工智能的缺陷)?事實上,人工智能既不是萬靈藥,也不是危險。與其他新興技術一樣,人工智能并不是一種即時的“開箱即用”解決方案,而是一種持續(xù)發(fā)展的能力。今天,人工智能可以通過解決特定的挑戰(zhàn)來增強人類的能力并增強分析過程。然而,人工智能并非沒有問題。這意味著它的價值在于作為人類情報分析人員的專業(yè)知識和判斷的補充能力。在大規(guī)模采用人工智能來支持情報分析之前,有必要了解分析師面臨的具體問題:處理大量數據;從非傳統來源獲取數據;也許最令人煩惱的是,認知偏見會影響情報評估的客觀性。人工智能可以在緩解這些挑戰(zhàn)方面發(fā)揮重要作用,但前提是人類必須參與其中。數據過載,完整性和偏見 將小麥從谷殼中分離出來,或從每天收集的大量信息中進行分類,是當今困擾美國情報界的一個主要問題。盡管在自動化收集手段和相應的基礎設施上進行了投資,以存儲、組織和構建大量數據,提供給情報分析人員檢索和檢查。盡管這一令人印象深刻的過程可能消耗了美國情報界預算的很大一部分,但信息仍然掛一漏萬或未經人類分析。一個簡單的論點是,數據過多比數據不足更可取。然而,情報方面的失誤,比如2003年對伊拉克大規(guī)模殺傷性武器的錯誤識別,以色列情報部門未能辨別出1973年埃及和敘利亞領導的阿拉伯聯合軍隊即將入侵的原因(導致了贖罪日戰(zhàn)爭),以及2023年10月7日哈馬斯對以色列的突然入侵和襲擊,這些都表明,情報過??赡懿焕谥陵P重要的情報分析過程。特別是如果分析人員無法對現有信息進行分類和篩選,以確定對手意圖的關鍵指標。處理越來越多的信息需要情報分析人員對不同的數據點進行梳理、識別并綜合成一個判斷——如果做得好,可以減少不確定性。然而,認知偏差加上數據過多或數據質量差的問題困擾著這一過程,導致不精確的評估,可能導致政策和決策失敗,增加軍事行動的風險,以及其他不利和連鎖后果??紤]到情報分析的挑戰(zhàn)性,人工智能能否幫助避免這些后果,并為決策者提供關鍵、客觀和準確的信息?如果人工智能的前景是正確的,那么基于大型語言模型的ChatGPT等生成式人工智能技術可以提高分析過程的效率。例如,生成式AI可以總結冗長的文本(如國外灰色文獻,即由傳統商業(yè)或學術出版和分發(fā)渠道之外的組織所產生的資料和研究報告)、翻譯外語、進行開源情感分析、以及執(zhí)行各種其他功能。此外,生成式人工智能也可以在情報評估過程中提供幫助,但這些并沒有減輕人類情報分析師的關鍵作用。不過,生成式人工智能可以作為分析過程的輔助工具,幫助識別分析缺陷或不一致之處。雖然這些都是很有前途的功能,而且有理由認為情報機構已經將這些技術納入了他們的日常流程,但生成式人工智能并非沒有缺點。首先,生成式人工智能對緩解長期存在的分析偏見問題幾乎沒有幫助。基于大型語言模型構建的生成式人工智能技術依賴于預先存在的數據集,這些數據集本質上是非結構化的,并且可能存在缺陷。與此相關的是,今天的生成式人工智能模型容易出錯,并可能提供虛假或不準確的內容。這些“幻覺”與生成式人工智能模型的發(fā)展有關。盡管使用大量數據進行訓練,但如果生成式人工智能系統遇到不熟悉的單詞、短語或主題,或者如果數據不足,它將根據對語言的理解做出推斷,并給出系統認為合乎邏輯但可能是錯誤的答案。其次,確定對手的能力和意圖所需的信息不再僅僅是政府的職權范圍。非政府組織、私人實體、社交媒體公司和其他機構已經成為重要的數據經紀人,擁有了解戰(zhàn)略環(huán)境和構建準確情報評估所需的信息。在情報分析中使用生成式人工智能需要解決數據訪問、質量和偏見等相關的潛在問題。關于思考的思考:心態(tài)的邪惡本質 認為人類完全控制自己的思維過程是一種謬論。人類的思維表現出本能和無意識的傾向來處理新信息。例如,人類表現出一種尋找模式的傾向,比如因果關系,這有助于分析未知事物或遇到新的問題集。此外,作為生存本能的組成部分,個體潛意識地形成影響人類判斷和決策的心智模型或認知和感知偏見。心理模型是人類潛意識的組成部分,它通過我們在沒有意識控制的情況下執(zhí)行的心理捷徑指導我們的日常行為。就情報分析而言,心理模型是一種范式,它指導分析人員對對手將如何行動或情況將如何發(fā)展的思考過程。與心理模型相關的優(yōu)勢取決于上下文(語境)和環(huán)境。盡管如此,心智模型可以促進批判性思維,幫助決策,并將不同的觀點納入分析或決策過程。理想情況下,多種心智模型的結合可以產生更積極的情報分析結果。相反,在一個主題上的豐富經驗或知識可能被證明是有害的,因為心理模型可能會促使個人拒絕新的和矛盾的信息,或者錯誤地處理它。也許心理模型最令人擔憂的方面是抗拒變化的傾向。一旦分析師制定了評估,特別是如果評估經過了審查和批準,分析師的心智模型可能會阻止他們接受新的和實質性的信息,這些信息會改變他們評估的特征。心理模式加劇分析偏差的一個鮮明例子是,以色列情報機構未能正確識別導致1973年贖罪日戰(zhàn)爭(Yom Kippur War)的阿拉伯國家的意圖。在1967年六日戰(zhàn)爭取得成功之后,以色列在組織上和制度上都堅信以色列情報部門所說的“概念”。這一概念為以色列情報部門和政策制定者提供了分析框架,塑造了他們對阿拉伯國家活動的看法,他們認為,鑒于以色列在1967年戰(zhàn)爭中取得了壓倒性的成功,埃及和敘利亞在沒有對方配合的情況下不會發(fā)動攻擊,阿拉伯軍隊在沒有可能威脅以色列機場和平民的地對地彈道導彈的情況下不會發(fā)動攻擊。聯合起來的阿拉伯軍隊不會進攻,除非他們能夠通過提供蘇聯防空能力來對抗以色列的空中優(yōu)勢。以色列情報分析人員表現出一種傾向,只審查與概念有關的情報,企圖根據戰(zhàn)略計算而不是戰(zhàn)術現實來推斷阿拉伯人的意圖,助長了不精確的評估,導致未能預警阿拉伯聯合部隊的突然襲擊。人工智能助力? 情報機構是以信息為中心的組織,這意味著該組織的基礎依賴于持續(xù)不斷的數據流入。分析師隨后將這些“原始”數據轉換為連貫的信息,以供客戶演示或交付。很少,如果有的話,關于一個問題的全部事實會顯示出一個幾乎確定的結論。相反,情報機構是通過對不確定的事實(依賴通過情報收集行動)的評估、以及從分析人員的知識及專業(yè)經驗和培訓中得出的假設,力求評估的準確性。盡管他們對這個問題的歷史方面有著深刻的理解,(更重要的是)他們也擁有情報技術,但心智模型的不利影響始終籠罩著情報評估??紤]到心智模型潛在的無意識和非自愿影響,生成人工智能能否穿透人類認知的固有偏見,提供公正和客觀的評估?為了解決這個問題,首先有必要了解生成式人工智能如何使情報分析過程成為可能。也許生成式人工智能對情報分析的主要貢獻功能是能夠將復雜性提煉為分析師更易于管理的核心組件。具體來說,人工智能可以處理來自多個不同來源的大量結構化和非結構化數據,并確定數據中的聯系,而這些聯系對于人類分析師來說并不明顯。此外,假設生成式人工智能的大型語言模型具備能力,它可以融合來自多種情報渠道(如信號情報、人力情報、地理空間情報等)的信息,以更快的速度更清晰地描述問題??芍С中袆拥那閳蟮膬r值很高,特別是在時間敏感的場景中,因此,人工智能在識別模式和相關性方面的處理速度要快得多,這對分析師來說非常有價值。作為附帶的好處,支持行動的情報相關的交付及時性可以加強情報機構與其客戶之間的關系。人類與生成式人工智能系統交互的能力——即使提示包含令人困惑的語法、拼寫錯誤和缺乏標點符號——并得到有用的回應,這是自然語言處理的一個例證。自然語言處理促進了人類與人工智能之間的交互,使系統能夠處理和理解人類的文本和語音。目前世界上大約有7164種語言。此外,每天產生的數據量可能在3 - 4億Tb之間。從情報的角度來看,分析哪怕只是這些數據的一小部分,尤其是當來源是外語時,都是一項困難且耗時的任務。自然語言處理減輕了翻譯負擔,并有助于從文章、書籍和其他文檔等文本數據中提取相關信息。也許更重要的是,隨著這項技術的成熟,招聘、培訓和保留語言專家的需求將會減少。一切都與數據有關 數據分析和自然語言處理只是生成式人工智能在情報工作中的應用的一個例子。事實上,人工智能的前景可以在情報分析領域產生多種好處,而不僅僅是這兩種功能。然而,人工智能并非沒有問題。至關重要的是要強調,生成式人工智能的核心功能來自用于訓練模型的數據。如果數據集包含偏見,模型將繼續(xù)傳播甚至放大這些偏見。因此,我們回到了負面心理模型影響分析的長期問題,因為這些分析結果可能會成為生成式人工智能系統學習的數據。利用預先存在的情報數據集的主要后果是現有情報分析產品中包含的未知偏見成分。這些數據集的注入可能會繼續(xù)傳播有偏差的分析,形成一個循環(huán)過程,以指數方式增加不精確和可能可疑的情報產品匯編。生成式人工智能系統可能會提供由不完整或不準確的數據形成的誤導性輸出或幻覺,這是當今人工智能技術的一個普遍問題和固有限制。生成式人工智能系統根據訓練數據中的可觀察模式組合評估下一個單詞、短語、圖像或其他輸出。在缺乏數據或存在無關數據的情況下,生成式人工智能將推斷出最可能的內容序列,其中可能包含虛假陳述或簡單的虛構信息。因此,在這項技術成熟之前,人類的知識、經驗、專業(yè)知識和直覺將繼續(xù)是情報技術的重要組成部分。因此,高質量的數據對于使用生成式人工智能進行情報分析至關重要。也許獲取數據同樣重要。數據當然是一種商品:一種用于購買、銷售或收集的有利可圖的產品。盡管情報機構在獲取高度機密材料的復雜情報收集能力上可能花費了不成比例的資金,但隨著公開信息或開源信息的激增,政府不再壟斷數據。事實證明,私營部門的數據與通過高技術手段收集的數據一樣有價值,甚至更有價值。因此,情報機構應該努力獲取這些數據。然而,當政府試圖從私營部門獲取數據時,會出現一些挑戰(zhàn),包括信任問題、權屬問題和兼容性問題。一般來說,私營部門收集個人數據是為了通過為客戶提供個性化的產品和服務來改進公司的產品和服務,了解消費者行為,并提高客戶保留率。我們都可能經歷過基于我們的瀏覽歷史、過去的購買和人口統計數據的定向營銷活動。此外,多媒體流媒體公司通常通過播放列表或推薦接下來要聽或看的內容來提供定制體驗。最終,以消費者為基礎的公司分析數據,通過滿足他們的需求來發(fā)展和維護客戶關系。雖然這些數據中的大部分看起來微不足道,但如果該公司自由地與政府分享數據,可能會損害消費者的信任,并產生公眾對該公司的負面看法。此外,關于分享個人數據,特別是關于個人是否同意(或不同意)與政府實體分享他們的數據,還存在道德問題。除了以消費者為基礎的公司之外,還有一個龐大的行業(yè),即收集和銷售個人和企業(yè)的數據的行業(yè)。數據代理從各種公共和私人來源收集數據,然后將其出售,用于市場營銷、風險分析和商業(yè)智能等目的。此外,智庫、非政府組織、教育機構和其他各種開展數據收集和分析活動的機構也產生了大量公開可用的數據。然而,與政府實體共享這些數據可能會出現問題。私人組織可能認為他們的數據是專有的,因為它提供了競爭的市場優(yōu)勢,因此,共享可能會影響他們的市場地位。此外,私有實體根據其用途構建特定的數據,因此,兼容性問題(如數據模式變化、數據完整性和數據安全性)可能需要昂貴的集成解決方案。總的來說,這些數據的匯聚有可能增加情報數據的全面性,并為復雜的情報問題提供豐富的見解。很難反對加入額外的數據,因為這將加強情報分析過程。但情報機構如何獲取和利用這些信息的問題仍然存在。信任、專有數據和兼容性等問題無疑會加劇此類信息的獲取。不過,事實證明,將額外的數據集(尤其是那些由生成式人工智能支持的數據集)納入情報數據庫,將增強分析過程,是值得的。在這樣做的過程中,情報機構應該謹慎行事,避免繼承原始數據中的偏見。結論 情報問題通常不是信息收集不足的結果,而是分析不足的結果。面對情報失敗,部署新的和高度復雜的收集能力不一定是答案。人工智能肯定能幫上忙??焖僮R別大型數據集中的關系的能力肯定會提高情報分析的效率,并導致構建更精確的評估。生成式人工智能也可以幫助,但不能完全解決與認知偏見和心理模型相關的問題。但這需要情報機構對用于訓練模型的數據進行篩選,以確保它代表了經過深思熟慮和驗證的分析方法,以避免偏見。此外,由于數據是任何人工智能系統的組成部分,情報機構應該尋求合法的方法來獲取私營部門的數據,同時認識到與這些數據相關的兼容性、結構和信任的固有問題。這是一項具有挑戰(zhàn)性的任務,因為私營部門肯定會表現出不愿意向政府實體提供數據,擔心影響經濟底線或違反消費者信任。解決這種情況需要強有力的參與和戰(zhàn)略,以確保數據獲取,同時平衡私營組織的關注。為了解決幻覺問題,高質量的訓練數據與檢索增強生成(一種事實核查來源的功能)等工具相結合可以有所幫助。在短期內,生成式人工智能在情報方面的應用仍然需要分析師花時間驗證和反復檢查人工智能的貢獻,這讓人質疑這項技術的實用性。然而,隨著情報機構對各種模式進行測試和試驗,現在投入的時間肯定會在長期內獲得回報。采用和實驗這項技術將促進其成熟,訓練數據可以得到改善,促進生成式人工智能與情報技術的更大整合。也許生成式人工智能在情報領域取得成功的最關鍵因素是被情報分析界所接受。人工智能技術不是人類的替代品,相反,它們正在啟用仍然需要人類“在流程中”操作和改進功能的系統。情報工作與模糊性和復雜性作斗爭,以快速識別環(huán)境中的轉變和變化,并相應地將這些信息提供給那些有權和有能力制定和執(zhí)行決策的人。自動化和速度并不能免除情報分析人員的主要職責,即在正確的時間提出和考慮正確的問題,以提供及時準確的情報。情報專業(yè)人員既不應將人工智能視為靈丹妙藥,也不應該因人工智能尚不成熟而因噎廢食,而應將其視為一種毫無疑問會隨著時間的推移而改進的工具。諾亞·B·庫珀(Noah B. Cooper)是一名職業(yè)美國陸軍軍事情報官員,擁有近20年的經驗。他獲得約翰霍普金斯大學文學碩士學位和倫敦國王學院文學碩士學位。本文僅代表作者個人觀點,不代表美國陸軍、美國國防部或美國政府的官方政策或立場。
|