當前位置: 華文世界 > 科技

微軟為美國情報部門提供「物理隔離版」ChatGPT

2024-05-09科技

如何將ChatGPT這樣的頂流人工智慧技術安全地武器化,供情報機構和軍隊使用?微軟給出的答案是「物理隔離」。

提示隱碼攻擊和訓練數據泄露是包括ChatGPT在內的當前主流大語言模型面臨的主要安全威脅,也是政府和軍隊將其武器化的主要障礙(雖然今年1月份OpenAI悄悄修改使用政策,默許軍方和情報部門使用)。例如,美軍已經禁止在內部使用ChatGPT之類的工具,因為擔心軍事機密可能被泄露或提取。

據彭博社報道,微軟公司近日打破常規,首次部署了一款與互聯網完全隔離的生成式AI模型。微軟表示,美國情報機構現在可以安全地利用這項強大技術(ChatGPT)來分析絕密資訊。

微軟的一位高管稱,這是大語言模型首次完全脫離互聯網執行。包括OpenAI的ChatGPT等大多數AI大語言模型都依賴雲服務來學習和推理數據模式,但微軟希望為美國情報界提供一個真正安全的系統。

世界各地的間諜機構都渴望利用生成式AI來幫助他們理解和分析每天生成的大量機密資訊,但同時又面臨著數據泄露或遭到網路攻擊的風險。微軟戰略任務和技術技術長William Chappell表示,微軟已將基於GPT-4的模型及其關鍵支持元素部署到一個與互聯網隔離的「物理隔離」的(私有)雲環境中。

美國情報機構官員曾多次明確表示渴望獲得與當今主流生成式AI功能同樣強大的工具,這類工具有望徹底改變傳統情報工作。去年,美國中央情報局(CIA)在非密級層面推出了類似於ChatGPT的服務(編者:五角大廈甚至用ChatGPT撰寫官網部落格),但情報界需要能夠處理更敏感數據的工具。

上個月,美國中情局跨國和技術任務中心助理主任Sheetal Patel在範德堡大學的一次安全會議上告訴與會代表:「獲取用於處理情報數據的生成式AI是一場競賽。」她表示:「率先將生成式AI用於情報工作的國家將贏得這場競賽,我希望是我們。」

微軟在過去18個月裏一直致力於該系統的開發,包括對愛荷華州一台AI超級電腦進行改造。參與該計畫的電氣工程師Chappell此前曾為國防高等研究計劃署(DARPA)開發微系統,他表示其團隊在2022年開始這項工作時並不確定該如何去做。

Chappell告訴彭博社:「這是我們第一次擁有一個‘孤立’的ChatGPT版本,這裏的孤立意味著它不連線互聯網,而是位於一個特殊網路上,只有美國政府才能存取。」

放置在雲端的GPT-4模型是靜態的,這意味著它可以讀取檔,但不能從中學習,也不能從開放互聯網中學習。Chappell表示,透過這種方式,政府可以保持模型的「幹凈」,並防止秘密資訊被平台吸收。「你不希望它學習你提出的問題,然後以某種方式泄露這些資訊,」Chappell透露:「理論上該AI模型支持大約1萬人存取。」

據悉,該服務已經於上周四上線,情報界正在對其進行測試和認證。Chappell表示:「該系統已經部署,正在回答問題,可以編寫程式碼,這只是它能做的事情的一部份。」

美國中央情報局和國家情報總監辦公室(負責監督美國18個情報機構)沒有立即回應媒體的置評請求。

參考連結:

https://www.bloomberg.com/news/articles/2024-05-07/openai-is-readying-an-ai-search-product-to-rival-google-perplexity