當前位置: 華文世界 > 科技

探索生成式人工智能的治理新境

2024-07-19科技
今年以來,多個國家和地區紛紛致力於人工智能治理框架的構建與叠代。其中,3月14日,歐盟在法國斯特拉斯堡正式透過了全球首個全面的人工智能法律框架——【人工智能法案】,這一舉措標誌著人工智能領域法規制定的裏程碑。面對大模型套用的迅猛增長,歐盟理事會連續三次對通用型人工智能模型提出了多項更新的合規要求。5月7日,中法兩國基於【中法聯合聲明】進一步釋出了【中法關於人工智能和全球治理的聯合聲明】,這份聲明涵蓋了「智能向善」的宗旨、加強國際合作、縮小數碼鴻溝以及提升發展中國家的人工智能能力等十點共識。這些共識不僅體現了兩國在人工智能領域的共同願景,也為全球人工智能治理提供了重要參考。自ChatGPT等生成式人工智能技術出現以來,新興技術在算力設施、演算法模型以及功能套用等方面均取得了顯著進步。然而,這一進步也凸顯了傳統人工智能治理框架的局限性。面對這些挑戰,全球各治理主體積極尋求治理理念的革新和治理路徑的創新,為新時期新興數碼技術的治理提供了寶貴經驗。
生成式人工智能發展之「快」
縱觀ChatGPT問世至今的一年半時間,生成式人工智能技術已取得了質的飛躍。這一「快」不僅體現在技術進步的速度上,更體現在其廣泛而深遠的影響上,為各行各業帶來了前所未有的變革。
在算力基礎方面,今年6月2日,輝達展示的最新量產芯片Blackwell引人註目,其整合了高達2080億顆晶體管,並采用了統一記憶體架構與雙芯配置。這一創新使得訓練算力飆升至驚人的20000TFLOPS,相較於第一代AI芯片的19TFLOPS,實作了高達1000倍的顯著提升。市場分析預測,2024年AI芯片的市場規模將超過650億美元,並且會有更多客製化芯片部署需求。中國亦在算力基礎設施方面積極布局,根據【算力基礎設施高質素發展行動計劃】,預計到2025年,智能算力將占據35%的比重,而重點行業核心數據、重要數據的災備覆蓋率將達到100%,展現了中國在算力發展上的堅定決心和前瞻布局。 在模型演算法方面,OpenAI於5月14日推出的全新旗艦模型GPT-4o備受矚目。這裏的「o」寓意著「omni」,即全能,它不僅能夠處理傳統的文本或語音模式,還擅長多工處理,接受多模態任意組合輸入,並能即時輸出圖文、音像等多種形式的內容。國內學界與業界在模型技術方面同樣取得了實質性突破。商湯科技釋出的「日日新SenseNova5.0」、阿裏雲推出的「通義千問2.5」,以及字節跳動釋出的「豆包大模型」,都在語言、知識、推理、程式碼等方面有顯著提升,標誌著中國在大模型技術研發方面正邁向國際先進行列。 在功能表現上,生成式人工智能在圖文、程式碼生成、音影片創作、科學研究等方面均獲得了重大的能力提升。例如,OpenAI今年2月釋出的Sora能夠生成長達一分鐘的高畫質影片,不僅遠超先前的生成模型,而且生成的影片細節豐富且可編輯,為行業樹立了新的標桿。此外,基於國產大模型打造的「Kimi智能助手」在叠代升級後,成為全球首個支持輸入200萬漢字的大模型套用,展現了國產技術的強大實力。 在行業套用上,生成式人工智能的套用逐步擴散至不同行業,在生物醫藥、法律、金融、制造、教育和娛樂等行業,真正實作了針對使用者訴求的客製解決方案。例如,美國初創公司哈維為英國安理律師事務所提供的生成式人工智能服務,不僅協助實作法律檔的起草和客戶案例研究自動化,並針對不同律師事務所和不同案例開發客製分析系統,極大地提高了工作效率。當前,越來越多的企業正積極運用生成式人工智能模型,以助力組織提高生產效率、最佳化工作流程,進而實作改進使用者體驗的目標。
傳統人工智能治理模式之「難」
生成式人工智能蘊含的通用性、動態性、湧現性等技術特性,勢必會對傳統治理模式帶來相應挑戰。
一是硬性監管難。一方面,傳統硬性監管主要以風險事前規避為技術進路,透過制定法律法規為監管部門提供執法依據。雖然硬性監管為人工智能的設計、開發、部署和使用明確劃定了「發展紅線」與「合規底線」,但卻無法平衡安全與效率。硬性監管的機械性和片面性,在一定程度上限制了生成式人工智能的創新和套用,這使得關註新興技術發展與變革為初衷的科技初創企業在產品開發和業務營運之初往往較難承擔繁重的監管合規義務,以事前治理為導向的硬性監管措施或一定程度上阻礙人工智能初創公司的技術創新能力和市場競爭力。另一方面,硬性監管政策難以應對生成式人工智能快速叠代的技術創新,依照摩爾定律判斷,科技更新換代速度平均為1.5年,而GPT1到GPT4.5共用時5年,已完成六次叠代,但生成式人工智能叠代更快而且仍在加速,硬性法律法規出台速度與技術發展很難實作同步。 二是分散治理難。面向多元治理主體,分散治理的特點強調獨立自主、各司其職;面向單一治理主體,分散治理主張針對獨立物件和場景專門化地制定措施。對前者而言,傳統人工智能模式聚焦實作特定功能,有著數據需求小、通用能力差、相應治理未完全突破部門和地區邊界等特點,運用分散治理有利於權責溯源。對後者而言,分散治理面向生成式人工智能,一方面難以回應模型治理需求,另一方面無法處理整體性風險和發展失衡。由於生成式人工智能匯聚演算法、數據和資訊,同時其預訓練、指令微調、對齊和專門化的模型煉制路線環環相扣,場景拓展能力也持續增強,因此分散治理將無法避免地踏入「註意力失焦」的困境。一年以來,生成式人工智能已跨越式地將全球利益相關方拉入同一個治理框架,在應對演算法歧視、人權保護、發展失衡、制度非中性等整體性風險和問題上,早已超越了分散治理的單邊行動。
生成式人工智能治理路徑之「新」
近一年來,全球主要經濟體和國際組織在傳統治理手段的基礎上,對生成式人工智能的治理策略進行了積極創新。
首先,從硬性監管逐步過渡至包容審慎,不同於命令型控制型的硬性監管,包容審慎監管旨在追求效率與安全的動態平衡,要求治理主體給予數碼經濟新業態必要的發展時間與試錯空間,並根據公共風險大小進行適時適度幹預。在中國,這一趨勢尤為明顯。中國的【生成式人工智能服務管理暫行辦法】明確提出對生成式人工智能服務實行包容審慎監管,旨在激發創新活力與確保行業健康發展的平衡。歐盟的【人工智能法案】同樣強調以人為本的理念,在促進人工智能發展與創新的同時構建監管體系。英國不希望繁重的合規義務打擊企業的創新意願,沒有專門針對人工智能立法,而主要透過釋出指南等非監管措施為企業提供指導,主張建立「支持創新」「合比例」的監管框架,以期為投資者、企業和公眾提供信心。除此之外,英國還采用了創新性政策工具「監管沙盒」來最大限度降低監管對創新的阻礙,透過劃定適用範圍、明確豁免規則、限定適用時間等措施使企業無需擔心創新與監管規則發生矛盾時可能遭遇的監管障礙或承擔不必要的監管負擔。 其次,治理策略從分散治理向整體治理轉變。整體性治理旨在解決治理碎片化和分散化造成的復雜和效率低下的問題,主張用整合、協同和網絡化的理念回應,以提高治理的效率和效果。一方面,生成式人工智能治理本質為模型治理,需要依據模型類別和產業結構構建分層級的治理體系。以歐盟【人工智能法案】為例,該法案采取了基於風險將生成式人工智能以系統為單位納入監管範圍,包括了四個風險級別:不可接受的風險、高風險、有限風險和極低風險,每個風險級別都有相應的套用場景和監管措施,同時法案允許監管機構不斷將新的套用領域納入現有的風險級別,兼具了確定性與靈活性。另一方面,隨著生成式人工智能在全球社會生活中的滲透,參與治理的主體更為多元,生成式人工智能治理成為全球治理的重要議題。比如,針對技術霸權和發展失衡問題,【全球人工智能治理倡議】中提到,面向他國提供人工智能產品和服務時,應尊重他國主權,嚴格遵守他國法律;【布萊切利宣言】指出,應幫助發展中國家加強人工智能能力建設,發揮人工智能的有利作用,支持可持續增長和縮小發展差距。(陸欣宇 宮宇彤)
(來源:學習時報)
來源:中國資訊保安