根據今年釋出的【全球數碼經濟白皮書(2024)】披露的數據顯示,全球目前有 3 萬家人工智能核心企業以及超過 1300 個人工智能基礎大模型。當前,以大模型為代表的人工智能技術飛速發展,正在以令人難以想象的速度重塑我們生活的世界,推動人類邁向智能時代。而新的科技變革帶來新場景、新業務、新市場的同時,也在科技倫理層面帶來了前所未有的風險和挑戰。
9 月 5 日,在由信百會研究院和螞蟻集團科技倫理委員會共同主辦的 2024 Inclusion·外灘大會「以善治促‘善智’,讓 AI 更負責任」見解論壇上,人工智能產、學、研、用各界學者嘉賓,共同探討如何讓 AI 更負責任、更好地造福人類社會。
AI 治理刻不容緩,中國正在為全球人工智能治理貢獻「中國智慧」
工業和資訊化部原副部長楊學山在致辭中表示,當前人工智能帶來了巨大的發展潛力,也引發了諸多方面的風險和挑戰。如何在促進人工智能技術快速發展和套用的同時,又確保其安全性、可靠性和可控性,顯得尤為關鍵。從全球範圍來看,美國、中國、歐盟等主要經濟體正在探索人工智能治理的模式,制定了一批法律法規、政策制度、標準指南,用治理的主動權謀求發展的主導權、搶占人工智能國際競爭的戰略制高點。中國作為負責任的人工智能大國,在國內逐步建立健全治理體系的同時,也主動為全球人工智能治理貢獻「中國智慧」。他表示,期望透過政策界、產業界、學術界的溝通與聯動,共同探索人工智能治理的有效路徑。
工業和資訊化部原副部長 楊學山
在中國工程院院士吳世忠看來,AI 治理可以「以史為鑒」。他認為,我們已經逼近了那個 AI 發展的「歐本海默時刻」,「當一個科學技術能夠改變人類命運的時候,我們就必須要有憂患意識」,他從人類過去核控和疾控出發,分別對比了核控、疾控和 AI 治理的異同,他表示:「人工智能的治理和過去的核控、疾控都是人類發展歷程中的‘歐本海默時刻’。在這個過程中,我們作為人類命運共同體,能夠借鑒的經驗很多,比如國際合作和多邊協定以及透明度和信任機制的建設等。但與此同時,我們也要根據人工智能的特點,更加科學地進行治理。」
中國工程院院士 吳世忠
面對如此嚴峻的風險和挑戰,有時學界也會有另外一種聲音,我們是不是應該用更加謹慎的態度,給技術的發展「踩踩剎車」?清華大學公共管理學院教授、清華大學人工智能國際治理研究院副院長梁正則認為,我們可能要在更宏大的視角和時間尺度下看待 AI 技術的發展。他以飛機和汽車的發展歷程為例,證明了任何一種技術,隨著技術能力的發展和科學的治理,這種技術帶給人們的好處是要遠遠超過我們想象的。「人工智能技術處於產業化套用的初期階段,從技術發展來看,其他技術在發展中同樣經歷過類似的問題。發展是硬道理,治理要為發展服務。」
清華大學公共管理學院教授、清華大學人工智能國際治理研究院副院長 梁正
而同樣面對人工智能治理和發展的關系這個問題,聯合國人工智能高層顧問機構專家、北京人工智能安全與治理實驗室主任、中國科學院自動化研究所研究員曾毅認為,安全和治理是人工智能的核心能力,將加速人工智能穩健發展及套用。「人工智能的安全和能力不是正交,更不是相互掣肘的關系,提升安全性,加強治理,並不意味著能力的減弱和發展速度的減緩,系統的魯棒、自適應與安全也是人工智能的能力。人工智能系統風險防範也要從被動式轉變為主動式,從防禦性轉變為建設性。此外,人工智能需要從合乎倫理到具有道德。」他認為人類需要用善智慧把人類自身帶向追求本真的道路,人類一生在不斷完善自我的道路上探索,永遠不會被人工智能替代。
聯合國人工智能高層顧問機構專家、北京人工智能安全與治理實驗室主任、中國科學院自動化研究所研究員 曾毅
防止大模型在落地套用過程中的濫用、誤用是大模型相關企業對社會負責任的表現
AI 大模型現在已經廣泛套用在各個領域。在產業界全力發展 AI 的戰略中,科技倫理也是核心組成部份,防範大模型的誤用、濫用,是企業對客戶、對行業乃至對社會負責的最好體現。在論壇上,企業界代表也分享了各自在大模型套用與安全倫理層面的探索和思考。
早在 2016 年,微軟行政總裁薩提亞·納德拉(Satya Nadella)就曾指出:「或許我們最需要進行的討論並非是關於善惡,而是應該向創造這項技術的人或組織傳遞怎樣的價值觀。」
微軟(中國)有限公司技術長韋青表示,微軟致力於從設計之初就打造安全、保障和值得信賴的 AI 系統,並分享了微軟在打造「負責任」的 AI 大模型歷程中的具體實踐。
To C 產品每天要面對不同國家、不同文化的使用者每天產生的海量數據,作為一家擁有近 1 億 C 端使用者的公司,Minimax 海外業務總經理盛靜遠在分享中展示了其多模態通用大模型以及通用套用生態,並分享了 Minimax 在大模型的治理領域的實戰經驗。
AI 大模型在嚴謹行業套用的核心:準確專業、真實嚴謹、可控透明及安全可靠
人工智能大模型目前正在各行各業加快落地,特別是對醫療、金融這些嚴謹行業的重塑力度是前所未有的。與此同時,這些嚴謹行業也是對倫理規範要求最高、倫理關系最復雜的領域。
訊飛醫療研究院副院長趙景鶴分享了訊飛星火醫療大大模型目前的套用進展以及安全倫理探索,對於大模型在醫療場景套用面臨的問題,他講到,「主要是數據私密、知識產權和道德責任三大問題,從解法上,企業需要采取措施加強數據保護、獲得必要的版權授權、確保模型的公正性和合規性,同時提高透明度以及加強公眾教育。」
螞蟻集團一直致力於構建專業智能體,促進 AI 大模型落地嚴謹行業。據了解,螞蟻依托自研的百靈大模型,對應生活、金融和醫療場景,分別打造了 AI 生活管家「支小寶」、金融管家和醫療健康管家。螞蟻集團資深副總裁、科技倫理委員會聯席主席周誌峰認為,AI 的倫理建設需要適應三大趨勢,「一是 AI 提供服務需要更加重視‘人情味’;二是 AI 倫理風險防控需要從‘顯性風險’的被動防控向‘隱性風險’的主動防控過渡,三是 AI 服務要從提供對話互動升級到有效協同。」
螞蟻集團資深副總裁、科技倫理委員會聯席主席 周誌峰
周誌峰介紹到,為了應對這三大趨勢,螞蟻建立了一套辨識使用者意圖及全鏈路風險的工具,能夠準確捕捉提問者的真實動機,並構建了持續最佳化大模型輸出的攻防體系;螞蟻開發了 X Sense 體系,及時對網絡輿情、社會熱點、越獄 prompt 攻擊等因素做探查和歸集,提升對「隱性風險」的主動感知和防控能力;打造覆蓋數據集構建到模型套用全鏈路的負責任研發體系,並開放合作共建,廣泛邀請各領域權威專家、知名學者組建科技倫理顧問委員會,與高校、科研機構開展倫理共建計劃。
「AI 倫理是一個系統性的、開放性課題,我們希望能和大家一起共同探索 AI 倫理的系統解決方案,始終保持AI的發展處於人類良善價值的軌域上。」周誌峰表示。
在論壇的最後,來自中國政法大學、北京協和醫學院、復旦大學和上海交通大學的學者與來自華為和騰訊的產業專家也就如何應對 AI 大模型在嚴謹行業落地的倫理挑戰這一議題進行了探討,專家認為,大模型在嚴謹行業落地的挑戰分為「真、善、美」三個維度:大模型回復內容的真實性準確性、大模型要符合人類的價值觀,以及大模型的終極目的是幫助人類和社會創造更美好的生活。
如何引導 AI 向善、確保 AI 服務始終以人類福祉最大化為目標,是社會各界必須重視的重要議題。雖然各自的領域不同,但是幾乎所有的學界專家和企業界代表都有一個共識:人工智能的倫理治理體系的完善不能僅靠一家公司、一個主體閉門造車,它需要我們打破國界以及領域的限制,需要政、產、學、研、用多邊、多方共同努力,以善治促「善智」,才能打造更有責任感的 AI 更好地為人類服務。