當前位置: 華文世界 > 科技

圓桌|人工智能與社會科學如何雙向賦能

2024-07-12科技
編者按當前人工智能技術的快速發展和廣泛套用,對經濟發展、社會進步和人類生活產生極其深刻的影響,加快構建人工智能發展和治理的國際合作體系已成為全人類共同訴求。2024年世界人工智能大會的主題為「以共商促共享 以善治促善智」,正突出反映了社會各界對人工智能發展中的社會規範與科技倫理議題重要意義的高度關註。
人類社會每一次重大躍進,人類文明每一次重大發展,都離不開哲學社會科學的知識變革和思想先導。在今年的世界人工智能大會期間,由上海市社會科學界聯合會主辦的「人工智能新進展與社會科學的未來」論壇成功舉行。論壇旨在探索人工智能與社會科學的雙向賦能路徑,推進人工智能與社會科學的融合發展,為人工智能的健康良性發展提供有力的社科支撐,同時賦予人文社會科學更具前沿性和時代性的研究視野。今編發部份專家觀點,以饗讀者。
視覺中國
當今全球的科技競爭,是數碼文明和創新制度生態的比拼
江必新(中國法學會副會長):
人工智能是當今世界解放人、塑造人、使人真正成其為人的最前沿的、最重要的工具之一。它也是當今世界競爭最為激烈的場域之一。人工智能在帶給世界諸多確定性好處的同時,又帶給世界諸多的不確定。法治是最穩定、最可預見、最具有治理效力的治理工具,我們需要法治來對人工智能這一「雙刃劍」進行規制和治理,為世界註入穩定性和可預見性。促進科技向善,不僅要靠倫理引導,而且要靠法治保障。當今全球的科技競爭,不僅是新型智能基礎設施的角逐,更是數碼文明和創新制度生態或者說法治生態的比拼。
那麽,如何搭建這樣一個法治框架?在治理理念上,我比較關註的是「六個統一」:堅持以人為本與尊重客觀規律的統一;堅持防風險與謀發展、保創新的統一;堅持做到防止壟斷和數碼鴻溝與促進公平競爭的統一;堅持維護個人權利與促進數據流通和套用的統一;堅持確保國家安全與促進國際交流與合作的統一;堅持維護數碼產權與謀求社會共生、互信普惠的統一。
在治理內容上,要做到四個「既要又要」:第一,在法治體系方面,既要構建完備的有關人工智能的法律規範體系,又要完善好法治實施體系。第二,在規範主體方面,既要規範設計者、制造者,又要規範平台的建造者和傳播者、使用者,做到全鏈條的規範。第三,既要對數據進行規制,確保數據的客觀、全面、完整、豐富,又要對演算法和算力進行規制。關於演算法,既要為演算法設定實體正義規則,又要為演算法確定可解釋、可回溯、可問責的形式規範。第四,在規範構成方面,既要為不同的主體配置不同的權利;同時也要為所有相關者設定義務和明確責任。
在規則的策略上,我把它歸納到若幹個結合。一是立規與立德相結合。二是賦權與問責相結合。三要設定底線和包容監管、包容審慎監管相結合。不能侵犯他人權利、不能損害社會公共利益、不能損害國家利益、不能危害國家安全,這些基本底線,肯定要堅守。四是統治和類治相結合。規範人工智能,法治要統一,但是一定要分類。不同的風險,用不同的規則、辦法,這才科學。五是他治和自治相結合。六是政府和社會組織相結合。七是硬治和軟治相結合。涉及底線問題,一定要剛性。但是看不清楚的時候,更多地采取引導性的柔性治理的方式。八是法治、規治和技治相結合。九是事後的救濟與事前的預防相結合。十是敏捷治理和全周期治理相結合。出了問題,敏捷治理,對癥下藥。有實踐有經驗之後再實施全周期治理。十一是系統治理和重點治理相結合。十二是批發與零售相結合。「零售」是什麽?即透過司法案例,透過典型案例,透過法律的判決,來樹立標桿。然後一個一個案例處理,集腋成裘,最後系統化,上升為系統的司法解釋,上升為法律。
總之,人工智能治理是個系統工程,也是一個復雜的、長期的過程,需要我們逐步地總結經驗,最後形成體系化的法律治理體系,不要指望一步到位。
推動AI治理體系成為國際公共產品,而不是小圈子俱樂部
薛瀾(國家文科一級教授、清華大學蘇世民書院院長):
從人工智能全球治理角度來看,問題和挑戰主要集中於地緣政治、技術路徑、治理與技術步調協調、機制建構以及監督執行等方面。人工智能的技術發展特別快,但我們相應治理的法律法規和制度變革是比較緩慢的,這其中的步調是不一致的。人工智能治理需要什麽樣的機制體制?這裏有個很大的問題,就是我們所謂的機制復合體(regime complex)。在比較復雜的全球性問題上,會有不同的治理機制都對這個問題有發言權,但又沒有完全的發言權,並且機制之間沒有上下級關系,可能有些是互相協調的,也有一些是完全矛盾的。比如我曾經研究過一個基因數據的治理,會涉及專業組織、國際組織、基金會、政府部門、立法機構等等。這就可能帶來一個比較混亂的局面,使得當事者感到無所適從。
如何應對AI全球治理面臨的挑戰?我想首先需要考慮的是,對全球人工智能治理問題進行分層次分類別處理。我們現在總想著一下子以系統的辦法來解決問題,會遇到許多困難。那麽能否先分門別類地梳理一下,大家分分工。不要總想著完全以統一全面、自上而下的方式來解決問題,而是分門別類、自下而上地去解決。第二,要推動AI治理體系成為國際公共產品,而不是小圈子俱樂部。第三,要推動中美在科技領域有選擇地合作,如氣候變遷、人工智能安全等。第四,要拓展多層次多渠道雙邊交流對話,包括技術社群、社會科學專家、政策領域等等。第五,推動國際AI大科技領域合作,現在大家都很擔心人工智能是否會出現自主性,那麽就需要各個國家科學家一起合作進行研究,從技術層面來提出應對危機的預案。
AI的發展對社會科學的未來既是挑戰也是機遇。以公共政策領域為例,我們面臨兩類大問題:一類是為了人工智能發展的公共政策(Public Policy for AI),我們需要去研究公共政策如何推動人工智能的發展,並解決人工智能套用帶來的風險和負面影響。另一類是用於公共政策的人工智能(AI for Pub lic Policy),人工智能在公共政策分析和公共政策過程中都有著廣泛的套用。
面對AI帶來的令人不安的新問題,樂觀主義是最好的一個辦法
王戰(上海市社會科學界聯合會主席):
科技發展的規律性是什麽?工業革命、資訊科技革命以及將要到來的人工智能革命,其實是有規律性的,這個規律性和人的認識有關系。工業革命實際上是人的肢體功能的延伸,資訊科技革命是人的神經系統的延伸,而新一輪科技革命是以人工智能為先導的類腦智能革命。科技的進步性取決於科技倫理。要為人工智能設定一個科技倫理的負面清單,告訴它哪些領域可以碰,哪些領域不能碰。這是我們搞社會科學的人要好好研究的問題。
王國豫(復旦大學哲學學院教授):
自然科學、技術科學和人文科學,它們的內容是不一樣的。一個是往前看,它總是想突破規範;而人文社會科學,它總是往後看,希望從歷史當中汲取教訓。但問題是,物理學家和搞人工智能的,為什麽要向後看,聽人文科學的指導?中國科協名譽主席韓啟德曾說,科技倫理本身應該成為未來科技的方向盤和剎車。但他緊接著還有一句話,方向盤和剎車得裝在機器上、技術上。如果方向盤和剎車離開了火車,人文科學站在旁邊對於物理學和人工智能說,你不應該這麽做。誰聽你的?你也剎不了車。這是很大的問題。
我最近看嫦娥六號,突然想到航天飛行器裏的變軌器可以作為另一個比喻。航天飛行器要脫離地球進入月球軌域,就一定要擺脫重力、要變軌。變軌器本身必須要裝在飛行器上,它要保證飛行器在預定的軌域上,到了一定時候燃燒產生助推力,推動軌域來變軌。人文社會科學應該成為人工智能發展的「變軌器」:一方面它必須能夠緊跟人工智能技術發展的步伐;另一方面,它還可以在必要的時候及時矯正人工智能發展的軌跡,使其不至於偏離人類所期待和預設的價值軌域。
AI對許多學科可能造成一種危機感,但就哲學來講,我覺得它比任何時候都變得更加需要,因為AI提出了非常多的哲學問題。比如,AI不僅僅是一個工具,隨著AI越來越多地進入我們的生活世界,我們的自主性一點一點被吞噬,像GPS導航系統,它實際在很大程度上控制著我們人,控制著我們的行動軌跡,離開了這些工具我們幾乎不能夠生存,這其實已經威脅到我們的自主性問題。如果我們的很多決策都讓給了AI,那麽人類在何種意義上還是人本身?AI的發展從認識論上提出了許多新問題。
傅徐軍(阿裏巴巴集團研究員、釘釘營運總監):
我對AI的發展還是比較樂觀的。任何一項新技術都是一把雙刃劍。在解決一些問題的時候創造了一些問題。這些問題往往是新的,有不確定性的,令人不安的。面對這些,樂觀主義是最好的一個辦法。
我們不應該說,對技術有些限制。我們應該說,我們應該去找到那些更好的技術,去解決原來新技術產生的那些問題,這是最好的方式。用汽車來打比方。如果讓汽車前進,我們應該踩油門。在轉彎或者是要降速的時候,要踩剎車。它們其實不是完全沖突,是應該相輔相成。我們真正要搞清楚的是什麽時候踩油門什麽時候踩剎車。我們大部份時候要前進,更多的時候是需要踩油門。但要在適當的時候,用適當的方法踩剎車。這個剎車可能是,比如說法律上的保障,或者是科技倫理上的引導和約束,也有可能是用別的技術做很多的約束和支撐,讓AI新技術發展更好。
勞拉·贊諾蒂(維珍尼亞理工大學政治學系教授、量子社會科學研究代表人物):
AI已經成為我們生活不可或缺的一部份。一個有意思的問題在於,如何讓我們的量子社會科學能作為一種批判式思維,幫助我們去分析和評估?AI是一種工具。因此,它就像藥一樣,可以治病,但如果不謹慎、不適當地使用也可以害人。AI就像是一種知識、權力、金錢的集合。我們不能用線性方式去控制AI發展,將它完全認為是負面的或者是正面的。AI就像一個浪潮,會卷過很多媒介,但關鍵要看它碰到了其他的浪之後是什麽樣的反應?它可能會受到限制,可能會被放大。因此,社會科學應該變得越來越交叉學科化。我們不能夠遠離技術,不能只考慮外部的監管。我們必須使用AI的語言,去深入了解AI,只有這樣才能夠了解AI這個浪潮是如何席卷我們社會生活的方方面面。我們可以提出一些問題:這個工具能夠做什麽?誰控制著它?它替代了誰?是誰控制了數據?是誰支付?誰有權使用?還有AI對於環境的影響是什麽?對於我們能源需求有多大?作為社會科學學者,你可以提出很多問題,但如果我們不了解AI的內在機理,我們沒辦法提出這樣的問題。
人機共生的復合智能是未來不可逆的一個發展方向
托比·沃爾什(澳洲科學院院士、新南威爾士大學電腦教授):
像ChatGPT這樣的大語言模型,激發了大家的想象力。OpenAI技術也讓人非常關註。AI的發展對於人類來說,會帶來怎樣的機會呢?哪些是機器人擅長的,哪些是人不擅長的?那些創造未來的人,他們的工作是不能夠被取代的。機器是沒有情感的。像醫生、心理學家、銷售、政治家這些崗位是非常重要的,因為他們有著情緒價值。還有一部份就是創意。比如藝術。道德感、情感的喚起,這些都是藝術的強項,這些是機器做不到。當然,現在AI的創意、創造力,也是越來越增強了。但我相信人類的創意,還是不能夠被AI所替代。
鄭磊(復旦大學國際關系與公共事務學院教授、數碼與移動治理實驗室主任):
這一年多來,我們在實驗和訓練如何在社會科學領域中使用這些AI工具。剛開始我們確實比較震驚,AI能夠匯出這麽多的結果。用到現在,我們的感受是,首先要提出好問題。一個博士生提出問題去問AI:論文選題是什麽?從哪些角度去切入?這已經受過訓練,一個小學生問不出這樣的問題。AI匯出結果,確實給了很多靈感,但是比較碎片化。它的維度和分類,還需要人的加工整合和分類,包括人的深度對話,其實是人機共生的復合智能。下一步培養研究生,人工智能時代的教育和學習方式會變成什麽樣子?還有教材嗎?還需要老師嗎?還有學校嗎?學習效果會更好嗎?還需要學習嗎?有太多的未知需要我們好好討論一下。
羅拔·布朗(維也納高等研究院資深研究員、技術本體論研究學者):
人工智能被指定為一項單一的、去政治化的科學技術物件,是科學進步的縮影。在一系列被歸類於「美好人類世」的技術中,人工智能是最新近出現的。盡管人類已經「將它觸及的每件事物揍得面目全非」,但在「未來世界」這個為了當前世界所設的視域中,總還是有人對我們承諾說,人工智能這一新技術將為解決我們的諸多危機做出貢獻。不過,「人類世」其實是西方人文中的政治本體論。它是西方科學實在論對阿那克西曼德式/笛卡爾式/牛頓式的「單一的世界」(譯按:One-World-World,即某種「‘只有一個世界’的世界觀」)的演繹。所謂「智能人造」的去政治化實在論,充斥於許多人工智能的論述中,而這無非是霸權化和普遍化的「單一的世界」,它被西方常識實在論制定出來並受到反復的再創制。人工智能不是真正的「人工的智能」,而是一個由人工智能構成和建立的世界,一個由無數個體凝聚出來並居住其中的世界,一個被人造之物塑造得可被智性理解的世界。
熊易寒(復旦大學國際關系與公共事務學院教授):
見仁見智,實際上有很強的學科色彩和學科差異。我們的科學家和科技工作者,更多的是樂觀派;我們的人文工作者、哲學家,更多的是帶點悲觀的色彩。我們的社科學者,尤其是公共管理學研究者,可能是謹慎的樂觀派。今天大家都在強調領導力、創造力、想象力的重要性,也就是那些讓我們區別於AI的更深層次的人性那部份的東西將變得更加重要。我們越來越需要提出原創性的問題。未來可能會出現分化,就是超越人類和亞人。今後人工智能的發展方向越來越呈現為一種隱秘的狀態,人工智能越成功,人工智能和人類智能會變得越來越不可分。我覺得這種不可分的狀態是未來不可逆的一個發展方向。
作者:
圖:視覺中國編輯:陳瑜責任編輯:楊逸淇
轉載此文請註明出處。