當前位置: 華文世界 > 科技

AI治理:平衡發展與風險,邁向全球共治

2024-07-18科技
研究背景:近期,世界人工智能大會在上海召開,重點討論了AI治理的相關問題。AI作為引領未來的戰略新興技術,已成為發展新質生產力和推動科技革命的核心引擎。然而,AI的高速發展也帶來了復雜效應,包括數據安全、倫理治理、演算法歧視、能源環境和數智鴻溝等問題。這些問題不僅影響技術本身的發展,更對社會產生了深遠的影響。因此,如何有效治理AI成為當前及未來的重大課題。
一、AI發展的不平衡問題
1.AI發展不平衡的現狀
AI的廣泛套用在帶來效率提升的同時,也引發了就業結構的變化。傳統崗位被AI取代,可能導致大規模失業,進而引發社會不穩定。此外,AI技術的研發和套用集中在少數科技巨頭手中,加劇了經濟不平等和壟斷問題。正如包括新開發銀行行長羅塞夫、聯合國工發組織總幹事穆勒、聯合國秘書長技術特使吉爾等重要人物在本次世界人工智能大會上所說的,當前全球AI治理的一大挑戰,是要防止資源不平等造成發展差異進一步擴大;國際社會應采取措施,確保發展中國家不在人工智能時代掉隊。
2.AI發展不平衡的原因分析
引發「AI掉隊」的因素,包括技術依賴、科技封鎖、數據泄露等。總體上,和此前互聯網時代的「數碼鴻溝」相似,在AI時代,發展中國家面臨「AI鴻溝」的擠壓,並且,因為相對的弱勢地位,這些國家更容易受到AI的負面影響。有專家表示,已開發國家一方面努力向發展中國家推廣AI技術,但並不關心這些國家人民真正需要什麽。這種出於利益驅動而形成的不平等關系,是AI全球治理最值得關註的問題之一。
3.AI發展不平衡的解決方法
AI治理迫切需要解決的,就是形成平衡的發展格局,先進國家不可忽視發展中國家AI發展的不平等問題。否則,AI就會影響聯合國可持續發展願景的實作,進而給世界帶來新的不安定因素,成為構建人類命運共同體的障礙。在這個意義上,中國政府在聯合國框架內提出【全球人工智能治理倡議】,倡導國際社會更關註發展中國家,倡導權利、機會、規則的平等。並且在今年的世界人工智能大會上,聯合國工發組織還宣布將與工業和資訊化部、上海市一道,在上海建設一個制造業AI卓越中心,面向發展中國家、特別是最未開發國家,用中國的AI最佳實踐提升他們的AI能力。在這一層面上,中國起到了很好的帶頭示範作用。
長三角國創中心主任劉慶在世界人工智能大會上也表示,培育新質生產力一方面依賴科技創新占據前沿賽道,同時也要兼顧傳統產業的轉型升級,讓「新」與「舊」找到互相賦能的通道、齊頭並進,而人工智能可以成為「鑰匙」。人工智能領域近年來出現了多個現象級的技術突破,這些突破,正在引領新的商業形態並賦能千行百業。本次會上就展出了諸如「AI+辦公」「AI+醫療」「AI+教育」「AI+社交」……人工智能正在加速融入這些傳統專案,引領其走向未來。
二、AI發展的安全危機
1.AI發展的安全性問題
當下,人工智能正在不斷地引發它的創造者——全球科技界的擔憂,或者更準確地說是喜憂參半,因為它有明顯造福人類的特性,但也有難以回避的風險和不確定性。有研究表明,在經濟發展、社會發展和環境可持續發展三大領域中,人工智能會對134個具體目標產生促進作用,但也可能對59個具體目標產生阻礙作用。上海人工智能實驗室主任、首席科學家周伯文也展示了一張座標圖,顯示人工智能發展安全技術滯後於效能提升。目前99%的算力用於模型預訓練,只有不到1%用於價值對齊或更多安全優先的考量。包括馬斯克在內的多名科技界知名人士曾發表公開信,呼籲6個月內暫停研發人工智能技術。對人工智能的擔憂首先來源於它在某些方面超越人類的卓越表現。例如AlphaZero從零開始自行學習國際象棋、將棋和圍棋,最終在每個領域都擊敗了人類世界冠軍。下棋,只是人工智能小試牛刀的遊戲。它在人類引以為豪的思維疆域裏,還在不斷地挑戰邊界。
更令人憂慮的是,人們尚無法索解人工智能的智能從何而來。人工智能的核心技術——深度學習常常被稱為「黑盒子」,意思是說,雖然它的程式碼、參數、訓練方法是公開透明的,但人們仍然難以追蹤、理解和預測它們如何從特定的輸入生成特定的輸出。不僅是普通人、使用者無法理解,即使那些書寫人工智能程式碼的程式設計師也無法預測。這種不確定性更加增強了人們對AI發展的擔憂。
2.對於AI安全問題的反思
哲學家海德格爾曾反思過現代技術的危險性。他認為現代技術強調效率,在這種效率觀念的促逼下,人類反而被技術所控制和占有,成為了技術的奴隸,收到技術發展的支配。雖然當下加速了發展行程,但是盲目的發展最終會導致一系列的社會危機,這是人類不可忽視的問題。
例如,近年來,一些不法分子利用AI深度偽造新工具實施電信詐騙、散布虛假影片、激化社會矛盾,給安全領域帶來了諸多風險。AI深度偽造是一種利用人工智能技術合成、修改或替換影像、影片和音訊內容的技術,可以將一個人的面部表情、言辭和動作套用到其他人的影像或影片上,使生成的內容看似原始內容。這項技術讓假新聞和虛假資訊更具迷惑性,嚴重威脅公眾的信任和社會穩定。
此類安全產生的主要原因在於,技術發展速度過快而法律法規和倫理規範未能及時跟進。首先是法律問題,現有的法律框架往往難以適應AI的快速發展,導致監管滯後。例如,AI自動駕駛汽車的責任認定問題,目前尚無明確的法律規定。當AI系統出現故障導致事故時,如何界客製造商、開發者和使用者的責任,成為法律界亟待解決的難題。其次是倫理問題,AI的決策機制和數據處理方式存在不透明性,可能導致偏見和歧視的擴散。例如,面部辨識技術在執法中的套用可能帶來私密侵害和種族偏見的問題。經濟基礎決定上層建築,上層建築反作用於經濟基礎,當上層建築為適合生產力發展的經濟基礎服務時,它就成為推動社會發展的進步力量;反之則成為阻礙社會發展的力量。當前的法律法規和倫理規範已經落後於AI技術發展水平,亟需改良進步。
3.解決AI安全問題的方法
首先,政府應當與各個社會組織共同制定和實施關於AI技術發展相關的法律法規體系,並加強對AI技術的監管力度,建立起有效的監管制度和執法體系,明確AI技術的研發、套用、監督等方面的法律責任與義務,以確保AI的發展和套用可以在合法的框架下進行。同時,應當建立起明確的問責機制,確保AI系統在出現問題時可以追溯和糾正。
其次,在完善法律法規的基礎上,應當制定科學合理的AI倫理規範體系,使得AI技術符合社會的倫理要求和行為準則。不僅需要讓倫理規範覆蓋AI技術的多個方面,如數據私密、演算法公正、人機關系等,還應當對AI技術的從業人員進行倫理教育,提高相關從業人員的倫理意識和責任感。此外,也要鼓勵社會各界積極參與到對AI的監管中來,共同推動AI技術的倫理發展。
最後,推動技術層面創新。問題的解決也往往需要有更高水平的發展,因此需要鼓勵和支持科研機構與科技企業,加大對AI技術研發的投資,推動AI技術的不斷創新與突破。技術創新可以更好地解決AI技術發展過程中問題與矛盾,由此提高AI技術的安全性、可靠性和效率。在此基礎上,還應當積極探索AI技術在各個領域內的適用性,擴大AI技術的使用範圍,尤其是要積極推動AI技術與實體經濟的深度融合發展,讓AI技術能更好地促進實體經濟發展。
三、AI治理的全球性挑戰
當前,人工智能技術的快速發展,為人類社會發展帶來了諸多紅利,同時也出現了不少風險挑戰。如何在全球範圍內透過協同共治,實作人工智能發展與安全並重,成為各方亟需對話與合作的重大課題。
1.AI全球治理的必要性
AI技術的快速發展和廣泛套用已經超越了國界和地域的限制,成為全球性現象。國內外有多家科技公司都已經都推出了自己的大數據模型,如OpenAI的GPT-4o、字節跳動的豆包以及智譜的GLM。AI技術發展帶來的風險也早已成為全球性挑戰。因此,AI治理不能各自為營,也需要從全球視角出發,加強國際合作與交流。各個國家和科技公司之間共同制定國際標準和規範,可以有效應對AI技術帶來的全球性挑戰,如跨國數據流動、網絡安全、人工智能武器等。同時,全球性的AI治理還可以促進各國之間的互利共贏和共同發展,推動構建人類命運共同體。
2.AI全球治理的困難
首先,不同國家在政治制度、文化背景和社會價值觀上存在顯著差異,這些差異導致各國對AI治理的優先事項和方法存在分歧。
其次,AI技術的發展涉及巨大的經濟利益,各國之間在技術研發、市場份額和產業布局方面存在激烈競爭。一些國家和科技公司在AI領域占據領先地位,不願意在國際治理框架中受到限制,擔心影響自身的有利競爭;AI技術的套用涉及廣泛的商業利益,各國可能會為了保護本國企業的市場份額而抵制統一的國際規範;不同國家在產業政策上也會有不同的側重點,一些國家可能會更傾向於保護本國的AI產業,制定有利於自身發展的政策,而不是參與全球性的治理框架。
再次,AI技術本身的復雜性和快速發展使得全球治理更加困難。AI技術涉及深度學習、自然語言處理、電腦視覺等多個領域,每個領域都有其獨特的技術挑戰和套用場景,治理的復雜性大大增加。並且AI技術更新速度快,傳統的立法和監管手段難以跟上技術進步的步伐。即使制定了相關政策和法規,也可能很快變得過時,需要不斷更新和調整。
然後,AI技術的發展依賴於大量數據的收集和共享,但數據私密和安全問題卻成為全球治理的重要難題。許多國家對本國數據的控制權有很強的保護意識,不願意輕易共享數據。而且各國對數據私密保護的標準和要求不同,一些國家可能對數據的跨境流動設定嚴格的限制。
最後少數科技巨頭公司在AI技術和市場上占據主導地位,導致全球治理面臨技術壟斷和不平等問題。大型科技公司在AI技術研發和套用方面占據主導地位,擁有巨大的經濟和政治影響力,可能會影響政策的制定和執行。AI技術的發展還可能加劇全球範圍內的經濟不平等,發展中國家在技術和資源方面處於劣勢,難以在全球治理中發揮有效作用。
3.AI全球治理的方法探究
實作AI全球治理需要各國共同努力,目前已有多個國際組織和倡議在推動AI治理方面做出了重要努力和貢獻。例如聯合國教科文組織在2021年透過了【人工智能倫理問題建議書】,這是首個全球性的AI倫理框架,旨在確保AI技術的發展和套用符合倫理標準。在此基礎上,各國政府、國際組織、企業和學術機構應加強對話與合作,分享AI技術的研究成果和治理經驗。透過舉辦國際會議和論壇,促進不同國家和地區之間的交流與合作,共同制定全球性的AI治理標準和規範,其中包括倫理標準、法律框架與技術標準。在制定AI治理政策和法規時,廣泛聽取公眾意見,確保政策制定過程的透明度和公眾參與度。透過公開咨詢、聽證會和調查問卷等形式,鼓勵公眾對AI治理問題發表意見和建議。
對於AI技術本身,則應當繼續加大對AI研究的投入,開發更為先進的加密技術和防火墻,防範黑客攻擊和數據泄露。同時,推動AI技術的安全測試和評估,確保其在各種環境下的穩定性和可靠性。與此同時,各國政府也應加強對公眾的數碼教育,提升其對AI技術的理解和套用能力。透過宣傳和培訓,提高公眾對AI技術的認知,確保更多人能夠享受AI帶來的便利和機遇。在國際組織的引導下,幫助發展中國家提升AI技術的研發和套用能力,縮小全球範圍內的數碼鴻溝。提供專項資金和技術支持,促進AI技術在發展中國家的普及套用。
實作AI全球治理需要各國共同努力,共同應對AI技術帶來的全球性挑戰。只有透過全球共治,才能在平衡發展與風險的基礎上,實作AI技術的可持續發展,為人類社會帶來更多福祉。
來源:中國日報網