當前位置: 華文世界 > 科技

技經觀察丨從美國政府政策看:如何激發人工智能驅動科研創新潛力

2024-07-27科技

當前,人工智能技術對科學研究變革性創新效益逐漸顯現,催生一系列生物、材料、物理、化學等領域突破性研究創新,使人類社會進入新的快速發展期。美國作為人工智能強國,已將人工智能納入政府政策管理的核心,在發展人工智能技術的同時,正全力推動人工智能對科研創新效果的提升,以期形成人工智能對科技前沿探索的最大乘數效應,保持美國未來科技優勢。本文全面回顧近一段時期美國政府人工智能管理政策,從政策設計、機構管理、配套設施等不同維度分析美政府如何激發人工智能賦能科研創新的戰略性舉措,以期帶來新的思考與啟示。

一、美政府對人工智能驅動科研創新的理解

美政府在推廣人工智能技術過程中對技術賦能的本質理解不斷加深,既關註正向創新作用,也關註研究風險與安全,筆者分析近一段時期美國政府期間政策,總結其對人工智能促進科技創新的理解。

理解一:人工智能對科技實驗的變革是顛覆性的

美總統科技顧問委員會2024年4月提出「負責任地套用人工智能,將從根本上改變科學研究方式,人類科學家有望解決當下社會最為緊迫的挑戰」。科研領域套用人工智能可以拓展人類知識的邊界,對人類科技研究將產生顛覆性變革。從實驗層面看,人工智能對科技創新的提升可體現在三個方面:

一是人工智能快速叠代,作為科研工具的實用性大幅增強。隨著人工智能技術研究不斷深入,處理問題的能力不斷提升,深刻帶動科技研究創新升級。以深度學習為例,谷歌旗下DeepMind在2018年推出AlphaFold 1後,6年間版本叠代三次,2024年推出的AlphaFold 3能力大幅升級,已可輔助科學家預測蛋白質與其他分子相互作用時的結構。

二是人工智能套用深入,作為創新工具的效率進一步提升。一方面,機器人科學家或成為現實。2023年11月,美國勞倫斯柏克萊國家實驗室釋出基於機器人的自主材料實驗室(A-lab)最新成果, A-Lab可處理比人類實驗員多50-100倍的材料樣本,並可在沒有人為幹預的情況下自主進行24小時不間斷實驗;另一方面,模型大範圍套用後,成本更低。例如天氣預測領域,美科學家發現人工智能演算法訓練完成後,執行成本低於傳統計算公式建模的天氣系統。

三是人工智能創新加速,有利於拓寬科技研究邊界。2023 年7月,Google前CEO艾歷·施密特在MIT Technology Reviews發表評論稱:「目前,跨領域知識融合與生成式人工智能或超大型深度學習模型已擴充套件科學的可能性」。例如,深度神經網絡、深度強化學習等人工智能已套用於托卡馬克核聚變的等離子體研究,拓寬科研邊界,縮短科學家對前沿未知領域認識過程;基於現有材料數據訓練人工智能,可快速研制發現未知的材料結構。

理解二:人工智能推動科研創新關鍵在於數據

2023年5月,美釋出【國家人工智能研究與開放戰略計劃(2023版)】提出,要「推進以數據為中心的知識發現方法」。結構化數據訓練直接影響模型使用結果,在科研領域,人工智能驅動創新成為新科技範式,關鍵在於數據使用。

一方面,采用統一原則推廣數據集。美學界目前普遍認可「可尋找性、可存取性、互操作性、可重用性」(FAIR)原則,並基於此開發相應政府所轄領域數據庫。例如,美國國立衛生研究院數據科學戰略辦公室在2021年至2023年間基於FAIR原則,資助83家機構共108個專案,為研究人員提供生物與醫療領域數據資源研究專案。並且,美國國立衛生研究院基於大數據到知識(BD2K) 計劃設立bioCADDIE、CEDAR等生物數據領域研究社區,推廣數據使用與研究。

另一方面,高度關註科研領域人工智能數據管理。2023年10月,美總統拜登在「關於安全、可靠和可信地開發和使用人工智能的行政命令」中,針對科技研究中的數據管理向各主管機構提出多項要求:一是向公眾提供聯邦政府數據存取;二是加強數據清單審查與管理,防止數據被應於危害安全的研究;三是進一步向研究領域開放涉及高效能和數據密集型計算的資源;四是探索提高生物與醫療領域數據質素的舉措,在確保私密與安全條件下,進一步放開臨床研究所需的數據;五是在法律允許框架下向小企業開放研究所需的數據集。

理解三:人工智能在科研領域套用或產生安全風險

盡管人工智能發展迅猛,現階段人工智能對科技實驗並非都是正向結果。2023年10月,美國國家人工智能咨詢委員會(NAIAC)釋出一份最新的人工智能未來潛在風險調查結果,對人工智能研究與套用持審慎態度。

其一,囿於對人工智能基礎運算理解不深入,人工智能在科研領域套用存在「黑箱問題」,導致人工智能套用在實驗領域存在謬誤。美國國家科學院在2022年提出「學術界在使用人工智能工具過程中,人工智能質素難以評估,可能對科學領域及其套用造成危害」。2023年6月,美國政府問責局提示生成式人工智能在使用中存在「幻覺現象」,科研人員在構建人工智能系統過程中往往面對的是未知的套用結果,在訓練模型的數據中或存在偏見,會放大生成式人工智能輸出造成危害的可能性。

其二,隨著人工智能普及,多數人員在人工智能安全管理存在不專業現象,導致人工智能演算法安全漏洞與外泄風險。美國國家人工智能咨詢委員會指出,在人工智能使用中存在規避安全現象,有些安全規避現象並非本人主觀意願,是使用人員對安全理解不到位,編輯和使用過程中存在套用「繞過」監管的風險。並且,美國國家人工智能咨詢委員會提出,開源模型在生物、化學、網絡等領域套用被惡意使用或產生新的國家安全風險。

其三,人工智能成果推廣是一個系統工程,需嚴格界定數據與模型倫理道德邊界。美國國家人工智能咨詢委員會在2024年5月就促進人工智能在科技領域套用釋出研究報告,其中將數據使用「知情同意」納入關鍵政策建議,提出要在尊重數據使用人與被使用人知情權的前提下,允許日常數據收集及套用於科學研究領域。

此外,面對人工智能快速套用,美國民眾對政府人工智能管理存在一定焦慮。美國皮尤中心2023年11月在全美發起一項人工智能套用調查,結果顯示:超過60%受訪者對醫療過程中使用人工智能感到不適;在使用ChatGPT受訪者中,約67%人希望政府采取更加嚴厲監管舉措;78%受訪者對人工智能套用造成的風險感到不安。

二、美已開展一系列舉措加強人工智能驅動科研創新

為進一步將人工智能優勢轉化為實際科研創新成果,美政府已開展一系列舉措,促進人工智能驅動科研創新。

舉措一:啟動國家人工智能研究資源試點專案

美政府推出國家人工智能研究資源 (NAIRR) 試點專案,機構工作群組由白宮科技政策辦公室與美國國家科學基金會共同管理,圍繞人工智能研究與科研發現所需資源進行統籌,側重於支持美學術界研究和教育。NAIRR試點專案於2024年1月24日啟動,為期兩年。

具體來看,NAIRR試點專案旨在透過增加對各種人工智能相關基礎設施資源(計算能力、數據集、預訓練模型、軟件系統、平台)存取,滿足研究人員需求。第一階段,NAIRR將為美科研人員提供高效能電腦、人工智能特定資源(如:預訓練模型、數據集等)。

目前,NAIRR 試點專案已涵蓋14家政府機構(國防部、能源部、航空航天局、國立衛生研究院等)與26家科技企業(微軟、谷歌、OpenAI、IBM、亞馬遜、輝達、AMD等)。

根據NAIRR 工作群組建議,目前NAIRR 試點專案實施以下管理和治理結構:

圖1:NAIRR 試點專案治理框架

舉措二:簡化聯邦政府數據存取程式

人工智能科研領域模型訓練需要相應領域科研數據,美政府已在【國家人工智能研究與開放戰略計劃(2023版)】中,將數據存取與開發列入關鍵舉措之一,進一步鼓勵並促進聯邦數據開放。

對於政府擁有研究數據,美政府已將可公開數據放置在data.gov、science.gov等公開網站。對於非敏感可公開的數據,已經開放在各大政府網站。例如,太空總署已將地球科學等數據集開放在網站中,供研究人員使用;國家科學基金會推出共存取計劃2.0,其中進一步提高科研數據開發與公共存取便捷性。對於需要申請或授權使用數據,在實施身份存取管理基礎上,也進一步支持與研究人員共享數據;根據癌癥登月計劃,國立衛生研究院正建設並擴大癌癥研究數據生態系,鼓勵數據間共享,以支持對個體患者癌癥治療,並推動新療法發現;美國家科學技術委員會表示,出於私密或安全需要,聯邦政府可以提供政府數據安全平台,目前相關部門正研究涉及國家安全數據服務授權。

舉措三:加強人才培養與學科建設

人工智能驅動科技創新對科學家與人工智能專家提出新的需求,廣泛需要大量交叉領域復合人才。戰略層面,美國人工智能研發戰略將人工智能人才培養拆分為十項具體工作,分別牽頭實施。其中,既考慮自身勞動力再教育、學生多元化培養、學科建設等問題,也涉及如何吸引全球人工智能人才赴美工作。

各聯邦機構也積極開展相應STEM人才培養。美國國家科學基金會2023年10月宣布撥款 1600 萬美元加強和多樣化人工智能研究能力;2023年12月啟動未來人工智能勞動力教育計劃(EducateAI),進一步擴大人工智能領域教育規模,覆蓋K12及本科生階段。美能源部與國家科學基金會合作,依托高效能計算網絡,為科學家及研究人員提供人工智能學習服務,目標到2025年培訓500名研究人員,滿足研究領域人才需求。

舉措四:進一步加大專案與投資引導

美政府多部門已設立基於人工智能科研專案,進一步透過政府資金引導人工智能推動科研創新。

  1. 引導人工智能賦能科技創新方向

一方面,設立投資專案引導人工智能與科技方向。例如,2023年國家科學基金會投資7250萬美元,用於推動解決重大社會挑戰所需的先進材料的設計、發現和開發;2023年美國能源部已在未來五年內為量子科學中心提供1.15億美元資助,其中包括支持人工智能輔助量子材料發現和設計;2024年,國家標準與技術研究院啟動人工智能在制造業領域套用研究專案並宣布設立新機構,將在未來五年投資7000萬美元加強人工智能在制造業領域研究;國立衛生研究院設立「通向人工智能橋梁」(Bridge2AI)基金專案,推動生物醫藥與人工智能結合領域研究發展。

另一方面,政府部門就所管轄領域可開展人工智能研究進行分析並釋出方向報告,為各機構研究提供方向性參考。例如,美能源部2024年釋出【人工智能與能源:現代電網和清潔能源經濟機遇】【能源領域人工智能高級研究方向】,進一步引導能源領域人工智能科研發現方向。

2.加強人工智能基礎設施投資

公共服務方面,2024年美能源部宣布成立「人工智能和數據中心基礎設施供電工作群組」。將在今年年中釋出關於滿足人工智能等基礎設施建設能源供給政策研究報告;能源部宣布在今年內召開電力負荷增長利益相關者會議,涉及公用事業公司、數據中心、清潔能源開發及執行企業。此外,美政府正研究量化全美數據中心能耗與水耗。受美能源部委托,勞倫斯柏克萊國家實驗室目前正在對全美數據中心區域能源和水資源使用情況分析與調研。

數碼基礎設施方面,拜登政府自執政以來,大力推動基礎設施投資專案,依托【兩黨設施投資法案】【芯片和科學法案】【通脹削減法案】等一系列法規,在高效能計算、數據中心、寬頻、電網等領域持續投資並為其提供稅收抵免,加強數碼基礎設施建設。例如,能源部2023年撥款4000萬美元,用於提高數據中心冷卻效率;衛生及公共服務部推出數據中心最佳化多年期計劃(2023-2026),進一步提高數據中心執行效率,整合替換最佳化其管轄數據中心。

舉措五:引導學術界與其他合作夥伴開展多元化研究

美政府高度重視人工智能研究領域合作生態建設。自2016年奧巴馬政府首次釋出國家人工智能研發戰略規劃以來,如何建立和培養適應人工智能發展創新環境一直是美政府管理者高度關註

政策方面;2019年特朗普政府首次修訂國家人工智能研發戰略規劃,其中增加一項戰略重點,將進一步促進人工智能研究與套用領域公私夥伴關系,重點是「政府—大學—產業研發夥伴」關系;2023年拜登政府第二次修訂國家人工智能研發戰略規劃,其中合作生態建設是修訂重點,在原有戰略基礎上,將「政府—大學—產業研發夥伴」戰略方向擴大為「與學術界、產業界、國際夥伴和其他聯邦實體合作」,並新增「建立原則性和協調性人工智能研究國際合作方法,優先開展人工智能研發國際合作」。

各聯邦部門積極透過細分領域研究計劃,加快推動美人工智能研究合作生態構建。例如,美國家科學技術委員會在2021年修訂「材料基因組計劃戰略計劃」(MGI)提出,為美研究人員建立一套統一的跨學科研究工具與方法,包括:計算(理論、建模、模擬)工具、實驗(合成、特性、處理)工具、綜合研究平台、數據基礎設施等。美國家科學基金會整合2016年至2020年間研究資源,建立材料創新平台,由一套實驗和計算工具組成,支持全國研究人員存取,可對晶體生長、材料與生物學融合開發等領域開展研究。

舉措六:引導科研人員加強人工智能風險管理

圍繞人工智能套用風險,美政府已開展一系列舉措,從科研角度看,美政府正逐步引導和規範科研人員使用人工智能。

一是行業主管部門明確道德邊界。人工智能套用風險最多領域目前集中在生物研究中,2022年10月,美國衛生及公共服務部針對人體實驗中人工智能使用原則制定明確規定,並圍繞規則解釋進行詳盡說明。例如,數據收集層面,人類受試者或數據提供者應被明確告知資訊範圍。

二是圍繞研究倫理問題展開專案培訓。美國國家科學基金會已啟動國家研究培訓(NRT)計劃,其中就人工智能倫理問題展開多學科研究與培訓。例如,德克薩斯大學柯士甸分校NRT計劃涉及「負責任使用合乎道德人工智能」,涉及電腦科學、機器人技術、航空航天工程等領域。

三是針對套用推出風險管理手冊與指南。2022年8月,美國能源部人工智能和技術辦公室(AITO)釋出人工智能風險管理手冊 (AI RMP),鼓勵人工智能研究人員與套用者采取主動風險管理措施;2023年12月,美國國家科學基金會就研究成果評估中生成式人工智能使用釋出規則說明,要求審查環節不得將成果內容上傳至未經批準的大模型中;2024年4月,美國國家標準與技術研究院釋出人工智能風險管理框架,建議研究人員按照管理框架就生成式人工智能風險進行合理管控,其中就「獲取與化學、生物、放射性或核武器相關的資訊」風險進行詳細分析,並提出相應管理措施。

三、總結與思考

人工智能驅動科研創新是未來技術創新關鍵路徑,已成為全球創新前沿,更是影響大國科技競爭關鍵之一。美國作為全球人工智能強國之一,在發展人工智能的同時也在全面推動人工智能在科技研究中的創新套用。梳理美政府人工智能驅動科研創新領域的政策、規劃後,發現:

一是加強人工智能對科技創新賦能的過程與機理研究。如何理解人工智能賦能科技創新的過程與本質機理,直接影響政府機構對人工智能工作的管理分工,也影響對人工智能的風險管理。目前,美國已開展「人工智能安全」建設,以期建立完整的研究框架,分析人工智能在各類套用中作用機理與風險傳導機制,以便更有針對性管理人工智能風險。

二是引導數據適度開放。在保障私密安全的前提下,美國將各研究領域數據進行分批開放,進一步促進美材料、生物、醫藥等領域人智能套用發展。人工智能賦能科技創新的核心在於「以數據為核心的知識發現」,隨著人工智能技術創新加速,許多不同的模型演算法不斷湧現,可以發現新的知識,為科學家在高不確定性的前沿研究中提供高確定性的解決路徑。

三是提供成熟工具。在保障自身需求的前提下,美國將相關領域成熟計算工具與研究平台適度對外開放,一方面,有利於集約化開發成熟人工智能模型,減少美研究人員研究壁壘、研發成本,提高研究有效性;另一方面,將成熟工具適度對外開放,有利於美政府層面管控人工智能研究,引導科技創新,減少安全風險。

四是豐富研究生態。在保障技術創新的前提下,美國透過交叉領域專案投資、發起研究聯盟、促進國際合作等形式加強交叉領域套用創新與培訓,一方面,可以引導科技合作與研究方向,有利於鞏固美人工智能全球創新領導地位;另一方面,借政府資金引導研究人員規範人工智能使用,特別是按照美政府人工智能原則開展人工智能實驗,減少人工智能使用風險。

參考文獻:

[1]PCAST Releases Report on Supercharging Research: Harnessing Artificial Intelligence to Meet Global Challenges [EB/OL]. https://www.whitehouse.gov/pcast/briefing-room/2024/04/29/pcast-releases-report-on-supercharging-research-harnessing-artificial-intelligence-to-meet-global-challenges/

[2]AlphaFold 3 predicts the structure and interactions of all of life’s molecules [EB/OL]. https://blog.google/technology/ai/google-deepmind-isomorphic-alphafold-3-ai-model/

[3]NATHAN J. SZYMANSKI, BERNARDUS RENDY, YUXING FEI, et al. An autonomous laboratory for the accelerated synthesis of novel materials[J]. Nature,2023,624(7990):86-91.

[4]Eric Schmidt:This is how AI will transform the way science gets done [EB/OL]. https://www.technologyreview.com/2023/07/05/1075865/eric-schmidt-ai-will-transform-science/

[5]GS-DeepNet: mastering tokamak plasma equilibria with deep neural networks and the Grad–Shafranov equation

[6]DEGRAVE, JONAS, FELICI, FEDERICO, BUCHLI, JONAS, et al. Magnetic control of tokamak plasmas through deep reinforcement learning[J]. 2022,602(Feb.17 TN.7897)

[7]Science & Tech Sptlight:Generative AI [EB/OL]. https://www.gao.gov/products/gao-23-106782

[8]NATIONAL ARTIFICIAL INTELLIGENCE RESEARCH AND DEVELOPMENT STRATEGIC PLAN 2023 UPDATE [EB/OL]. https://www.nitrd.gov/national-artificial-intelligence-research-and-development-strategic-plan-2023-update/

[9]Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence [EB/OL]. https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/

[10]GAO:Artificial Intelligence’s Use and Rapid Growth Highlight Its Possibilities and Perils [EB/OL]. https://www.gao.gov/blog/artificial-intelligences-use-and-rapid-growth-highlight-its-possibilities-and-perils

[11]National Artificial Intelligence Research Resource Pilot [EB/OL]. https://new.nsf.gov/focus-areas/artificial-intelligence/nairr#about-the-nairr-pilot-bcb

[12]About the Administrative Supplements to Support Collaborations to Improve the AI/ML-Readiness of NIH-Supported Data [EB/OL]. https://datascience.nih.gov/artificial-intelligence/initiatives/Improving-AI-readiness-of-Existing-Data

[13]HHS Data Center Optimization Multi-Year Plan 2023-2026 [EB/OL]. https://www.hhs.gov/web/governance/digital-strategy/it-policy-archive/hhs-data-center-optimization-multi-year-plan-2023-2026.html#4

[14]NSF launches EducateAI initiative [EB/OL]. https://new.nsf.gov/news/nsf-launches-educateai-initiative

[15]Supercharging America's AI Workforce [EB/OL]. https://rgy.gov/cet/supercharging-americas-ai-workforce

[16]DOE Announces New Actions to Enhance America’s Global Leadership in Artificial Intelligence [EB/OL]. https://www.energy.gov/articles/doe-announces-new-actions-enhance-americas-global-leadership-artificial-intelligence

[17]Bridge to Artificial Intelligence [EB/OL]. https://www.commonfund.nih.gov/bridge2ai

[18]The 2021 Materials Genome Initiative Strategic Plan [EB/OL]. https://www.mgi.gov/

作者簡介

白路 國務院發展研究中心國際技術經濟研究所研究一室

研究方向:科技戰略、科技安全

編輯丨鄭實

研究所簡介

國際技術經濟研究所(IITE)成立於1985年11月,是隸屬於國務院發展研究中心的非營利性研究機構,主要職能是研究中國經濟、科技社會發展中的重大政策性、戰略性、前瞻性問題,跟蹤和分析世界科技、經濟發展態勢,為中央和有關部委提供決策咨詢服務。「全球技術地圖」為國際技術經濟研究所官方微信賬號,致力於向公眾傳遞前沿技術資訊和科技創新洞見。

地址:北京市海澱區小南莊20號樓A座

電話:010-82635522

微信:iite_er