當前位置: 華文世界 > 科技

如何讓人工智能更好為人所用、向善發展?聽世界頂尖科學家怎麽說

2024-10-28科技

2024世界頂尖科學家論壇於10月25日—27日在上海臨港舉行。本屆論壇以「卓越科學 創新致成」為主題,舉辦青年科學大會等十多場專題會議,圍繞材料、能源、生命科學、智能科學、物質科學等話題進行案例分享,推動科學家、創業者、企業家、投資人等開展思想的交流碰撞。

會上,科學家深度聚焦人工智能,就人工智能帶來社會深刻變革,開啟科學研究新紀元,以及人工智能帶來的倫理挑戰和監管需求等進行了深刻討論。

01

數碼驅動
人工智能帶來深刻變革

世界頂尖科學家談如何讓人工智能更好地為人所用、向善發展? 一起去看看↓

01:35

人工智能被廣泛套用的時代已經到來

本次論壇邀請來自全球近20個國家和地區的近300位科學家,其中包括11位諾貝爾獎得主在內的50余位海外頂尖科學家、40余位中國兩院院士及資深科學家。科學家們表示,人工智能被廣泛套用的時代已經到來。

2010年諾貝爾經濟學獎得主、倫敦政治經濟學院經濟學皇家教授 克里斯托弗·皮薩列特斯: 人工智能已經在許多公司得到了套用,並且未來會套用得更多。我的主要研究目標是確保人工智能的套用,能夠惠及所有工作中的人,這也是我演講的主題,討論如何實作這一目標。

培訓人工智能相關技能 避免員工對其擔憂

克里斯托弗·皮薩列特斯表示,很多企業在運用人工智能時並不透明,人工智能和自動化器材讓員工覺得降低了工作質素。

2010年諾貝爾經濟學獎得主、倫敦政治經濟學院經濟學皇家教授 克里斯托弗·皮薩列特斯: 公司需要花時間為員工進行培訓,幫助他們為未來做好準備。員工需要具備一些基本的科學、技術、工程和數學技能,公司內部的正式會議也應該有更好溝通,讓每個人都清楚自己的職責以及他們在公司中的定位,這樣可以避免目前員工對人工智能的恐懼和擔憂。

02

人工智能開啟科學研究新紀元

人工智能跨領域的套用研究已經變得非常普遍,今年諾貝爾物理學獎花落機器學習領域兩位學者, 「人工智能是否屬於物理學」 的話題引發廣泛關註和討論。對此,頂尖科學家們是怎麽看的?

01:28

在本屆論壇上,多位與會科學家都提到了本月頒發的2024年的諾貝爾獎在人工智能領域取得了重大突破,特別是在物理學和化學兩個獎項中。在物理學領域,諾貝爾物理學獎獲得者,利用統計物理學的基本概念,設計了能夠作為聯想記憶並從大數據集中尋找模式的人工神經網絡。此外,化學獎獲得者開發的AlphaFold AI工具,對於預測蛋白質結構具有革命性的影響。

與會科學家表示,人工智能的套用已經深入科學研究的各個領域,從蛋白質結構的預測到材料科學、天文學等多個領域,人工智能都在幫助科學家們處理大量復雜的數據,發現新的模式和知識。這些成就表明,人工智能已經成為現代科學研究不可或缺的工具,它的跨學科特性和強大的數據處理能力正在推動科學的邊界不斷擴充套件。

03

審視人工智能
帶來的倫理挑戰與監管需求

隨著人工智能的廣泛使用,專家學者認為,不僅要關註人工智能在產業升級、最佳化生活體驗方面的無限潛力, 更應深刻審視其帶來的倫理挑戰與監管需求

01:25

2024頂科協獎的獲得者基利因伯格認為,在設計演算法時,要兼顧演算法目標、使用數據、訓練方法等各方面。比如在數據層面,演算法作為敏感資訊的儲存庫,其背後有大量數據支撐,所以應該保護這些數據的完整性,兼顧數據所代表的各方利益。

中國新一代人工智能發展戰略研究院執行院長 龔克: 人工智能在生成內容的時候,它一定是帶價值觀的,聯合國教科文組織在兩年前推出了聯合國的第一個檔,就是關於人工智能倫理的建議書,就是為了它的治理建立一個基礎。這個建議書提出了4個最重要的價值觀原則,在這個價值觀原則上構建了10個倫理的原則。在地緣政治沖突這麽嚴重的情況下,怎麽把這些不同的,比如今天我們在上海的論壇,在英國的論壇,在南韓的,把它們能連線起來,形成一個全球的共識,現在是一個非常嚴重的挑戰。

建立全球監管機制 讓人工智能向善發展

如今,人工智能其快速發展及普及正為社會帶來深刻變革,同時也帶來了不可忽視的潛在威脅。因此, 建立一套跨越國界、種族、文化的統一的全球人工智能監管機制勢在必行。

2015年圖靈獎得主、史丹福大學電氣工程名譽教授 馬丁赫爾曼: 我很多次強調,如果要讓人工智能向善發展,必須停止人工智能在武器系統的套用,但是我們現在看到正在向這個趨勢發展,所以我們要想辦法透過合作來解決。

04

失去人類控制的智能
現在還看不到影子

隨著各種大模型、生成式人工智能套用層出不窮,重視通用人工智能發展已成為行業共識。通用人工智能時代何時到來?人工智能未來是否會超越人類甚至不受人類的控制?對此, 中國新一代人工智能發展戰略研究院執行院長龔克表示,失去人類控制的智能,現在還看不到它的影子。

01:06