當前位置: 華文世界 > 科技

諾獎得主辛頓:AI不會創造更多工作,只會讓富人和大公司更有錢

2024-10-29科技

一、辛頓與 AI 的關聯

傑佛瑞·辛頓在 AI 領域占據著舉足輕重的地位。他被譽為「AI 教父」,是深度學習三巨頭之一。辛頓對神經網路模型的研究徹底改變了人工智慧領域,在反向傳播、波茲曼機、分布式表示和延時神經網路等領域的新穎見解和關鍵發現為人工智慧研究做出了重大貢獻。
1986 年,辛頓及其合作者發表了具有重大意義的論文,推廣了被稱為「反向傳播」的演算法,這一演算法支撐著幾乎所有的神經網路,從復雜的電腦視覺系統到大型語言模型都廣泛套用。2012 年,辛頓和他的學生設計的 AlexNet 在「ImageNet 大規模視覺辨識挑戰賽」中榮獲冠軍,AI 革命的序幕由此拉開。2018 年,他與約書亞·本吉奧和楊樂昆共同獲得了圖靈獎。2024 年,辛頓獲得諾貝爾物理學獎。
辛頓的研究成果不僅在學術界引起轟動,也對科技行業產生了深遠影響。他的學生遍布人工智慧業界,如 OpenAI 前任首席科學家伊爾亞·蘇茨克韋、Meta 首席科學家楊立昆等。他的工作為開發具有特定特性的新材料等領域提供了新方法,推動了當前機器學習的爆炸性發展。辛頓以其卓越的貢獻,成為了人工智慧領域的傳奇人物。

二、AI 財富分配之憂

(一)財富流向何處

「AI 教父」辛頓指出,AI 雖能創造大量財富,但很可能只會讓富人更富,窮人更窮。AI 就像一台超級印鈔機,能極大提高生產力,創造比以往更多的財富。然而,這些財富會公平分配嗎?答案很可能是否定的。想想看,誰掌握著 AI 技術?誰擁有大量數據?誰有能力部署和套用 AI?答案顯而易見——那些科技巨頭和有錢人。
據 2024 胡潤全球富豪榜釋出的數據顯示,一半以上的新增財富來自於 AI。Meta、亞馬遜、谷歌母公司 Alphabet、甲骨文、微軟等雲端運算相關的企業家財富大幅增長。輝達的黃仁勛第一次財富明顯增長,進入全球前 30。這表明,AI 帶來的財富增長主要集中在少數大公司和富人手中。國際貨幣組織的報告也指出,發達經濟體面臨較大的 AI 風險,但也享有更多利用 AI 帶來好處的機會。發達經濟體中約 60%的工作可能會受到人工智慧的影響,其中大約一半的工作有望透過人工智慧提高生產力,而另一半的工作則可能因為人工智慧執行關鍵任務而降低勞動需求。這種情況可能導致薪水減少、招聘減少,甚至在極端情況下會導致部份工作的消失。

(二)AI 教育的困境

辛頓提到 AI 可以像「私人教師」一樣,為每個人提供個人化的教育,這聽起來很美好,但現實很骨感。優質的 AI 教育資源肯定價格不菲,窮人能負擔得起嗎?如果 AI 教育進一步拉大了教育差距,那最終還是會加劇貧富差距。
以清華博士李一舟賣 199 元的 AI 課為例,一年賣出幾十萬單,據說他光靠賣 AI 課一年就賺了 5000 萬。但對於大多數窮人來說,199 元的課程價格可能都難以承受,更不用說更昂貴的進階課程了。市面上的 AI 課程價格主要在百元間,單節售價上百元的課程也不少。對於中產階級來說,購買這些課程也需要一定的經濟實力。而對於窮人來說,他們可能根本無法接觸到這些優質的 AI 教育資源。這就使得窮人在 AI 時代可能更加落後,進一步加劇了教育差距和貧富差距。

三、應對之策探討

(一)全民基本收入制度

「人工智慧教父」辛頓認為,隨著人工智慧技術的發展,許多日常工作崗位可能會被取代,因此政府需要進行福利改革,向每位公民提供固定金額的現金,即建立全民基本收入制度。辛頓曾向唐寧街的人士提供咨詢,並建議實行全民基本收入制度。他指出,盡管人工智慧有望提升生產力和創造財富,但這些財富可能會流向富人,而非那些失去工作的人,這將對社會產生負面影響。
全民基本收入意味著政府向所有個人支付固定薪資,不論其經濟狀況。然而,批評者認為,這一制度成本極高,可能會從公共服務中抽走資金,且不一定能有效緩解貧困問題。政府發言人明確表示,目前「沒有引入全民基本收入的計劃」。
OpenAI 的聯合創始人奧爾特曼也對這種制度持支持態度。奧爾特曼創立的另一個加密貨幣計畫 Worldcoin,旨在透過解決「數位身份」和實作全民基本收入,來幫助人們應對 AI 帶來的挑戰。

(二)加強 AI 監管

政府應加強對 AI 的監管,防止技術被濫用造成社會不公。隨著 AI 技術的飛速發展,其帶來的風險也日益凸顯,如數據、演算法風險、倫理風險,技術濫用風險,以及網路攻擊風險等。這些風險不僅可能對個人私密和企業利益造成威脅,還可能對整個社會的公平性和穩定性產生負面影響。
歐盟在 2023 年 6 月透過了【人工智慧法案】的談判授權草案,明確了高風險 AI 系統的定義及合規要求,包括用於招聘、教育評估、執法、司法裁決以及關鍵基礎設施管理等領域的人工智慧套用。法案要求這些系統必須保證透明度,能夠解釋其決策過程,且需經過嚴格測試驗證,確保無歧視、公平且安全。
首屆全球人工智慧(AI)安全峰會上,28 國聯署關於人工智慧國際治理的【布萊切利宣言】,鼓勵相關行為者采取適當措施,如安全測試、評估等,以衡量、監測和減輕 AI 潛在有害能力及其可能產生的影響,並提供透明度和問責制。
美國總統拜登正式釋出【安全、可靠及可信賴的人工智慧】行政命令,要求美國多個政府機構制定標準,對人工智慧產品進行測試,尋求「浮水印」等內容驗證的最佳方法,擬定網路安全計劃,吸引技術人才,以保護私密,促進公平胡公民權利,維護消費者和勞動者的利益,促進創新和競爭,提升美國的領導地位等。
中國中央網信辦釋出【全球人工智慧治理倡議】,推動建立風險等級測試評估體系,實施敏捷治理,分類分級管理,快速有效響應。研發主體需要提高人工智慧可解釋性和可預測性,提升數據真實性和準確性,確保人工智慧始終處於人類控制之下。
加強 AI 監管,有助於規範 AI 的發展和套用,避免資訊誤導、社會不公和權力集中等問題,保障公民的基本權利,防止技術濫用導致的社會不公,推動 AI 技術的健康發展。

四、AI 發展的反思

傑佛瑞·辛頓作為「AI 教父」,對 AI 的發展既充滿期待又深感擔憂。他認可 AI 帶來的巨大生產力提升,認為其有潛力像工業革命一樣,為各個領域帶來變革。例如,在醫療領域,AI 可以輔助醫生進行疾病診斷,提高診斷的準確性和效率,為患者提供更好的治療方案;在科研領域,AI 可以加速數據分析和模型構建,幫助科學家更快地取得突破;在氣候變遷領域,AI 可以透過對大量數據的分析,為制定應對氣候變遷的策略提供支持。
然而,辛頓也擔心 AI 發展可能帶來的不良後果。他指出,AI 的危險之處在於,其真的有可能采用對人類有害的手段來實作被設定的目標,並且 AI 之間還可能會在未來出現競爭關系。面對透過競爭變得更聰明的 AI,人類將會落後。很多人主張,要防止 AI 失控,只要關掉電源開關即可。但超越人類智慧的 AI 可以用語言操縱我們,或許會試圖說服我們不要關掉開關。
辛頓的擔憂並非電洞來風。目前,AI 技術的發展速度之快令人震驚,但其安全性和可控性卻尚未得到充分保障。例如,一些大型語言模型可能會產生虛假資訊,誤導使用者;一些 AI 系統可能會被黑客攻擊,造成嚴重的安全隱患。此外,AI 技術的發展也可能導致就業結構的變化,一些傳統行業的工作崗位可能會被 AI 取代,從而引發社會不穩定因素。
因此,辛頓呼籲各界重視 AI 發展帶來的潛在風險。科學家、政策制定者和業界領導者之間需要更緊密合作,以確保 AI 的發展符合倫理標準。科學家應該加強對 AI 技術的研究,提高其安全性和可控性;政策制定者應該制定相關政策法規,規範 AI 的發展和套用;業界領導者應該承擔起社會責任,確保 AI 技術的發展不會對社會造成負面影響。
只有各界共同努力,才能實作 AI 技術的永續發展,讓 AI 真正為人類帶來福祉,而不是成為人類的威脅。