當前位置: 華文世界 > 科技

大語言模型正在接管哪些工作?

2024-08-30科技
參考訊息網8月28日報道 據英國【經濟學人】周刊網站8月13日報道,人工智能可以說是一門讓電腦做出在人類看來是聰明之舉的藝術。從這個意義上說,人工智能在我們的生活中已經無處不在。
套用無處不在
衛星導航軟件利用搜尋演算法找到從你家到那家新餐廳的最快路線;飛機自動降落;交通網絡攝影機使用光學字元辨識技術辨識超速汽車車牌上的字母;恒溫器會根據誰在家來調整溫度設定。這些都是人工智能,即使它們沒有被如此行銷。有一個老笑話說,當人工智能持續、可靠地工作時,它就被稱為工程學。另一個笑話說,反之,人工智能就是還不太好用的東西。
目前,人工智能吸引了全世界的目光,並耗費著大量的計算能力和電力,它基於一種名為「深度學習」的技術。在深度學習中,線性代數(特別是矩陣乘法)和統計學被用來在訓練過程中從大型數據集中提取並學習相關模式。大語言模型(LLM),例如谷歌的Gemini或開放人工智能研究中心(OpenAI)的聊天生成預訓練轉換器(ChatGPT),已經在大量文本、影像和影片中得到訓練,並開發出許多能力,包括它們沒有經過明確訓練的「智能湧現」能力(頗具前景,但其風險也令人擔憂)。目前,針對影像、音樂、機器人學、基因組學、醫學、氣候、天氣、軟件編碼等領域的此類模型已經有了更加專業的特定領域版本。
這一領域的飛速發展讓人們預測,人工智能正在「接管藥物研發」,它將「改變好萊塢講故事的方方面面」,並可能「改變科學本身」(所有這些說法都是媒體過去一年報道過的)。據說,人工智能將加速科學發現,以自動化消除白領工作的乏味,並帶來無法想象的奇妙創新。人工智能有望提高效率,推動經濟增長。人工智能還可能取代人類的工作,危及私密和安全,並導致道德困境。人工智能已經超出了人類對其行為的理解。
局限不容忽視
研究人員仍在摸索人工智能能做什麽、不能做什麽。迄今為止,基於更多數據訓練的大模型已被證明更有能力。這促使人們相信,繼續增加數據將使人工智能變得更好。人們對「尺度定律」(scaling law)進行了研究,該定律顯示了模型大小與訓練數據量如何相互作用來改進大模型。但什麽是「更好的」大模型?是能正確回答問題的人工智能,還是能提出創造性想法的人工智能?
要預測現有系統和流程在多大程度上能夠利用人工智能,也是一件棘手的事情。
迄今為止,人工智能在離散任務中的能力最為明顯。給經過專門訓練的人工智能模型一張暴亂人群的影像,它就能為當局辨識出人群中的面孔。讓大語言模型參加法律考試,它的成績會比普通中學生更好。但在開放式任務上,人工智能模型的表現則更難評估。
目前的人工智能大模型非常擅長根據訓練數據中的模式生成從詩歌到逼真影像等各種內容。但這些模型並不擅長在特定情況下決定它們生成的哪些內容最有意義或最合適。它們不太擅長邏輯和推理。目前還不清楚,更多的數據是否會釋放出持續推理的能力,或者是否需要完全不同類別的模型。也許在很長一段時間內,人工智能的局限性將需要人類的推理能力來駕馭它的力量。
在醫療保健等領域,找出這些局限性將至關重要。如果使用得當,人工智能可以更早地發現癌癥、擴大服務範圍、改善診斷和個人化治療。
根據今年4月發表在【自然合作期刊-數碼醫學】雜誌上的一項分析,人工智能演算法在此類任務中的表現可以超過人類臨床醫生。但人工智能演算法的訓練可能會讓它們誤入歧途,這就體現了人類幹預的價值。
例如,由於「數據分布偏移」,人工智能模型很容易加劇人類的偏差;如果診斷模型主要在白人皮膚的影像上接受訓練,那麽給它一張黑人皮膚的影像,它就可能犯錯。事實證明,將人工智能與合格的人類相結合是最有效的。論文顯示,使用人工智能的臨床醫生能夠將正確診斷出癌癥的比例從81.1%提高到86.1%,同時也提高了正確判斷沒有患癌的比例。由於人工智能模型往往會犯與人類不同的錯誤,人工智能與人類合作的效果被認為優於人工智能和人類獨立工作的效果。
推動科學進步
人類也許不再那麽需要在科學領域探索新的假說了。
2009年,劍橋大學的羅斯·金說,他的終極目標是設計一種系統,作為一個自主實驗室或「機器人科學家」發揮作用。金博士設計的人工智能科學家名叫「亞當」,它可以提出假說,用機械臂做實驗,用傳感器收集結果並進行分析。與人類研究生和博士後不同的是,亞當從不需要吃飯或睡覺。但這類人工智能系統(目前)僅限於藥物發現和材料科學等相對狹窄的領域。目前仍不清楚,與人類主導的研究相比,它們能否帶來更多增量收益。
幾十年來,人工智能技術一直被用於科學領域,對數據進行分類、篩選和分析,並做出預測。例如,「鯨語轉譯計劃」的研究人員收集了大量鯨魚發聲的數據集,然後根據這些數據訓練人工智能模型,找出哪些聲音可能有意義。或者考慮一下谷歌「深層思維」公司開發的深度神經網絡「Alpha折疊」程式。透過在一個龐大的蛋白質數據庫中進行訓練,它可以快速、準確地預測蛋白質的三維形狀,而這項任務曾經需要人類進行仔細實驗和測量。GNoME是「深層思維」公司開發的另一個人工智能系統,旨在幫助人們發現具有特定化學特性的新材料。
人工智能還能幫助研究人員理解大量數據流,無論是篩選粒子對撞機的結果以辨識新的亞原子粒子,還是跟上科學文獻的步伐,否則這些數據流會讓研究人員不堪重負。對任何人來說,無論多麽勤奮地閱讀,都不可能消化每一篇可能與其工作相關的科學論文。所謂的「基於文獻的發現系統」可以分析這些堆積如山的文本,找出研究中的空白,以新穎的方式將舊的觀點結合起來,甚至提出新的假設。不過,很難確定這種類別的人工智能工作是否有益。人工智能也許並不比人類更擅於做出意想不到的演繹飛躍;相反,它可能只偏愛傳統的、屢試不爽的研究路徑,而這些路徑並不令人興奮。
難脫人類掌控
在教育領域,人們擔心人工智能(尤其是像ChatGPT這樣的機器人)實際上可能會阻礙學生的原創性思維。根據2023年的一項研究,全球有40%的學生使用人工智能完成學校作業,其中大部份是寫作。這導致一些教師、教授和學區禁止使用人工智能聊天機器人。許多人擔心,使用聊天機器人會影響學生透過努力解決問題或進行論證發展解決問題和批判思維的能力。另一些教師則采取了完全不同的態度,將人工智能作為一種工具,並將其融入到作業中。例如,學生可能會被要求使用ChatGPT就某個話題寫一篇文章,然後批評它的錯誤之處。
等等,這篇文章是聊天機器人寫的嗎?
當今的生成式人工智能不僅能在點選按鈕後生成文本,還能在幾秒鐘內生成影像、音訊和影片。這有可能在播客、影片遊戲和廣告等領域顛覆媒體行業。人工智能驅動的工具可以簡化編輯、節省時間並降低準入門檻。但人工智能生成的內容可能會讓一些藝術家(例如插畫家或配音演員)面臨失業風險。假以時日,也特許以用人工智能驅動的人類演員擬像或完全由人工智能制作整部電影。
不過,人工智能模型既不能獨立創造問題,也不能獨立解決問題(反正現在還不能)。它們只是精心設計的軟件,沒有生命或自主能力。它們依賴人類使用者來呼叫和提示它們,然後套用或放棄得出的結果。人工智能的革命效能力,無論好壞,仍取決於人類和人類的判斷。(編譯/劉白雲)
來源:參考訊息網