當前位置: 華文世界 > 科技

人工智能的雙刃劍:從種族主義聊天機器人到創造自己語言的AI

2024-08-30科技

現今,全球許多人把希望寄托在人工智能(AI)技術的快速發展上,它被廣泛認為能治愈疾病、提升醫療診斷效果和保護弓境。然而,對於AI技術最終可能失控並導致不可逆轉的災難,公眾的擔憂持續存在。

諸如已故的著名物理學家史帝芬·霍金(Stephen Hawking)、科技企業家埃隆·馬斯克(Elon Musk)以及聯合國人權高級專員辦公室的妙思·巴切萊特(Michelle Bachelet)等,都曾對科技帶來的末日災難風險發出警告。雖然這種爭論從未停息,但近年來科技的進展雖未能完全「救世」,也未見其淪陷世界,反而展現了AI的更多奇特與引人深思的可能性。

關於性取向的演算法

美國史丹福大學的一個研究小組提出了一個具爭議的觀點:一個人的性取向是否能透過外表判斷?他們開發了一個演算法,可以分析人們在線上約會網站上傳的照片,從而預測此人是異性戀還是同性戀。

這個團隊獲取了約會網站的公開使用者資訊,並使用神經網絡從使用者的外表和姿態中辨識其性取向。研究結果顯示,該演算法對男性和女性的性取向預測準確率分別為81%和74%,相比之下,人類評估者的準確率僅為61%和54%。

該研究受到了LGBT權益團體的強烈反對,並被批評為「垃圾科學」;研究人員則辯稱,他們的目的是警示公眾新技術可能帶來的私密侵犯風險。

人工智能聊天機器人在網絡上迅速變成種族主義者

2016年3月,微軟的開發團隊為其新研發的AI聊天機器人Tay建立了Twitter賬號,未料到該機器人在網上的生存不足16小時。

Tay釋出的多達9.6萬條推文中充滿了性別歧視、種族歧視和排外主義言論,甚至贊美希特勒、否認猶太大屠殺等,導致微軟不得不迅速將其下線。盡管Tay的例子引起了公眾的廣泛關註,但它並非個例。2021年的一項研究顯示,AI在生成影像時往往將女性描繪為性感形象,男性則更專業。2022年的實驗也發現,AI機器人在操作人臉積木時使用了種族和性別的刻板印象,這種問題的偏見是不容忽視的,需采取措施應對。

兩個AI機器人創造了自己的語言

Facebook人工智能研究實驗室透過連線兩個對話機器人——Alice和Bob——來訓練它們的談判能力,結果卻發現這兩個機器人創造了自己的語言程式碼,形式類似於「球有零對我對我對我對我對我對我對我對我」。Facebook解釋稱,這是因為這些機器人的程式設計沒有遵循自然語言的語法和語法規則,它們用英語單詞構建了自己的程式碼,從而能夠輕松互相理解。

從食物照片推斷食譜

愛好者現在可以依靠由麻省理工學院、加泰隆尼亞理工大學和卡達計算研究所共同開發的AI系統「Pic2Recipe」,根據食物的照片來推斷食材和食譜。系統經過一百萬個案例的訓練後,能正確判斷食譜和食材的準確率為65%。當然,它仍需人為協助,因為有些成分和配方肉眼是看不見的。

在分析情感方面,機器更關註語調、聲音強度等形式特征

南加州大學的研究團隊收集了多對夫婦在兩年多咨詢過程中的對話內容,並用這些數據訓練了一套AI系統,預測這些夫婦是否可能重新找回初見時的激情。令人驚訝的是,這套AI系統的預測正確率達到了79.3%,高於人類專家的75.6%。機器並不關心對話的具體內容,而是專註於對話的形式特征,如語調、聲音的強度等。

和真人互動的虛擬復制品

近年來,利用人工智能重建已故名人的虛擬復制品成為了一個備受爭議的話題。媒體上不斷有相關報道,顯示聊天機器人能模仿逝者的聲音,並嘗試與人進行真實的對話。

這種技術雖然收到了極端的評價,也涉及到了不少倫理和道德問題,但許多科技公司仍視其為潛在的商業機會。例如,亞馬遜希望其數碼助理Alexa能模仿任何人的聲音,哪怕這個人已經去世。這項技術已經在一些情況下被套用,如一位英國女士在自己的葬禮上「回答」了家人的問題,以及知名電視演員愛德華·阿斯納(Ed Asner)的聲音在電視劇中的使用。

與虛擬人物的互動

雖然充氣娃娃的歷史已久,但現代材料和制造技術的發展使得這些娃娃變得極其逼真,不僅外觀近乎完美,觸感也非常接近真人。科技的下一步是將人工智能整合進這些娃娃中,使它們能夠與使用者進行交流並記住其偏好。

加州的RealDoll公司就研發了一個名為「Harmony」的人工智能驅動的機器人,這個機器人的頭部可以表現出多種面部表情,能夠與使用者交談並記住使用者的喜好。盡管這類技術引發了廣泛的爭議,公眾對於機器人伴侶的興趣似乎並未減少。

### 文章總結

本文探討了人工智能技術的多種用途和潛在的風險,從爭議的性取向預測演算法到可能導致私密侵犯的聊天機器人,再到模仿逝者聲音的虛擬復制品和與人工智能驅動的娃娃互動。這些套用反映了人工智能作為技術工具的雙刃劍性質,既有巨大的潛力也伴隨著不小的風險。