當前位置: 華文世界 > 科技

在機器人與人工智能時代的戰爭與和平

2024-02-18科技

您是否已經失去了對人性的信任?這句話浮現在我們的腦海中,仿佛帶著沈重的懷疑和追問。隨著世界上各類悲劇與事件的不斷升級,隨著痛苦的真相不斷被揭露,我們對人性的信任開始逐漸褪色和消失。

在加沙走廊,有超過230萬人面臨著滅絕和饑餓的威脅。隨著一些國家的政府停止支持和資助近東救濟工程處(聯合國巴勒斯坦難民救濟和工程處),一個嚴酷的事實已浮出水面,那就是人性已經辜負了人類,而現在,在這個人工智能時代,是我們將希望寄托在非人類身上的時候了。

鑒於這些悲慘事件,人工智能作為一項有爭議的話題出現在了我們面前,恐懼與希望交織在一起,我們也迫切需要了解人工智能的本質及其工作原理。只有透過這種認識,我們才能知道人工智能是否能在某一天主動引領人類走向光明的未來,或者它是否會成為加速人類滅亡的機制。

析無人機鏡頭和其他情報來源,以辨識目標、制導導彈和先進的間諜系統。

這就是以色列在加沙戰爭中選擇和擴大目標的方法。以色列使用了一種名為「哈布蘇拉」的人工智能系統以加快其襲擊的速度——該系統致力於從各種來源提取大量資訊(例如通訊數據、飛機鏡頭和監視數據),然後進行分析並生成襲擊目標建議。

這種轉變引發了關於技術進步對人性本質及其對生命的尊重程度的影響的深刻問題。在戰爭中使用人工智能是一個復雜的問題,需要我們仔細研究其在人道主義、法律、倫理和安全層面所存在的影響。

這就又回到了關於破壞性技術對我們人性影響的問題:究竟是它扭曲了我們的人性?還是說,它只是反映我們與生俱來的扭曲人性的一面鏡子?

建立道德的機器

哈佛大學伯克曼基利因互聯網與社會中心副教授保拉·裏庫爾蒂認為,占據主導地位的人工智能已經成為一股能夠透過三個認知過程實施暴力的力量:透過提取和征用進行的數據轉換過程,透過調解和治理進行的演算法化過程,以及透過暴力、不平等、轉移責任實作的自動化過程。

保拉發現,這些復雜的認知機制導致了全球分類系統的發展,從而加劇了世界不同民族之間的認知、經濟、社會、文化和環境的不平等。

盡管這些問題對人類使用人工智能提出了挑戰,但另一方面,在電腦科學家和發明家雷·庫茲韋爾看來,人類生活的各個方面似乎都有著進步和改善的機會。值得一提的是,庫茲韋爾因其在人工智能領域內的工作及其對技術未來的預測而出名。

作為人工智能未來的樂觀主義者之一,庫茲韋爾相信這項技術將成為應對威脅人類的重大全球挑戰的關鍵。庫茲韋爾還相信,與這種人工智能的融合將會開啟無限的可能性之門,並讓我們能夠極大地克服阻礙我們增強能力的生物學限制。

庫茲韋爾相信,透過人工智能的不斷改進,人類將能夠利用此類技術提供的卓越心智能力而取得前所未有的成就。

毫無疑問,庫茲韋爾的預測為人類獲得拯救的未來帶來了希望,但是人類能力的增加卻不可避免地伴隨著損害和破壞力的增加。但是道德價值觀仍然是避免破壞性沖突的最有效威懾,因此,我們必須認識到什麽是道德價值觀。

存在有意識的機器嗎?

在過去幾年內,人工智能在發展工業、處理自然語言、診斷疾病、生產治療方法、制造機器人等許多領域取得了長足的發展,但是這些發展仍然停留在人工智能的狹隘版圖之內,而意識的概念仍然是一個復雜而引人重視的話題。

哲學家約翰·希爾勒為其提出的「中文房間」思想實驗奠定了基礎,以挑戰這樣一種說法:一些能夠透過某些命令而運行程式的機器,將擁有類似於人類的「思想」或者「意識」。該實驗是為了反駁那些支持可能存在強大且有意識的人工智能的觀點。

在「中文房間」的實驗中,假設在一個封閉的房間記憶體在一位不懂中文的人,但是透過語言的書面規則,這個人可以使用中文給出回答,這樣一來,房間外面的人就可以確定房間裏面的人聽得懂中文。

使它們獲得某些意識以變得聰明的程度。

機器不知道什麽是暴力,也沒有理由實施暴力,但人類卻利用它來服務於自身的不良利益,而機器本身可能並沒有意識到它正在對其他人實施暴力。如果我們害怕人工智能與人類開戰,那麽,難道我們不應該反過來制止這種暴力嗎?

但即使今天的人工智能能夠獲得某種意識,但是要超越和控制人類,它還必須具備更加重要的東西,那就是動機。

機器的動機

動機在英語中用「motivation」一詞表達,而該詞源於拉丁詞語「mover」,意思是為行動或運動做準備。這是一個生理過程,為有機系統做好心理準備並滿足需要、欲望及動機。它是有機體行為的驅動力,使其朝著目標前進並積極采取行動。根據動機的強度,它可能會讓他繼續該活動、停止該活動或提高其有效性。

李察·內德·勒鮑在其著作【國家為什麽要打仗?過去和未來的戰爭動機】中指出了國家之間發動戰爭的四個基本動機。這些動機包括對另一種威脅的恐懼,或者是經濟、政治和戰略利益,或者是渴望維持和提高自身的地位,或者是報復不公正的行為。這些動機是塑造當今國際政治動態的重要因素。

人工智能可以會對塑造政治環境產生影響,並最終可能導致沖突或戰爭,但它本身沒有任何動機——它僅僅被認為是一種依賴編程和數據來執行任務和做出決策的技術工具。

盡管可以在軍事環境中開發能夠過濾決策的先進人工智能系統,但是最終決策仍然取決於人類的意誌。

軍事行動領域。隨著這些挑戰的增加,我們有必要采取更為嚴格的法律和道德框架來控制對人工智能的使用,並確保其使用方式確保正義並尊重所有個人的基本權利。

毫無疑問,機器正變得越來越像我們——這不僅在是其外觀上,而且還是在其思維方式上。也許危險就存在於這裏,因為我們很難將它與我們、我們的思想和欲望區分開來。

也許人類對機器的恐懼並不在於它們明顯想要傷害人類,而是因為我們試圖讓它們變得更像我們。如果這表明了什麽事實的話,那就是人類更害怕那些與他們相似的實體,並且由於其復雜性,這些實體可能走上一條不可預測的道路——要麽走向永生,要麽走向淪陷。