聊天機器人ChatGPT一經問世便引起人們關註,並被不少領域相繼運用。伴隨著其運用過程,一些讓人意外的烏龍事件也不斷發生。據媒體訊息,英國政府部門將ChatGPT嵌入自己的網站後,發現「它做了一些奇怪的事情。如果你一開始用一種特定的方式提問,它就會用法語回答……這是出乎意料的。」於是,有人驚呼:ChatGPT會「叛變」!
自從人工智慧問世以來,它的強大能力在給人們展現無限可能的同時,也發生了不少合理出錯、合規蠻幹的事件。有外媒報道,美軍曾在戰場上投入一款名為「魔爪」的戰鬥機器人,擁有出色的多工能力。安裝上機械臂,它能進行排雷作業;換上輕武器,它能瞄準對手進行精確射擊。可是,2007年美軍在測試這款機器人時,它突然轉身對著美軍士兵進行瘋狂掃射,直至被火箭彈擊中之後才停止攻擊,讓人們不得不深思戰鬥機器人背後的「失控」風險。
隨著資訊科技和人工智慧技術的強勁發展,人工智慧為人類提供的服務越來越多、手段越來越先進,但它的行為及其結果卻並不總是符合人們的主觀願望和理智判斷,常常會發生各種難以想到的可怕現象和嚴重後果。基於人工智慧的現有功能及其發展趨勢,人們完全可以作出這樣一些假設:當運用人工智慧情報系統進行戰場偵察和情報搜集時,業已獲取的某些情報資料透過存在漏洞的「終端」和「後門」被錯傳給對手情報系統,或被對手突破網路防禦而竊取相關重要情報,結果造成戰場上的嚴重被動局面;當經過反復研究論證、權衡最佳化而生成制訂的作戰方案準備付諸實施時,人工智慧指揮系統卻突然發生程式紊亂,將原先設定的方案計劃徹底打亂,致使作戰行動無法按計劃有序推進;當使用人工智慧武器對敵實施攻擊時,它突然調轉槍口向著自己人襲擊,導致己方損失慘重、一時陣腳大亂……顯然,這樣的假設絕不是電洞來風,而是隨時可能發生的實際存在,對於今天研究戰爭、設計戰爭、準備戰爭的人們來說,無疑是一個必須未雨綢繆、防患未然的重大問題。
或許,戰鬥機器人「反戈一擊」只是諸多意外事件中的個例。但隨著機器人運用範圍不斷擴大,其顯在功能和潛在效能不斷釋放,更多更壞更令人意想不到的驚人事件也可能不斷發生。從技術角度看,出現這種「亂象」的原因大多與人工智慧中的演算法不夠完善、有待前進演化有關。而前進演化演算法的主要方法是透過不斷的選擇和最佳化,逐步提升人工智慧解決自身問題的效能和功能。為此,人工智慧設計者、制造者、使用者應當具有預防意外事件的全域性全維性超前性思維方式和方法,從一開始就要考慮到防止各種人工智慧「背叛」人類、傷害人類的事故發生,透過技術手段或其他有效方法將事故「後門」牢牢堵住。
科學技術歷來是一把雙刃劍,它在推動人類社會發展進步的同時,也使人類掌握了巨大的破壞殺傷力。19世紀英國詩人狄更斯曾這樣描述第一次工業革命:這是一個最壞的時代,這是一個最好的時代;這是一個令人絕望的冬天,這是一個充滿希望的春天;我們面前什麽都沒有,我們面前什麽都有。用狄更斯這段話來形容人工智慧等現代技術的「雙刃」性質,也許再恰當不過了。在軍事和戰爭領域,同樣面臨著包括人工智慧在內的現代技術所帶來的各種風險和挑戰。如何趨利避害、化危為機?這是一個非常重要且緊迫的時代性課題,亟待人們研究解決。
由此或授權以得出一個結論:成也人工智慧,敗也人工智慧。這不僅應當成為我們的預見性共識,而且應當成為我們的預防性行動,在尚未「亡羊」時就精心做好各項「補牢」的工作,防止戰鬥機器人「反戈一擊」之類事件發生。這樣,當未來戰場真的出現類似情況時,也不至於驚慌失措、喪失戰機。
來源 解放軍報 | 作者 胡建新
編輯 趙司堯
流程編輯 劉偉利