當前位置: 華文世界 > 科技

AI 生成的內容:一場即將到來的信任危機?

2024-02-19科技

生成式人工智能(GenAI)正以令人矚目的速度快速發展。與其基於文本的前身類似,影像和影片合成工具承諾將為創意與內容生產流程帶來革命性的簡化。但是,隨著每一項新技術的誕生,我們也面臨著更大的責任——負責任地運用這些技術。

目前,生成式 AI 在模仿創造性內容方面做得很好,但在事實準確性的表達上卻常常遇到挑戰。這些演算法擅長預測,能夠生成統計上看似合理的輸出,但卻缺乏可靠真實性的依據。這種生成「貌似真實」的能力,在依賴可靠性原則的行業中,如新聞業,構成了不容忽視的風險。

大語言模型(LLMs)就是這一問題的一個例證。盡管它們能夠流暢地輸出連貫的文本,但可能會捏造事實、錯誤地歸因資訊,並創造出看似權威的內容,卻不考慮資訊來源的準確性。在 AI 生成的視覺內容中,這種問題尤為突出,因為確定內容的源頭和背景變得更加困難。

這不意味著生成式 AI 沒有使用價值。在明確了其使用限制的情況下,AI 在簡化研究流程、構思初稿和提供基礎框架方面的潛力是顯而易見的。然而,這些都僅是輔助工具,無法取代人類的嚴謹判斷。編輯的角色是無可替代的。未經嚴格的事實核查和審視便釋出由 AI 生成的內容,等同於放棄了我們作為資訊傳遞者的根本責任。

因此,當務之急不僅是推動生成式 AI 的發展,更重要的是並列開發技術和倫理系統,以確保其信任度。 建立標記 AI 生成內容、強化來源驗證和建立透明的責任追溯機制變得至關重要,而非可有可無

在這些機制普及成為常態之前,我們正處於一個充滿挑戰的階段。由生成式 AI 引發的行業變革是不可避免的。對於記者、內容創作者或消費者而言,面對這一不斷演變的景觀時,認識到其中的風險至關重要。我們在認識到生成式 AI 工具潛力的同時,也必須堅持要求它們提供的資訊必須有可驗證的憑證。在沒有適當保護措施的情況下,透過對真實承諾贏得的信任將輕易喪失。