當前位置: 華文世界 > 科技

訪談|凱特·哥羅福:人工智能在全球範圍具有顯著加劇權力失衡的風險

2024-07-31科技

凱特·哥羅福

凱特·哥羅福(Kate Crawford)是當代人工智能與社會研究領域的知名學者。她是洛杉磯南加州大學的研究教授、紐約微軟研究院的高級首席研究員,還是巴黎高等師範學院首任人工智能與司法客座教授。她的研究集中在人工智能的社會和政治影響,涉及領域包括數據倫理、演算法公平、私密保護、以及技術在社會中的權力動態。

除學術研究外,凱特·哥羅福還制作藝術裝置和視覺調查作品,這些作品已在全球一百多家博物館和雙年展上展出。

【Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence】書封

凱特·哥羅福2021年發表著作【 Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence 】,詳細探討了人工智能技術從開發到部署的整個生命周期,並分析了其廣泛的社會、經濟和環境影響。她在書中指出,人工智能不僅是一個技術問題,還是一個政治問題,它涉及資源的分配、權力的集中以及環境的代價。澎湃新聞在該書中文版【技術之外:社會聯結中的人工智能】今年出版之際采訪了凱特·哥羅福。

中文版【技術之外:社會聯結中的人工智能】書封

澎湃新聞 :你在書中提到「人工智能是權力的登記表(AI is a registry of power)」,「registry」通常指的是一個登記、註冊或者記錄的系統或列表,它代表一個包含了某些類別資訊的官方或正式記錄。你能詳細解釋一下這個概念嗎?在你看來,人工智能如何在根本上是政治的?

凱特·哥羅福 :如果你有一份「registry of power」,這可能意味著一個記錄或數據庫,其中列出了與權力相關的某些資訊,如掌握權力的個人或機構、權力的來源和分配、權力的演變等。

人工智能系統並不是中立的技術。它們嵌入了現有的權力結構,並且往往會強化或放大社會不平等。人工智能的發展反映了那些創造和控制這些技術的人的優先事項和偏見。例如,選擇用哪些數據來訓練人工智能系統是非常主觀的——而這些數據集塑造了人工智能模型。關於收集哪些數據、如何對其進行分類以及排除哪些數據的選擇都涉及一些決定,這些決定塑造了人工智能將增強的權力類別。我們只需問一句:「誰是英雄?科學家是什麽樣子?」就能看出哪些政治觀點占主導地位。

人工智能在管理和分配資源的方式上也是一種權力的掌握者。人工智能需要大量的能源、水和關鍵原材料。掌控人工智能的公司和政府會為自己謀取利益而榨取(extract)這些資源,而為其提供資源的社區往往會遭受苦難。同樣的情況也出現在人工智能發展中通常被「隱身」的勞動中,包括數據標記和內容管理,這往往會剝削低收入國家的工人。了解和解決權力是如何被人工智能所集中的,對發展更加公平糊正義的技術未來至關重要。

澎湃新聞 :你提到人工智能是由西方少數主導公司驅動的一種非民主政治(non-democratic politics)的形式,這會對資本主義社會的經濟差距和民主行程產生什麽影響?

凱特·哥羅福 :人工智能作為一種技術,在當前的發展軌跡下,存在著顯著加劇社會中已經存在的不平等和權力失衡的風險。它繼續將權力集中在少數大型科技公司手中——這些公司被稱為人工智能領域的「豪門」(Great Houses of AI),因為它們擁有獲取生態、計算、數據和勞動力資源的能力,這些資源是構建和維護全球人工智能系統所需的。隨著經濟和政府的其他部門變得依賴人工智能,要推動制定更加平衡的法律和法規變得更加困難。

澎湃新聞 :本書分析了在西方社會中監視是如何擴張、私人承包商、執法部門和科技行業之間界限如何日益模糊。這是否意味著缺乏監督的國家更易於部署用於監視的人工智能技術?

凱特·哥羅福 :使用人工智能的監視擴張在許多國家中都很普遍,包括西方民主國家。人工智能對威權控制系統很有吸重力,無論是技術上還是政治上。一些人認為人工智能是一種強大的工具,可以壓制異議,管理公眾看法,並預防性地消除對他們權威的威脅。

當科技行業、政府和執法部門之間的界限變得模糊,會導致一個普遍存在的監視基礎設施。國家經常與擁有開發復雜人工智能系統技術專業知識的私營科技公司合作。這些系統隨後被整合到執法和情報行動中,形成了一套完整的監視裝置。這種合作使國家能夠獲得先進的監視能力,並讓公司透過有利可圖的政府合約以及試驗和完善他們技術的機會而受益。這就是為什麽我們迫切需要在人工智能建設過程中增加透明度和問責制,同時需要簽訂強有力的國際協定來規範人工智能的合理使用。

澎湃新聞 :人工智能套用通常向使用者展示簡單的界面,同時隱藏復雜的實作細節,你認為這種抽象水平如何影響使用者對人工智能系統的理解和互動?具體而言,這種簡單性是否可能掩蓋人工智能運作的重要方面,這對人工智能系統的透明度和問責制可能會產生什麽影響?

凱特·哥羅福 :人工智能界面的簡潔性是一種刻意的設計選擇。這使得這些系統看起來簡單、輕巧,實際上它們是龐大的全球基礎設施。人們越來越關註人工智能對環境和勞動力的成本,即為推動這些全球人工智能系統所需的能源、水、關鍵材料和低薪金勞動力。簡潔的界面抽象掉了用於讓這些系統工作的訓練數據——所有由藝術家、作家和成千上萬其他個人貢獻者制作的文本和影像,他們的數據經常在未經同意的情況下被使用。這種抽象化使得研究人員、記者和監管者很難追查責任,因為他們往往能接觸到的只有界面。

澎湃新聞 :「榨取」(extraction)是你書中的一個關鍵概念,書中探討了大量案例,揭示了支持人工智能技術的全球網絡是如何造成環境破壞的。這種破壞影響有多大?人們正在采取哪些措施來減輕這些影響(如果有的話)?

凱特·哥羅福 :最終,人工智能系統所提取資源的主要受益者是開發和控制這些技術的科技精英和企業。他們獲得了巨大的經濟實力、數據驅動的洞察力和市場主導權,但往往以犧牲社區、更廣泛的社會利益和環境為代價。

正如我在這本書中所論述的,我們已經看到人工智能的環境成本對世界各地的社區造成了破壞。我們看到,用於人工智能的超大規模數據中心的能源和用水量急劇增加。我們還看到,在加納的阿格博格洛希(Agbogbloshie)等地,電子垃圾堆積如山,廢棄的電子產品被傾倒在那裏。

所有這些做法的總體影響很難評估,因為許多公司將其對環境的全部影響視為企業機密。我們需要更多促進透明度的努力,比如美國參議院的【2024年人工智能環境影響法案】。

澎湃新聞 :美國電腦科學和人工智能領域的先驅Woody Bledsoe曾說過「從長遠來看,人工智能是唯一的科學 」,為什麽科學家和技術專家對人工智能的未來如此充滿信心?

凱特·哥羅福 :首先,並非所有科學家和技術專家都對人工智能作為一個主導領域取得長期成功充滿信心。許多人對人工智能的局限性和現有架構可能存在的無法解決的問題表示懷疑。對於那些最極端的科技樂觀主義者來說,往往是出於經濟利益或政治利益的驅動。目前的科學辯論在人工智能產業應如何發展方面存在著相當大的差異,我們中的許多人都在關註如何使這些技術在社會上更加公平糊可持續。

澎湃新聞 :書裏提到「魔幻決定論」(enchanted determinism)現象,即人工智能系統被視為有魔力的、超越已知世界的,但其發現模式——用以準確預測日常生活的模式——的能力又是決定性的。這種為準確預測而降低復雜性的癡迷源於何處?

凱特·哥羅福 :對降低復雜性以實作準確預測的癡迷,源於人們在不可預測的世界中對控制和確定性的渴望。在許多方面,它延續了20世紀對科學管理的迷戀,以及對數據和演算法可以簡化工業和最佳化生產的信念。目前,在美國,我們看到人工智能被用來減少勞動力。在一項針對美國450名高管的調查中,「45%的人表示,他們正在將任務自動化,以減少人員和勞動力成本」。

澎湃新聞 :那麽我們可以采取哪些措施來解決過度簡化和榨取我們復雜、私密和不同體驗的問題?我們如何才能確保人工智能技術尊重並保留人類情感體驗的細微差別,而不是為了計算和商業目的將其簡化為 「卡通素描」?

凱特·哥羅福 :我不相信我們可以信賴人工智能技術會保留人類情感表達的細微差別,即使我們可以,我也不認為我們會希望生活在一個讓人工智能系統掃描我們的臉和身體,根據我們的微表情對我們進行分類的世界裏。歧視、侵犯私密和權力濫用的潛在可能性將是淪陷性的。

澎湃新聞 :盡管從看似無害的匿名數據集中可能會出現意想不到的高度個人資訊,影像和文本的收集卻有增無減。為什麽人工智能行業會接受這種做法,盡管它存在倫理、政治和認識論問題及潛在危害?

凱特·哥羅福 :我和我的合著者Will Orr最近就這一話題進行了一項研究,研究報告即將發表在【新媒體與社會】(New Media and Society)雜誌上。我們在研究中發現,許多人工智能工程師面臨著巨大的競爭和經濟壓力,而且在數據集制作方面缺乏明確的法律指導。這是一個至關重要的領域,需要更明確的行業標準和法規。

澎湃新聞 :早期一些號稱使用人工智能技術的虛擬助手被曝光僱用人類員工來處理復雜問題,比如x.ai的Amy和Facebook的M等。自ChatGPT等更先進的模型出現以來,人工智能系統對人工幹預的依賴是否有所減少?

凱特·哥羅福 :即使有了ChatGPT,人工智能系統中的人工幹預是否已經減少還不清楚。透過調查報告和審計,我們越來越多地了解到,像 OpenAI 這樣的公司正在分包數千名工人,以提供他們所謂的 「透過人類反饋強化學習」(RLHF)。在一個案例中,OpenAI分包給一家名為 Sama 的公司,每小時支付肯雅數據工人2美元,讓他們從 ChatGPT 中刪除有毒結果,包括大量涉及暴力、虐待和仇恨言論的輸出。

澎湃新聞 :2023年底你在米蘭舉辦一個名為「計算帝國」(Calculating Empires)的展覽,這是一個什麽樣的展覽?你想傳達的資訊是什麽?

凱特·哥羅福 :「計算帝國」是一個大型視覺化研究專案,旨在探索五個世紀以來技術和社會結構是如何共同演變的。它展示了當代是如何從思想、器材、基礎設施和權力體系的漫長軌跡中發展出來的。它追溯了自1500 年以來殖民主義、軍事化、自動化和封閉化的技術模式,展示了這些力量如何仍在實施征服,以及如何可能被解除。透過追蹤這些帝國之路,「計算帝國」提供了一種在更深層次的歷史背景下審視我們的技術現狀的方法。透過研究過去的帝國是如何計算的,我們可以看到它們是如何創造了今天帝國的條件。這是一件大型裝置作品,長達 27 米——因此它講述的是一個復雜的故事!目前它正在柏林展出,希望有一天它也能在中國巡回展出。