當前位置: 華文世界 > 科技

ChatGPT是否意味著「意見領袖」的終結?

2024-04-30科技

人工智慧永遠無法取代真正的思想領袖。

神譯局是36氪旗下編譯團隊,關註科技、商業、職場、生活等領域,重點介紹國外的新技術、新觀點、新風向。

編者按:由於 ChatGPT 的出現,許多內容創作者對自己的工作或生計感到恐慌。生成式人工智慧的到來讓很多人開始擔心自己會失業。確實,人工智慧會取代很多工作,但它永遠無法取代真正的思想領袖。本文來自編譯,希望對您有所啟發。

[Photo: Jeremy Waterhouse/Pexels; Rawpixel]

在過去兩天裏,我與那些「擔心人工智慧對自己的工作和生計造成影響的人」進行了 20 次對話。當然,我可能一直在尋求這些對話,因為作為一名學者和幾家商業出版物的撰稿人,我也很焦慮!

創作者、藝術家、教練、程式設計師、醫生、作家、專家和意見領袖們都在努力應對生成式人工智慧(如 ChatGPT、DALL-E 和其他高級人工智慧產品)對其工作、激情和收入的影響。

一方面,這看起來像是一種夢想成真,你可以受益於在人工智慧的協助下更高效地工作。在人工智慧的幫助下,似乎任何人都可以看起來像一個專家和創造者。畢竟,它可以寫一份足以入圍面試的工作申請,可以透過美國醫療執照考試和律師資格考試的部份內容,可以編寫程式碼、生成文本和制作可銷售的藝術作品,並(在某種程度上)提供心理健康治療。

對於相關工作者來說,這一切都聽起來太可怕了。深呼吸,現在,讓我們誠實地談談焦慮,或者說是 AI 式焦慮(AI-xiety)。

1. 世界末日?

你感到的不安和存在的恐懼並不是沒有根據的。頂級職業專家與早期職業者,以及介於兩者之間的每個人都在努力解決這些焦慮的感覺。

「多年來,我們一直聽說自動化和人工智慧將大幅減少那些我們都不願意做的枯燥乏味的工作,但只要我們‘有創造力’、‘有人性’,就不會有問題,」【長期遊戲】(The long Game)一書的作者、Fast Company 撰稿人多裏·克拉克(Dorie Clark)說,「可是,唉,ChatGPT 剛剛把我們打倒了,所以……顯然我們需要一個新的應對計劃。」

克拉克說,這個新計劃應該包括建立人際關系網路,以及建立一個「強大而獨特的聲譽,讓人們願意選擇與你合作」。建立一個包括各種技能的職業組合,也比以往任何時候都更重要。

然而,對許多人來說,不安的不僅僅是要制定新的職業規劃。不安的感覺比這更加深刻。我的客戶和同事正在與「對我們作為創造者、專家、作家、程式設計師、藝術家、醫生、律師等身份的威脅」作鬥爭。

還有一個關於正義的問題。那些不顧歧視或殘疾的恥辱,從貧困中振作起來努力工作的人,也將不得不比其他人更加努力地工作,以實作人生的轉折。那些將自己的生命投入到創造智慧財產權和思想領導力的人,受到了人工智慧支持的剽竊行為的威脅。這意味著,雖然有些焦慮可以透過調整和適應在個人層面上得到解決,但其他焦慮則需要集體和系統的解決方案。這些系統性的解決方案將集中關註人類倫理問題。

讓我們來看看具體到內容創作的一些問題,如數位藝術和文案寫作、專業知識和思想領導力,以及人類思想領導力在創造解決方案中的地位。

2. 誰將受到影響?

市場行銷和個人品牌專家馬克·謝弗(Mark Schaefer)有一個壞訊息要告訴有抱負的內容創作者。他預測,人工智慧對內容創作的影響,就像數位音樂制作的出現對音樂產業的影響一樣。據謝弗的說法,那些失業的人一般都是優秀的商業化工作室音樂家,而精英音樂家、最受尊敬的詞曲作者、制作人和技術人員則不會受到影響。謝弗的結論是,那些為企業網站提供「資訊內容」或通用 SEO 內容的公司,可能需要考慮轉變方向。克拉克對此表示同意。人工智慧對市場行銷和文案工作的威脅是真實存在的。這可能也適用於數位藝術、網站建設和許多其他職業。

這很糟糕,讓人很痛苦。那些美化「顛覆」的人,還沒有感受到「被顛覆」的全面打擊,尤其是在沒有社會或家庭安全網的情況下。當前的混亂造成的傷害非常之大,因為威脅遠遠超出了經濟層面。機器人侵占了我們許多人喜歡做的事情,包括繪畫、寫作和創作——總而言之,有趣的事情。如果機器人取代清潔廁所的人,我絲毫不會反對。但現在的情況是,我們確實受到威脅了。

個人可能需要考慮,他們的創造力是否也可以透過「不太容易受到人工智慧解決方案影響」的方式來表達。但從社會正義和道德的角度來看,只有人類才能回答的問題是:從這種顛覆中受益的企業是否有義務支持轉行和技能再培訓,以及什麽樣的社會安全網可以幫助防止職業中斷演變成個人和社會的災難。這是一個社會問題,因為任何一個部門的大量失業,都會對其他部門產生多米諾骨牌效應。

當然,並不是每種型別的創造性工作(如寫作或藝術)都會受到同樣的影響。例如,商業記者兼領導力教練娜塔莎·德索薩(Natasha D’souza)認為,人類的新聞工作者仍將很重要。「作為一名記者,抄襲就是職業自殺,要想脫穎而出,除了分析上的鞭辟入裏和編輯上的出彩外,擁有獨特的觀點是必不可少的。」德索薩認為,在新聞業或任何依賴於人類視角和生活經驗獨特性的領域,人工智慧工具永遠無法取代人類的想象力和直覺。

我喜歡強調想象力和直覺,但是專業知識呢?

3. 誰是專家?

具有諷刺意味的是,雖然生成式人工智慧可能降低了「稱自己為專家」的門檻,但它卻提高了成為真正的專家的門檻。ChatGPT 復制/貼上可以幫助非專家去做到聽起來很厲害,即使他們甚至都不懂這個主題。其結果是,「聽起來很厲害」的非專家之間的競爭會加劇。

與此同時,要證明自己是一個真正的專家,很可能需要非凡的人類專業知識水平。湯瑪斯·查莫羅-普雷穆齊克(Tomas Chamorro-Premuzic)是Fast Company 的撰稿人,也是即將出版的新書【I, Human】的作者,他認為,要成為一名真正的人類專家,需要在重要的主題方面鉆研得更多,而不是去關心人工智慧所借鑒的「大眾智慧」。人類專家必須能夠在「眾包」知識中發現錯誤、偏見和虛假參照,從而產生比人工智慧更準確、更有用的工作。他們還必須能夠把知識付諸實踐。

對於那些僱用專家(比如顧問),但對千篇一律的建議不感興趣的人來說,德索薩建議尋求有深度的人類專業知識。此外,這種專業知識應該「經過精心策劃,並套用於特定的商業環境或目標。」

德索薩還認為,人工智慧永遠無法取代真正的思想領袖。

4. 思想領袖還會是人類嗎?

思想領袖(Thought leaders,一個不幸被過度使用和誤用的術語)透過添加獨特的視角、創造新的理解和影響他人的想法,來建立起專業知識。他們的專業知識不僅深厚、基於研究和經驗,而且還浸透著激情和信念。

丹尼斯·布羅梭(Denise Brosseau)是【準備好成為思想領袖了嗎?】(Ready to Be a Thought Leader?)一書的作者,他認為,ChatGPT 和類似的高級人工智慧,可能「在很長一段時間內,對於有誌於成為思想領袖的個人和組織來說,是最好的工具之一,也是最糟糕的工具之一。」它可以提供與任何主題相關的主流觀點的集合。如果你僅把這個集合作為出發點,那麽 AI 就是一個有用的工具。但「如果你只是重寫一兩個句子,加上一個吸引人的標題和標簽,並把自己的名字貼上去,說這是原創內容,那麽我們的情況就會變得更糟了。」制造噪音和思想領袖是不同的。

但是,在人工智慧導致的問題中,思想領袖真的「安全」嗎?對此,我有個人和社會層面的擔憂。

5. 抄襲問題

抄襲和剽竊是人工智慧的一個大問題。那些花了幾十年時間發展自己的專業知識、工藝和智慧財產權的人,可能特別容易被一個不知名的人工智慧「專家」竊取一生的工作成果。

是的,抄襲,包括技術輔助的抄襲,已經存在很長時間了。但人工智慧讓抄襲的規模變得前所未有。現在,一個人一生的工作成果不僅可能被另一個人剽竊,還可能被機器人商品化。一想到如此多的人類熱情和努力被剝奪,卻沒有得到補償或承認,就令人恐懼和憤怒。但解決人工智慧使用的倫理問題,是由(人類)是非觀推動的人類領導力發揮至關重要作用的領域之一。

6. 人類的領導力是被需要的

如果沒有人類的領導,生成式人工智慧的擴散很可能導致經濟和人道主義的末日場景。在道德決策方面的領導力、對人類後果的考慮以及防止錯誤資訊,是最需要人類和以人為本的思考的一些領域。

1. 保護人類生命和社會正義

大公司似乎認為以「人工智慧驅動生產力」的名義裁員是可以接受的,人工智慧公司的負責人認為,失業的風險「不會大於積極的後果」。然而,誰能從中受益呢?在這些計算和比較中,是否考慮到了「失業與自殺風險增加 2 倍至 3 倍呈相關關系」?人工智慧公司的利潤是否蓋過了人類生命損傷的風險?

人工智慧使用的許多倫理問題都需要人類來解決。例如,是否考慮過人工智慧可能會將個人和家庭從中產推向貧困,從而進一步加劇本已嚴重的經濟不平等?那麽,與失去生計和職業身份有關的精神健康危機的風險,是否被考慮到了呢?眼下的這一危機很容易地會超過疫情期間的精神健康危機。

人工智慧可以幫助分析失業和經濟變化的多種情況,以及研究普遍收入和再培訓的可能性,以減輕對人類的傷害。然而,只有道德驅動的人類才能做出符合人類福祉的決策。

2. 防止虛假資訊,找到事實和真理

生成式人工智慧的一個很少被討論的缺點是,它有可能使虛假資訊成倍增加,並以犧牲人類福祉為代價,給那些為商業或政治議程服務的觀點提供特權。科技行業領袖顧問、【獨角獸之前的大象】(Elephants Before Unicorns)一書的作者卡羅琳·斯托克斯(Caroline Stokes)指出了潛在的危險,「人工智慧會增加錯誤的「資訊」,而人們又沒有正確地研究、評估和核查事實。那麽,錯誤的資訊被說得越多,它就越能成為「真理」。

理解真理的本質,以及將「流行的、經常被重復的東西」與真理區分開,是人類面臨的困境。解決這個問題需要人類的研究和批判性思維,人類可能會傾向於將這些技能外包給 ChatGPT 之類的技術。

但是,即使人們願意並能夠付出努力,ChatGPT 的不透明性和缺乏參考資訊來源,也會加劇建立真相的困難程度。

3. 請提供參考資料

還記得「維基百科被視為教育威脅」的時光嗎?現在,維基百科看起來非常「聖潔」,有參考文獻,有很多方法可以進行標記、質疑和糾正錯誤或有偏見的條目,還有對編輯的追蹤。

相反,ChatGPT 這個黑匣子裏的資訊來源對使用者來說是無法追蹤的。當被要求提供參考資料時,ChatGPT 會輸出不存在的、編造的專家、書籍和研究。(是的,我甚至和它就我專業領域的編造資料發生過爭執。)ChatGPT 表示,作為人工智慧,它不可能編造參考資料。就算我相信它,但這又引出了另一個問題:它是用什麽訓練的?

在某些方面,使用適當的資料但不註明出處,可能是一個比編造參考資料更大的問題。生成式人工智慧對受版權保護的藝術、文字和其他智慧財產權的使用,是一個重大的倫理問題和潛在的法律問題。如果 ChatGPT 為完成你的任務而抄襲,那麽誰是抄襲者?使用沒有姓名標示能力的人工智慧工具是否完全合乎道德?

具有諷刺意味的是,生成式人工智慧似乎迫切需要人類的思想領導力、深入的研究和批判性思維。我們既可以選擇破壞性地引導自己的焦慮,也可以選擇建設性地引導自己的焦慮,將其演變成關懷和同情。我們有責任不把屬於人類的、符合道德和事實的決策交給人工智慧。

譯者:Jane

本文來自轉譯, 如若轉載請註明出處。