當前位置: 華文世界 > 科技

再談AIGC的關鍵問題:版權歸誰、官司何解、新秩序何來

2024-02-19科技

圖片來源@視覺中國

文 | 深響,作者|趙飛宇、吳鴻鍵

龍年春節,科技圈最大的新聞非Sora莫屬。

OpenAI釋出的Sora在視訊生成上的表現之驚艷,已經不用再多贅述。我們只需要知道,Sora標誌著AIGC再次突破天花板。它不只是科技圈的事,還會影響廣大視訊、影視、廣告領域的從業者。正如AI作圖此前對畫師群體的沖擊那樣。

技術已經帶領我們來到了一個「新世界」。到了這裏,舊時的規則會逐漸失效,同時也有許多模糊地帶等待人們劃清邊界。例如,我用某個知名導演、攝影師的風格來生成視訊,那麽這段視訊的版權到底該歸屬誰?是我?還是AIGC平台?又或者那位導演也該占一份?

各行各業也在面臨著「舊有模式受沖擊」的問題——紐約時報起訴OpenAI和微軟,狀告兩者涉嫌未經授權使用紐約時報數百萬篇文章訓練人工智慧;版權圖庫網站Getty Images指出Stability AI從其圖庫中復制了超過1200萬張圖及相關的標題和後設資料;好萊塢編劇罷工,要求限制制片方在編劇創作過程中對AI技術的使用。這些都是技術變革引發的反彈。

然而,工業革命、互聯網浪潮帶來的改變已經充分說明,技術變革是不可逆的。相比粗暴的「抵制」,劃分權責、制定新規則才是當務之急。圍繞以下三個關鍵問題,「深響」與相關法律界人士進行了探討:

  • 使用者使用AIGC平台制作內容,版權歸誰?
  • 版權問題的糾紛焦點究竟在哪裏?
  • 利益相關方如何應對變化?行業生態會如何演變?
  • 版權歸誰,得具體情況具體分析

    AIGC帶來了許多便利,即使使用者不是專業畫手或攝像,只要掌握一定的提示詞技術,也能「站在巨人的肩膀上」做出專業內容。這帶來的問題是:AI生成的內容版權應該歸屬誰?如果出現糾紛,誰來承擔責任?

    類似的問題已有法律案例。中國「AI文生圖第一案」的判決書顯示,原告李昀鍇出於興趣學習AI繪畫,他從2022年11月開始在社交媒體上釋出由AI生成的圖片。一些自媒體帳號未經允許李昀鍇使用相關圖片,且沒有姓名標示來源。李昀鍇將其中一個自媒體號主告上法庭。

    作為律師,李昀鍇希望透過司法判決來探索AIGC的邊界:使用者用AI創作的內容是不是「作品」,版權是否歸屬使用者?

    判決書認為,李昀鍇使用開源模型Stable Diffusion生成的圖片屬於美術作品,且李昀鍇為著作權人,被告未經授權使用該圖片、去除圖片浮水印的行為,侵害李昀鍇資訊網路傳播權和姓名標示權,須向其賠償500元並釋出道歉聲明。

    需要註意的是,這樣的判例不能直接套用到所有的情況上。金誠同達律師事務所合夥人米新磊告訴「深響」,著作權歸屬的判決依據是在整個AI生成內容的過程中,人類智力和獨創性體現的占比多少,使用者訓練地越精準,可選擇性越多,最終取得生成內容著作權的可能性越大。

    另一種容易出現侵權爭議的情況是,使用者用AI生成了某種風格化的圖片(比如:用宮崎駿風格的模型畫一只貓)。「深響」從法律界人士處了解到,著作權法不保護風格,在很多法院判罰中,對風格的模仿並不一定被認為是侵權,所以使用者「用宮崎駿風格的模型畫一只貓」一般不構成侵權。

    但是,如果使用者是直接「餵給」AI一張宮崎駿的圖,告訴AI就按這個風格來生成圖片,這就構成了侵權。因為使用者並未被授權使用宮崎駿的作品。

    還有一種版權歸屬問題,出現在AIGC平台和使用者之間。但這種沖突更多只存在於「理論上」,實際操作中,相比版權歸屬問題,AIGC平台方對「把使用者規模做大,賺更多會員費」更感興趣。為此,他們甚至願意為其使用者承擔潛在的訴訟費用。

    微軟、谷歌、OpenAI等多家公司都承諾,若使用者因使用其提供的AIGC產品或服務而面臨第三方侵權索賠,公司同意承擔相應的賠償責任。以微軟為例,2023年9月7日,微軟釋出了Copilot版權承諾書,表示若商業使用者因使用Copilot或其生成輸出而遭第三方基於版權的侵權訴訟,微軟將同意為該使用者辯護並支付因案件而產生的賠償金。但前提是該使用者已使用產品中內建的防護裝置和內容過濾器,並遵守了其他條款。

    平台透過使用者協定明確權利歸屬和責任劃分,是降低潛在沖突的一種方式。OpenAI則在服務條款中明確其賠償條款僅適用於付費使用者,包括API使用者和ChatGPT企業使用者,而其余數億的免費使用者,則不會受到賠償條款的保護。

    爭議焦點在平台和資料來源之間

    在版權爭議問題裏,使用者側的行為往往會受到更多關註,但更核心的沖突,其實發生在AIGC平台和資料來源之間。

    我們都知道,AIGC的實作需要經過三個階段:一、數據采集;二、模型訓練;三、關鍵詞輸入。數據采集和模型訓練是平台開發者的前置步驟,內容輸入則由使用者來完成。

    沒有足夠規模的數據去訓練和偵錯模型,就很難搭建一個足夠智慧的生成式人工智慧平台。米新磊告訴深響,「對於AICG而言,采集大量數據並利用數據來訓練和偵錯模型,是最核心的階段。」

    在理想情況下,AI模型應當和擁有數據資源的網站簽訂授權協定,支付給對方足夠費用,然後用對方提供的介面去抓取數據。但事實是,當前的AI技術發展迅速,其數據來源卻往往處於「黑箱」狀態,難以判斷其合法性。

    圖片來源:Unsplash

    法律糾紛由此而生。像Getty Images這樣的圖庫,收入來源於版權圖片的銷售。如果AIGC平台直接抓取數據,就威脅到了版權公司的利益。同樣的,新聞媒體、圖書出版商、影視公司的商業模式,也都建立在版權之上。對於企業而言,有效管理和利用版權資源能夠促進內容變現,提升核心競爭力。但AIGC技術的出現,打破了傳統版權模式的框架。

    問題的核心在於,各方要想辦法確保AI模型訓練數據的來源合法性,避免侵犯版權或個人私密。這有待於數據安全法、個人資訊保護法、反不正當競爭法等法律的完善。

    在一切得到厘清之前,從業者仍有可能因為平台資料來源的不確定性惹到麻煩。

    例如,在商業套用中,有的品牌會嘗試利用自己的素材訓練專有模型。原則上,只要品牌訓練模型的素材版權都屬於自身所有,那這個專有模型產出的內容就不會形成侵權。但在實操中,專有模型是在大模型的基礎上訓練得來的,而大模型的數據來源是否合規,外界很難知曉。

    這些問題的解決都有待法律的完善。而在這個過程中,資料來源和AIGC平台將持續賽局,行業新規則也會隨之產生。

    訴訟不是終局,合作才是

    目前,我們已經看到版權模式受益方和AIGC平台間的沖突,相關訴訟會不斷出現。但與其說沖突是新舊勢力間的激烈交鋒,不如說它是通向行業新秩序必經之路。

    AIGC浪潮洶湧,傳統巨頭和科技新貴打官司,更多是想為自身爭取一個「定義未來行規」的談判席位。米新磊認為,隨著AIGC的發展,產業內各環節會形成新的生態,訴訟會促成新的合作。整體來看,AIGC行業新的規則和合作邊界會在開發中明確。

    目前,國內AIGC領域的發展還處於起步階段,許多問題沒有完全顯現。相關法律糾紛仍停留在公益性階段。相比之下,由於美國存在更多相對成熟的AIGC產品,產業生態內的賽局得到了更多呈現。

    在米新磊看來,Getty Images和【紐約時報】的訴訟可能是「以打促談」,目的不完全在於法庭上的勝負,而是透過法律行動促使雙方就版權使用、數據授權等問題達成協定,促進平台和內容生產者之間的合作。

    這種做法在內容產業中並不少見。一個典型例子就是國內的短視訊平台與長視訊平台之間的賽局,與其說長視訊平台是要禁止抖音、B站等平台粉絲的「二創」行為,不如說是想與短視訊平台之間建立合作關系。

    在關於AIGC的法律規定方面,米新磊認為,各國的方向還是「不斷最佳化」,對使用AIGC的方式做一些建議指導,或者是局部的調整。總體上還是鼓勵AIGC行業的發展。從業者應該關註的是數據使用的合法性、個人資訊保護、版權問題以及遵守AIGC特定的監管要求。這些領域通常是法律隱患最為集中的地方,也是有關部門監管的底層邏輯。

    以下為「深響」和金誠同達律師事務所合夥人米新磊的部份對話實錄:

    Q:作為法律從業者去看這些AI生成的內容和我們普通人的關註點有哪些不一樣嗎?會優先想到什麽法律隱患?

    A:我本來就是研究著作權法的,也一直在關註這個領域,所以我第一反應就是關於著作權的內容的合理使用的問題。因為它的原理是三步走,第一步先做數據采集,采集了數據之後,然後進行模型訓練,根據使用者的需求訓練的差不多了,然後使用者再用自己的一個關鍵詞輸入,透過關鍵詞不斷調整最佳化,最後生成出來一個產品。

    第一步是核心,如果說數據抓取采集的時候並沒有獲得(對方)同意,那其實就有點灰色地帶,因為你的數據量比較大,采集的比較廣,然後把它揉在一起,怎麽去防止他的侵權行為?

    Q: 平台的開發者是怎麽確保他們訓練AI模型的數據來源是合法經授權的?有沒有一個明文的法條是來保障這一個權益的?

    A:數據是非常重要的資產,正常情況下你應該是獲得他(對方網站)的授權,跟他簽了授權協定,然後給他支付授權費用,然後他可能才給你提供介面,然後讓你去抓這些數據。但是當他不公開的時候,你要去強行抓取,或者是說你要去透過非法手段獲得,可能會違反數據安全法,個人資訊保護法或者反不正當競爭法,還包括民法典中合約編的相關法條。所以這個層面其實是有一系列法律法規能去做規制的。

    Q:未來隨著 AIGC的繁榮,各國家會產出一個法律法規明確規定說你要公開你的這個數據來源嗎?

    A:不一定,目前從行業發展角度來說,總體還是鼓勵AIGC行業的發展,因為它可能是一個革命性的技術。從目前各國的法律規定來看,我覺得他們是在不斷最佳化,或者是說對於使用的一些方式進行一些建議指導,或者是局部的一些調整。但是從總體的趨勢來說他沒有像比如說限制你的資料庫必須開源、資料庫必須全部披露這種根本性的阻礙政策。在資訊革命時代,數據是核心資產,也是兵家必爭之地,不太可能都進入免費的公有領域。

    Q:使用者使用AIGC時的著作權應該如何被保障?使用者是否必須接受它可能會被傳播,會被其他人使用這樣一個結果?

    A:你把文章放到網上不代表說別人就可以直接用,其實作在很多比如網路小說什麽也是在網上發表,包括一些圖片也在網上都有,你不能說網上發表了,然後公開了別人用就是不侵權的。盡管平台會有類似免責的條款,但是從法律角度來判斷的話最終也屬於侵權。對於使用者來說,我用一些這樣的AIGC平台生成了相關內容並上傳到了網上,它同樣也是受版權保護的。

    Q:平台方和AIGC使用者之間是否有利益賽局?比如生成出來的版權歸誰?違法的話責任誰擔?

    A:理論上是這樣的,但是我感覺從實踐角度來說,那個好像不完全是這麽回事。

    對於平台來說,他做一個AIGC工具,它是想讓使用者去用的,它的目的是商業性,要麽我獲得流量,要麽我獲得使用者,然後獲得更多的輸入,所以他是一個服務型的機構。他其實不太會去跟使用者去爭使用者所產生的產品的著作權的,這個對他沒意義。從這個角度來說,他們其實並不對立,而且這個應該是能劃分清楚的,只要在使用者協定裏面明確,根據你(使用者)的調教和訓練,最後產生的產品著作權都歸你,如果有什麽責任,也是使用者承擔。對於平台來說更重要的可能希望更多的使用者來用我這個(套用),它是靠這個賺錢,而不是靠生成的東西去賣錢。

    尤其OpenAI甚至是考慮到如果使用者面臨訴訟,我們(平台方)給你付錢,甚至於推出這樣的產品,這樣子的話使用者就更不用擔心了。再者就是他(平台)肯定也是想盡量減少這種情況,他們其實也不斷的最佳化,盡量在最終呈現的結果上讓他減少侵權的風險。

    Q:您有接觸過 AI 領域相關的這種case嗎?

    A:目前雖說業內AI比較火,但是它實際上涉及到的案例沒有那麽多,在國內的話可能只有那個三四個左右。第一案是北京一家律師事務所起訴的,今年判的「AI文生圖第一案」的原告其實也是個律師,所以這兩個案例都帶點公益訴訟性質,是想基於自身對於這個行業的關註,然後透過塑造一個法律經典案例的形式,對行業內的規則起到指向性的作用。

    國外產業發展的比我們要領先一點,那它所暴露出來的問題也會比我們更多一點。比如國外現在有一些案例,原告主張被告抓取數據訓練自己的模型用於盈利,同時它產出的產品和原作品高度相似,這個時候有兩類人會去起訴,第一類就是被抓取數據一方,比如2023年6月,大量消費者向美國舊金山聯邦法院送出了近160頁的起訴書,起訴OpenAI公司最為流行的ChatGPT和DALL-E是透過盜用私人資訊執行的,這些被盜用的資訊來自包括兒童在內的數億名互聯網使用者,並且並未獲得使用者的授權;同時,向OpenAI投資100億美元的微軟(Microsoft Corp.)也被列為被告。

    第二類就是作品權利一方,比如美國作家協會(Authors Guild)、紐約時報,他們是直接生產內容的,如果在這個(AIGC)過程直接用到了那個作家的一些書裏面的東西,然後其實就有點洗稿那個意思了,新聞報道也一樣。此外還有美國最大的圖片生產商Getty Images,網上的文章和新聞報道用圖片都從他那買。如果說目前AI能透過免費抓取,然後再給你揉一下生成新的圖片,就相當於是直接動了它的利益。

    同時,美國的版權局的著作權登記稽核也要更嚴格,他會詢問你是怎麽生成的,如果你說是AI生成的,就不給登記,這是美國行政層面的態度。

    所以美國的這些訴訟,更接近於目前產業生態的賽局。因為真的觸碰到巨頭的利益了。美國也會透過案例判決來給出司法層面的態度。

    從國外的經驗來看,他們起訴的目的可能是以打促談,目的不是說一定要打這個官司,而是說透過官司,讓你拿我的授權,就相當於是你付我一個授權費,最後大家建立一個合作關系。

    這個有點像國內前兩年短視訊平台跟長視訊平台之間的爭奪戰,抖音、B站好多up主用電影的資源去做二創,其實就是個侵權行為,所以後面愛奇藝這些長視訊平台,包括一些內容生產商、一些老牌電影公司,他們是聯合發聲,要去起訴或者是要求他們支付版權費用,其實也是想讓短視訊平台跟長視訊平台之間建立一個合作關系。

    Q:未來AIGC相關法律的可能發展趨勢是什麽?

    A:國務院立法計劃裏,人工智慧法草案其實也在起草的準備過程中了,但是還不知道什麽時候能夠落地。其實立法是有一定的滯後性的,目前這個行業還在發展過程中,還有很多問題沒有顯現。產業的前景沒有明確的時候,貿然的立法未必是好事。

    AIGC雖然是和人工智慧相關,但它本質產生的一些糾紛,還是版權、智慧財產權、數據安全、個人資訊保護等。而針對這些,在現有的法律框架下,我們之前的法律法規也都有,比如著作權法、個人資訊保護法和數據安全法。這些也足夠去應對,只是還沒有集合起來推出來。

    我們需要謹慎對待新產生的這些案例,但並不是說我們就一定要去立法給他框得規規整整,這樣反而會抑制科技的發展。

    Q:針對AIGC領域從業者,有哪些法律相關的經驗建議,可以幫助從業者們盡可能避免法律隱患?

    A:其實更大的風險是集中在平台一方的。

    第一個建議,就是還是要緊密關註國內監管部門的政策,特別是涉及生成式人工智慧的規章,是六七個部門一塊出台的,力度比較大,涉及到的監管部門也很多。監管一旦加強的話,你合規性做不到,就很容易出現問題。

    第二個就是註意合規問題,目前對於AIGC也有一些具體要求。比如要求對於人工智慧生成的內容要進行標識,你要讓大家知道這個是人工智慧生成的東西,比如數位人主播等,不能沒有任何的提醒,在抖音b站這些平台已經有了,所以要註意合規風險。主要關註數據方面,個人資訊方面和版權方面,這些構成了行業的底層監管邏輯。