溫申翔, 趙飛宇, 吳洪健.龍年春節期間,科技行業最大的新聞莫過於SORA了。
OpenAI發布的SORA在**這一代的表現令人驚嘆,無需贅述。 我們需要知道的是,SORA標誌著AIGC天花板的又一次突破。 這不僅是科技界的事情,也影響著影視、廣告等領域的廣大從業者。 就像之前 AI 對映對藝術家社群的影響一樣。
技術將我們帶入了乙個“新世界”。 在這一點上,舊的規則已經磨損,還有許多模糊的地方等待著在遠處畫出來。 比如說,如果我用乙個知名導演或者攝影師的風格來生成**,那麼這個**的版權應該屬於誰呢? 是我? 還是AIGC平台? 還是導演也應該分一杯羹?
各行各業也面臨著“舊模式受到影響”的問題——《紐約時報》起訴OpenAI和Microsoft涉嫌使用數百萬篇《紐約時報》文章來訓練人工智慧; 版權相簿**Getty Images 指出,Stability AI 已從其相簿以及相關標題和元資料中複製了超過 1200 萬張影象; 荷里活編劇罷工,以限制人工智慧技術在編劇創作過程中的使用。 這些都是由技術變革引發的**。
然而,工業革命和網際網絡浪潮帶來的變化充分表明,技術變革是不可逆轉的。 與其進行殘酷的“抵制”,不如劃分權力和責任,制定新的規則。 圍繞以下三個關鍵問題,Deep Echo與相關法律專業人士進行了**會議
誰擁有使用者使用AIGC平台製作的內容的版權?
版權問題爭議的焦點是什麼?
利益相關者如何應對變化? 行業生態系統將如何發展?
誰擁有版權必須根據具體情況進行分析AIGC帶來了很多便利,即使使用者不是專業的畫家或攝影師,只要有一定的提示詞技術,他就可以“站在巨人的肩膀上”創作專業的內容。 這就提出了乙個問題:人工智慧生成的內容的版權應該屬於誰? 如果發生爭議,誰將承擔責任?
也有關於類似問題的法律案例。 根據中國“AI文生圖1號案”的判決書,原告李雲凱出於興趣學習AI繪畫,並於2022年11月開始在社交媒體上發布AI生成的**。 部分自**賬號未經許可擅自使用相關**,且無簽名**。 李雲凱將其中一位自導自強的師傅告上法庭。
作為一名律師,李雲凱希望通過司法判決來探索AIGC的邊界:使用者用AI創作的內容是否“有效”,版權是否屬於使用者?
判決認為,李雲凱使用開源模型Stable Diffusion生成的**是藝術品,李雲凱是著作權人,被告擅自使用**並去除**水印,侵犯了李雲凱的資訊網路傳播權和著作權,必須賠償其500元並發表道歉宣告。
必須指出的是,這些先例不能直接適用於所有情況。 晉城通達尼爾律師事務所合夥人公尺新磊告訴申翔,判斷版權歸屬的依據是人工智慧生成內容全過程中人類的智慧和原創性比例,使用者的訓練越準確,選擇性越強,最終獲得生成內容版權的可能性就越大。
另一種容易發生侵權糾紛的情況是,當使用者使用AI生成某種程式化的**(例如,用宮崎駿風格的模型畫乙隻貓)。 我從法律界人士那裡了解到,著作權法不保護風格,在很多法庭判決中,模仿風格並不一定算侵權,所以使用者“用宮崎駿風格的模特畫貓”一般不構成侵權。
但是,如果使用者直接向AI“喂”宮崎駿的圖片,並告訴AI以這種方式生成**,則構成侵權。 這是因為使用者無權使用宮崎駿的作品。
AIGC平台和使用者之間也存在版權所有權問題。 然而,這種衝突只存在於“理論”上,而在實踐中,AIGC平台更感興趣的是“擴大使用者規模,賺取更多的會員費”,而不是版權歸屬問題。 為此,他們甚至願意為使用者支付潛在的訴訟費用。
Microsoft、谷歌、OpenAI等多家公司均承諾,如果使用者因使用AIGC產品或其提供的服務而面臨第三方侵權索賠,公司同意承擔相應的賠償責任。 以Microsoft為例,2023 年 9 月 7 日,Microsoft出具了 Copilot 版權承諾書,宣告如果商業使用者因使用 Copilot 或其生成的輸出而被第三方起訴侵犯版權,Microsoft將同意為使用者辯護並支付由此產生的賠償。 但是,前提是使用者已使用產品內建的防護裝置和內容過濾器並遵守其他條款。
平台通過使用者協議明確權利和責任的歸屬,這是減少潛在衝突的一種方式。 OpenAI在其服務條款中明確表示,其補償條款僅適用於付費使用者,包括API使用者和ChatGPT企業使用者,其餘數億免費使用者將不受補償條款的保護。
爭議在於平台和資料來源之間在版權糾紛中,使用者方的行為往往受到更多的關注,但更核心的衝突其實發生在AIGC平台和資料來源之間。
眾所周知,AIGC的實施需要經歷三個階段:一是資料收集; 2、模型訓練; 3.關鍵詞輸入。 資料收集和模型訓練是平台開發人員的先行步驟,而內容輸入則由使用者完成。
如果沒有足夠的資料來訓練和除錯模型,就很難構建乙個足夠智慧型的生成式 AI 平台。 公尺新磊告訴申翔,“對於AICG來說,收集大量資料並用它來訓練和除錯模型是最核心的階段。 ”
理想情況下,AI模型應該與擁有資料資源的**簽訂許可協議,向對方支付足夠的費用,然後使用對方提供的介面來捕獲資料。 但事實是,目前的AI技術發展迅速,但其資料**往往處於“黑匣子”狀態,難以判斷其合法性。
這就是法律糾紛出現的地方。 像Getty Images這樣的畫廊,通過出售版權產生**。 如果AIGC平台直接抓取資料,則威脅到版權公司的利益。 同樣,新聞**、圖書出版商和影視公司的商業模式也建立在版權之上。 對於企業而言,有效管理和利用版權資源可以促進內容變現,提公升核心競爭力。 然而,AIGC技術的出現打破了傳統版權模式的框架。
問題的核心在於,各方需要想方設法確保AI模型訓練資料的合法性,避免侵犯版權或個人私隱。 這有待於《資料安全法》、《個人資訊保護法》、《反不正當競爭法》等法律的完善。
在一切都弄清楚之前,從業者可能仍然會因為平台資料來源的不確定性而陷入困境。
例如,在商業應用中,一些品牌會嘗試用自己的資產來訓練專有模型。 原則上,只要品牌培訓模型的素材版權屬於品牌,專有模型製作的內容就不構成侵權。 然而,在實踐中,專有模型是在大模型的基礎上訓練的,外界很難知道大模型的資料是否合規。
這些問題的解決需要通過法律來完善。 在這個過程中,資料來源和AIGC平台將繼續發揮作用,新的行業規則也將產生。
訴訟不是最終的,合作是最終的目前,我們已經看到版權模式的受益人與AIGC平台之間的衝突,相關訴訟將不斷出現。 但這場衝突與其說是新舊勢力之間的激烈對抗,不如說是通往行業新秩序的道路。
AIGC浪潮洶湧澎湃,傳統巨頭和科技新貴紛紛打官司,更多的是為自己爭取乙個談判席位,以“定義行業的未來”。 公尺心磊認為,隨著AIGC的發展,行業各個環節都會形成新的生態,訴訟將促進新的合作。 總體來看,AIGC行業的新規則和合作邊界將在發展過程中得到明確。
目前,國內AIGC領域的發展仍處於起步階段,許多問題尚未完全顯現。 相關法律糾紛仍處於公益階段。 相比之下,由於美國存在較為成熟的AIGC產品,產業生態內部的博弈得到了更多的呈現。
在公尺看來,Getty Images與《紐約時報》之間的訴訟可能是一場“促談之戰”,目的並不完全是為了在法庭上輸贏,而是通過法律行動,讓雙方在版權使用、資料許可等問題上達成協議,促進平台與內容生產者之間的合作。
這種做法在內容行業並不少見。 乙個典型的例子是國內短**平台與長**平台之間的博弈,與其說是長**平台是為了禁止抖音、B站等平台粉絲的“二次創作”行為,不如說是要與短**平台建立合作關係。
在AIGC的法律規定方面,公尺心磊認為,每個國家的方向依然是“持續優化”,對AIGC的使用提出了一些建議和指導,或者進行了區域性調整。 總的來說,AIGC行業的發展仍然受到鼓勵。 從業人員應關注資料使用的合法性、個人資訊保護、版權問題以及遵守 AIGC 特定的監管要求。 這些區域通常是法律隱患最集中的地方,也是相關部門監管的底層邏輯。
以下為申翔與金誠通達律師事務所合夥人公尺新磊的部分對話記錄:
問:作為一名法律從業者,看這些人工智慧生成的內容和普通人關注的問題有什麼區別? 您想到的法律風險是什麼?
答:我研究版權法已經很久了,我一直在關注這個領域,所以我的第一反應是關於版權內容的合理使用。 因為它的原理是三步走,第一步是做資料採集,收集完資料後,再進行模型訓練,根據使用者的需求進行訓練差不多,然後使用者用自己的乙個關鍵詞輸入,通過關鍵詞不斷的調整和優化,最終生成乙個產品。
第一步是核心,如果資料在未經(對方)同意的情況下被抓取和收集,那麼其實有點灰色地帶,因為你的資料比較大,收集的比較廣泛,然後揉在一起,如何防止他的侵權?
問:平台開發人員如何確保他們用於訓練 AI 模型的資料獲得合法授權? 是否有明確的法律規定來保護這種權利和利益?
答:資料是一種非常重要的資產,一般情況下,你應該得到他(對方**)的授權,和他簽訂授權協議,然後向他支付授權費,然後他可能會給你乙個介面,然後讓你抓取資料。 但在未公開的情況下,您必須強行獲取,或者您必須通過非法手段獲取,這可能違反《資料安全法》、《個人資訊保護法》或《反不正當競爭法》,以及《民法典》合同部分的相關規定。 所以在這個層面上,其實有一系列的法律法規是可以規範的。 問:未來,隨著AIGC的蓬勃發展,每個國家是否會出台法律法規,明確規定你要披露你的資料**? 答:不一定,目前從行業發展的角度來看,AIGC行業的發展普遍受到鼓勵,因為它可能是一項革命性的技術。 從各國現行的法律法規來看,我認為他們正在不斷優化,或者對一些使用方法提出一些建議和指導,或者進行一些區域性調整。 但就總體趨勢而言,他沒有基本的阻止策略,例如,將資料庫限制為開源和資料庫披露。 在資訊革命時代,資料是核心資產,是戰場,不太可能全部進入自由的公共領域。
Q:使用者在使用AIGC時應如何保護其版權? 使用者是否必須接受它可能因此被其他人傳播和使用?
答:如果你把文章放到網上,並不意味著別人可以直接使用,其實現在很多都是在網上發表的,包括一些**也在網上發表的,你不能說是在網上發表的,然後公開別人用它不侵權。 雖然平台會有類似的免責條款,但從法律角度來看,最終還是侵權。 對於使用者,我使用其中一些 AIGC 平台來生成相關內容並將其上傳到線上,這也是受版權保護的。 問:平台和AIGC使用者之間有感興趣的遊戲嗎? 例如,誰擁有生成產品的版權? 誰應該為違法行為負責?
答:理論上是可以的,但從實際的角度來看,我認為情況並非如此。
對於平台,他做了乙個AIGC工具,是供使用者使用的,其目的是商業化的,要麼我獲得流量,要麼我獲得使用者,然後獲得更多的投入,所以他是乙個面向服務的機構。 事實上,他並不擅長與使用者爭奪使用者生成產品的版權,這對他來說毫無意義。 從這個角度來看,它們不是對立的,這應該可以明確劃分,只要在使用者協議中明確,根據你(使用者)的調校和培訓,最終產品的版權歸你所有,如果有任何責任,也是使用者的責任。 對於平台來說,更重要的是希望更多的使用者使用我的(應用程式),這是從中賺錢,而不是通過生成東西來賣錢。
特別是openai甚至認為,如果使用者面臨訴訟,我們(平台方)會付錢給你,甚至推出這樣的產品,這樣使用者就不用擔心了。 而且,他(平台)也一定想把這種情況降到最低,他們其實在不斷優化,以降低最終結果的侵權風險。
問:在人工智慧領域,你有沒有接觸過這樣的案例? 答:雖然目前AI在行業中比較流行,但實際上涉及的案例並不多,在國內可能只有三四個左右。 第一起案件是由北京某律師事務所起訴的,而今年開庭審理的“艾文生圖第一案”的原告其實是一名律師,所以兩起案件都具有幾分公益訴訟性質,他們希望通過塑造經典法律案件的形式,在行業規則中起到方向性作用。
如果國外產業的發展比我們領先一點,那麼它就會比我們暴露更多的問題。 例如,在國外的一些案件中,原告聲稱被告抓取資料以訓練自己的模型以牟利,同時其生產的產品與原作高度相似,此時起訴的人有兩種,第一類是被抓取資料的一方, 例如,2023 年 6 月,大量消費者向三藩市聯邦法院提交了乙份近 160 頁的起訴書,起訴 OpenAI 最受歡迎的 ChatGPT 和 Dall-E 竊取私人資訊。被盜資訊來自數以億計的網際網絡使用者,包括兒童,未經使用者許可;與此同時,Microsoft Corp.向OpenAI投資了100億美元)也被列為被告。
第二種是作品的版權,比如作家協會和《紐約時報》,他們直接製作內容,如果他們在這個(AIGC)過程中直接使用了作者書中的一些東西,那麼它實際上有點手稿清洗,新聞報道也是如此。 此外,還有美國最大的製片人Getty Images,他們從他那裡購買網際網絡上的文章和新聞報道。 如果能免費搶到現在的AI,然後揉搓給你生成乙個新的**,就相當於直接動了它的興趣。
同時,美國的版權局在審查版權登記方面也應該更加嚴格,他會問你是怎麼生成的,如果你說是AI生成的,就不會註冊,這是美國行政層面的態度。
因此,美國的這些訴訟更接近於當前的產業生態博弈。 因為它真的觸及了巨頭的利益。 美國還將通過案件判決給予司法態度。
從國外的經驗來看,他們打官司的目的可能就是為了促成談判,目的不是說這場官司一定要打,而是說通過打官司,如果你得到我的授權,就相當於你付了我一筆許可費,最後我們建立合作關係。 這有點像前兩年國內短**平台和長**平台之爭,抖音和B站有很多up主利用電影資源做二次創作,這其實是侵權,所以愛奇藝的長期**平台,包括一些內容製作人和一些老電影公司, 是聯合發聲,想要起訴或者要求他們支付版權費,其實他們也想在短**平台和長**平台之間建立合作關係。問:未來AIGC相關法律可能的發展趨勢是什麼?
答:在立法計畫中,《人工智慧法》草案其實正在起草中,但何時實施尚不明朗。 事實上,立法存在一定滯後,行業仍處於發展過程中,還有很多問題尚未顯現。 當行業的未來不明朗時,倉促立法未必是一件好事。
雖然AIGC與人工智慧有關,但其本質產生的一些爭議是版權、智財權、資料安全、個人資訊保護等。 針對這些,在現有法律框架下,我們也有以前的法律法規,如著作權法、個人資訊保護**和資料安全法。 處理它就足夠了,但它還沒有準備好推出。
我們需要對這些新案件保持謹慎,但這並不意味著我們必須立法以適當的方式構建它們,這將抑制技術的發展。 Q:對於AIGC領域的從業者來說,有哪些相關的法律經驗建議可以幫助從業者盡可能規避法律隱患?
答:事實上,較大的風險集中在平台端。
第乙個建議是密切關注國內監管部門的政策,尤其是與生成式人工智慧相關的法規,這些法規是由六七個部門共同發布的,強度比較大,涉及的監管部門也很多。 一旦監管加強,就不能合規,很容易出現問題。
二是關注合規問題,目前對AIGC有一些具體要求。 比如要求識別AI生成的內容,而且要讓大家知道這是AI生成的東西,比如數字人主播等,沒有任何提醒,抖音B站等平台上已經有,所以要注意合規風險。 主要關注的是資料方面、個人資訊方面和版權方面,這些構成了行業的底層監管邏輯。