我們已經進入了人工智慧時代,人工智慧是未來新一輪科技革命和產業變革的核心力量,生成式人工智慧是以數以億計的海量資料為引數,具有更好的生成能力,其應用範圍廣,具有驚人的應用價值。 生成式人工智慧發展帶來的最大挑戰是侵權風險。 與傳統侵權不同,ChatGPT引發的侵權主要是對人格權和著作權的侵犯。 例如,ChatGPT問世後,有人用它來生成受版權保護的圖書的縮寫版本,以幫助他人快速閱讀書籍,因為這種行為會構成對原著的市場替代,很難構成合理使用,因此可能會被認定為侵犯版權。 同時,生成式人工智慧也可能侵犯商標權。 如果您擅自在生成**中使用他人商標,並將其用作某種廣告或產品裝飾,造成消費者的混淆,則可能構成對商標權的侵犯。
然而,與侵犯智財權相比,生成式AI由於可能產生虛假資訊等原因,具有更大的人格權侵權風險。 具體而言,生成式人工智慧不僅會導致各類人格權的侵權,還會帶來新的人格權侵權形式,主要表現在以下四個方面。
首先,它侵犯了私隱和個人資訊。 生成式人工智慧可能導致大規模的私隱或個人資訊洩露。 大規模生成式AI需要大量的資料作為引數,而AI產品的提供者在訓練AI產品時違規收集了大量個人資訊,或者使用大量不合法的資訊**來訓練AI產品,這可能會帶來一些新的私隱和個人資訊侵權形式。 有研究發現,由於大模型收集了大量的個人資訊和私隱,而模型越大,收集的資訊和私隱就越多,因此,犯罪分子有可能通過攻擊大規模語言模型,從訓練資料中提取核心私隱和敏感個人資訊,導致個人資訊和私隱的大規模洩露, 形成“大規模微侵權”現象。
二是侵犯名譽權。 大規模生成式AI模型主要依靠消化人類文字輸入來生成輸出產品,如文字、影象、音訊、**等,一旦這些輸出資訊是虛假的,就可能導致侵犯他人的名譽權。 ChatGPT還將帶來一些新的名譽權侵權形式。 OpenAI首席執行官Sam Altman在接受採訪時表示,“我特別擔心這些AI被用於大規模製造虛假資訊。 例如,ChatGPT等生成式人工智慧的“捏造”,可能導致ChatGPT在回答問題時捏造涉嫌性騷擾他人或他人非法同居的資訊,從而損害他人的聲譽。 還可以自動生成虛假、音訊、**,不僅可以“假真”,還可以“無中生有”,導致他人名譽、私隱等人格權益受到侵犯,生成式AI自動生成的包含虛假資訊的**和聲音已經到了既假又真的地步, 甚至生成式AI也很難區分生成的**是真實的還是自動生成的。如果不法行為人利用虛假資訊生成後傳播虛假資訊,受眾很容易受到虛假資訊的影響,嚴重侵害他人的名譽和其他人格權益。
第三,侵犯肖像權。 由於生成式 AI 可以自動生成**,因此隨著生成式 AI 的發展,它比深度偽造更難辨別。 因此,生成式人工智慧自動生成的影象比深度偽造造成的損害更為嚴重,不僅會侵犯個人的肖像權,甚至可能通過**扭曲個人的形象,尤其是當生成的**涉嫌性騷擾、**非法同居等虛假資訊時,會造成嚴重侵犯他人權益, 例如聲譽和私隱。
第四,侵犯死者人格利益。 生成式人工智慧技術超越了深度偽造,將死者的影象和聲音結合在一起,以生成虛假資訊。 例如,在自然人死亡後,他人可以使用ChatGPT生成死者風格的文字,用於生成一些歧視、偏見、仇恨言論或其他有害言論,這實際上構成了對死者人格尊嚴的侵犯。 再比如,侵權人還可以利用生成式AI模仿死者的語氣,與死者近親屬進行交流,實施侵權,這也可能導致對死者人格利益的侵犯。
隨著生成式人工智慧的應用越來越廣泛,由此產生的侵權風險必須在法律上得到解決。 但是,面對生成式人工智慧等新技術帶來的問題,民法首先要秉持鼓勵創新、防範風險的價值取向。 一方面,人工智慧服務提供者不應因為存在侵權風險而承擔過分的責任,從而阻礙人工智慧技術的創新。 另一方面,還應要求服務提供商盡可能採取必要措施(例如,明確識別人工智慧生成的資訊),以防止傷害的發生和放大。 侵權行為發生後,除個人資訊大規模洩露外,服務提供者仍應承擔過錯責任,從而兼顧服務提供者、使用者等各方的利益,公平確定責任承擔。
作者:王黎明;現任中國大學法學院教授、中國大學民商事法律科學研究中心研究員。