作者:陳莎(山東大學文化傳播學院博士研究生)。
*: 青年記者,2023 年第 19 期。
導語:生成式人工智慧在輔助新聞生產、推動新聞報道創新的同時,也存在事實不準確、演算法不透明、應用邊界有爭議的問題。
生成式 AI,或稱“生成式 AI”,是一種 AI 技術,專注於生成或建立新內容,使用現有資料集(如文字、音訊或影象)進行機器學習,然後生成全新的內容。 [1] 隨著 GPT-4 及其衍生模型的出現,生成式 AI 變得越來越強大,除了文字寫作外,它還可以處理語音、影象和手勢等多種文字格式。 它不僅繼續成為新聞報道中的重要話題,而且正在成為新聞生產鏈中的重要基礎設施,這意味著新聞生產將正式進入全方位的人機協作模式。 如何負責任地使用這些技術已成為乙個亟待探索的問題。
生成式人工智慧在新聞製作中的應用型別。
利用人工智慧輔助新聞製作是數位化轉型的重要路徑。 在過去的十年中,智慧型新聞製作的創新經歷了三個階段:自動化、增強和生成。 [2] 與前兩個階段相比,生成式人工智慧由於在演算法系統中增加了預訓練、指令調優和基於人類反饋的強化學習,因此具有更廣泛的應用場景。 學者Diakopoulos總結了記者使用生成式AI輔助新聞的13個場景:內容發現、檔案分析、翻譯、提示指導、社交內容建立、自動化寫作(結構化資料)、自動化寫作(非結構化資料)、新聞線索發現、摘要生成、評論審查、內容格式轉換、標題優化、AB測試、個性化分發等。 [3] 不同的**生成式AI接入有不同的路徑,使用場景和功能應用也會不同。
目前,國內外生成式人工智慧的應用方式主要有三種。
1)通用刀具型別。
通用工具型別與生成式AI系統之間的關係是相互獨立的,與平台的其他使用者一樣,他們可以通過登入生成式AI服務平台,利用其功能輔助新聞採集和寫作。 通常,**人只需要註冊乙個平台賬號即可使用該產品。 這種方法成本低、靈活,是訪問生成式 AI 的最常見方法。 以ChatGPT為例,記者可以在聊天對話方塊中輸入需要查詢的問題,並在對話方塊中給出提示工程指令,ChatGPT可以快速提供自己的知識庫資訊。
在圖片閱讀和短篇編輯的時代,視覺元素變得與資訊並重,以抖音為代表的社交媒體平台在其編輯應用中開發了自動化編輯功能,這反映出生成式AI不僅可以將複雜的事件和深奧的資料轉化為易於理解的圖表或影象,還可以通過視覺生成能力創造傳統新聞無法達到的效果, 為新聞製作提供更多創新的可能性。[4]目前,新華社音訊部成立了AIGC應用創新工作室,《AIGC實話實說》發表了5篇創意短文,質量過硬,傳播效果好。
2)平台訪問型別。
平台接入型別是提供內容生產API介面的生成式AI系統平台,提供內容分析、情感分析、事件提取、摘要生成、個性化推薦、內容審核、視覺化生成等服務。 在這種型別的人機協同生產中,第一人主要負責提供文字資料,機器負責輸出和呈現。 在機器與終端使用者的互動中,它扮演著終端使用者與生成式AI互動之間的中介角色,即提供和設定新聞議程的原始文字——生成式AI系統平台負責技術實現——提供終端顯示,其本質是終端使用者與生成式AI平台之間的互動。
《紐約時報》利用 ChatGPT 建立了乙個帶有提示組合的情人節訊息生成器,乙個名為“A Valentine, from A”的互動新聞活動。i.To You“,由國內澎湃新聞的移動端新聞分享功能自動生成的海報新聞,是平台訪問型別的典型代表。 在傳統的互動新聞製作中,需要編寫和演算法來設計互動新聞的互動主題,但通過介入生成式AI介面,生成式AI只需發布互動新聞設計指令,就可以自動生成互動新聞產品。 在某種程度上,生成式人工智慧可以以相對簡潔的方式幫助記者進行創造性的表達。
3)專有系統型別。
這類應用的構建需要強大的技術支援,比如建立數字圖書館,為自己開發專有演算法。 它的優勢在於,一方面可以將最佳價值嵌入到系統中,生成符合最佳定位的內容; 另一方面,源資料庫來自**本身,髒資料來源相對較少,可以降低輸出偏差的風險。 它通常具有較高的投入成本,適用於特定的大型**群體**,例如經濟、體育、政治等領域的商業**。
由學術機構開發的支援多角度新聞報道的 AngleKindling 和彭博社發布的 BloombergGPT 就是這種型別的生成式 AI。 專有系統採集不同新聞主題的多種報道角度和方法,可針對一流資料進行針對性訓練,通過情感分析、命名實體識別、新聞分類、問答等方式生成多角度行業報道。 換言之,這種專有的生成式人工智慧可以被呼叫在新聞製作的策劃、收集、編輯、校對、審校、分發等過程中,在輔助新聞製作的各個環節提供獨特的個性化服務,滿足特定資訊的需求,包括:(1)對自然語言的專有解釋,如在金融互動系統中, 輸入“apple”將更多地指向 Apple 而不是水果蘋果;(2)與專有資料庫的鏈結,例如與上市公司時事交易資料庫的鏈結; (3)特定風格的新聞設定,如製作適合**定位的自動化新聞寫作等。
生成式人工智慧參與新聞製作的現實問題。
和人類一樣,機器也不是萬能的,它們參與生產的內容也會犯錯,不同的人對人機互動有不同的認知。 在實踐中,生成式人工智慧輔助新聞生產仍存在以下問題。
1) 提供不準確事實的風險。
真實性和準確性是新聞報道的基本原則,但在翻譯複雜的世界時,沒有任何技術可以 100% 準確。 挪威報業集團Schibsted發現,在其實驗性的生成式人工智慧輔助新聞摘要中,每10個內容中就有1個包含“幻覺”或虛構元素。 [5] 同樣,當ChatGPT遇到資料庫沒有的資料時,它不會直接告訴自己不知道,而只會編造乙個答案,提供虛假的事實。
究其原因,主要是由於技術的侷限性。 目前,生成式人工智慧在邏輯推理、可靠性、魯棒性、準確性和安全性方面仍存在一定的侷限性。 [6] 首先,生成式人工智慧本質上是使用機器學習來理解自然語言,它的理解方式和決策決策是由統計概率給出的,換句話說,它更擅長做出統計決策,而不是準確的邏輯推理,例如數學或一階邏輯,後者經常給出錯誤的答案。 其次,雖然生成式AI產生的知識來自大型模型語言資料庫,但這些資料庫只是與現有的網路資料相關聯,而整合知識是現階段在網際網絡上可以追蹤的知識,不是實時更新的,反饋知識在時間上是有限的。 此外,網路資料庫本身包含大量不準確的資料,這也會影響輸出決策的準確性。 同時,生成式AI大多基於大型語言模型,巨大的資料量加劇了資料噪音,可能導致模型強行捏造訓練資料中不存在的概念,並生成看似正確但實際上不準確的決策。
2)“演算法透明度”不規範。
自新聞生產進入演算法轉向以來,演算法的不透明性和演算法黑匣子帶來的演算法偏見削弱了公眾對新聞的信任,學術界呼籲智慧型新聞生產遵守演算法透明的倫理。 演算法透明度是一種試圖通過演算法闡明資訊披露的機制。 對於終端使用者來說,人機協作新聞生產中的演算法透明性意味著披露演算法的存在。
目前,大多數**演算法都缺乏透明度意識,在自動化內容生成中,要麼不披露演算法的存在,要麼不知道如何披露。 2022年,美國科技公司**cnet悄悄發布了數十篇AI生成的報道,這些報道因沒有披露作者的演算法身份而受到新聞界和使用者的強烈批評,[7]不僅傳播虛假事實,還因為演算法作者身份的不透明性。 由於信任的習慣,公眾尚未與生成式AI技術建立良好的信任關係。 在美國,調查發現,78%的人認為依靠軟體寫文章並不是一件好事。 [8]
3)對適用邊界存在爭議。
生成式人工智慧的計算能力可以提高新聞採集和編輯的效率,但並非所有型別的新聞都適合機器自動化。 對於一些涉及敏感資料的道德故事,任何小錯誤都可能導致系統性風險和聲譽受損。
新聞採集和編輯涉及的敏感資料包括機密檔案,以及新聞**、員工、客戶或商業夥伴或其他自然人的機密資訊、商業秘密或個人資料,如果將這些資料輸入人工智慧系統,則存在資訊洩露和侵犯他人私隱權的風險。
人類敏感的話題,如訃告和具有強烈人文關懷的嚴重問題,是否可以用生成式人工智慧來報道,仍然存在爭議。 ChatGPT在密西根大學彙編事件資訊的行為遭到了學生們的反對,他們認為使用人工智慧來彙編和傳送有關人類悲劇的資訊是對生命的不尊重,也是不道德的。 [9] 在人機協作的智慧型媒體時代,人類對自動化生產的資訊接受度並不高。 在目前大眾的認知中,他們仍然會從人類中心主義的角度來評價自動化行為,尤其是在人類倫理方面,公眾普遍會認為機器產生的資訊缺乏“光環”,他們會更喜歡與生活問題相關的未經中介的報道。
人機協作新聞製作的應對策略。
面對存在的問題,不僅要正確認識生成式AI的內容生產機制和侷限性,還需要建立一系列規範來優化人機協同生產流程。
1)優化編輯過程。
其實,在新聞採集和寫作的過程中,記者也會提供不準確的資訊,解決辦法就是設定編輯來檢查報道是否真實準確。 鑑於技術的固有缺陷,人們能做的還是做好技術風險的控制,重視人在人機協同生產中的重要性,優化人機協同新聞生產的流程。
優化編輯流程的第乙個關鍵是提高第一人的媒體素養,讓他們能夠正確理解生成式人工智慧的內容生產機制和侷限性。 不同平台上的AI系統在內容生成方面會有不同的功能和效能,因此需要提前學習相關知識。 此外,把關智慧型系統提供的事實及其報道是減少假新聞生成的必要過程,包括驗證生成式人工智慧提供的資訊,或設定專門的人工智慧編輯器來自動化新聞製作。 面對自動化內容大規模生成的現實,英國《金融時報》設定了AI編輯器,降低自動化內容風險; 新聞編輯室要求所有人工智慧生成的內容在必要時由記者檢查和修改。 荷蘭通訊社ANP在其關於人類監督和參與生成式人工智慧生產的指南中提出了一種“人-機-人”的過程協作模型,指出在使用人工智慧或類似技術時,有必要“支援最終編輯,前提是最終檢查是由人類在事後進行的”,即**和決策都由人類監督。 [10]
2)演算法資訊的披露。
自 ChatGPT 發布以來,已有多家 ** 在使用者社群中徵求使用者對 AI 生成內容的意見,以“self**”平台 Medium 社群為例,不少使用者提到演算法透明和披露的必要性。 因此,建立透明的規範和公開演算法資訊是人機協作內容生成階段的重要倫理問題。 可以為終端使用者實施兩種型別的透明度政策。
1.通知演算法資訊。 例如,Medium 的第乙個關於使用 AI 語言工具的“透明度、披露和出版級指南”政策規定,在使用生成式 AI 工具建立提交的任何部分時,創作者必須像引用任何其他 ** 一樣引用它。 [11]
2.告知人們參與資訊,並對自動化參與內容進行分類和分層管理。 例如,對於純自動化內容,主動識別為高風險資訊,並註明是自動化生產,未經人工審核,存在事實不準確的風險; 對於人機協作生成的內容,將其標記為中低風險,告知人類參與資訊等。
3)規範機器的適用邊界。
在當前的人機協同新聞生產中,第一人應該對機器參與內容生成有邊界意識,協調新聞方、使用者、使用者在人機協同生產中的權益。
基於此,更智慧型的新聞編輯室大多將生成式人工智慧限制在非敏感新聞的製作上。 以專注於智慧型新聞製作的新聞編輯室為例,平台上的內容主要是對現有報道的處理,為了防範風險,平台還根據內容主題對風險進行管理,並針對不同的風險類別做相應的人工審核。 如果認為不適合機器內容製作的問題屬於高風險,則禁止將相關主題資料上傳到系統。
結論。 生成式人工智慧在新聞生產中的應用,不是讓機器代替記者做決策,而是讓記者定義報道的角度、風格和價值取向,目的是提高人機協作產生的內容質量。 為此,學術界和業界需要進一步探索更實用的數字新聞倫理,規範技術使用,防範新聞演算法的風險。
本文是2021年重慶市教委社會科學規劃專案“智慧型媒體時代重慶政務傳播平台拓展與戰略創新”(編號:21SKGH243)的中期成果。
參考文獻: 1]Gozalo-Brizuela R, Garrido-Merchan e C chatgpt is not all you need. a state of the art review of large generative ai models[j].
2]marina adami.is chatgpt a threat or an opportunity for journalism? five ai experts weigh in[eb/ol].(2023-03-23)[2023-04-10].
3]nick diakopoulos.what could chatgpt do for news production?[eb/ol].(2023-02-10)[2023-04-10].
[4] AIGC改變了新聞業[EB OL]。微信***騰訊**研究院“, 2023-08-28
5]johannes gorset.schibsted experiments with ai, finds 37+ ways it can help[eb/ol].(2023-03-27)[2023-05-01].
6] zhou j, ke p, qiu x, et al. chatgpt: potential, prospects, and limitations[j]. frontiers of information technology & electronic engineering, 2023: 1-6.
7]paul farhi.a news site used ai to write articles, it was a journalistic disaster[eb/ol].(2023-01-17)[2023-04-10].
8]artificial intelligence use prompts concerns[eb/ol].(2023-02-15)[2023-05-01].
9]jennifer korn.vanderbilt university apologizes for using chatgpt to write mass-shooting email[eb/ol].(2023-02-22)[2023-04-01].
10]hannes cools, nicholas diakopolulos.writing guidelines for the role of ai in your newsroom? here are some, er, guidelines for that[eb/ol].(2023-07-11)[2023-09-18].
11]scott lamb.how we’re approaching ai-generated writing on medium[eb/ol].(2023-01-27)[2023-04-10].
本文引用引文格式:
陳莎. 生成式人工智慧在新聞生產中的應用、現實問題及其應對[J].青年記者, 2023(19): 57-59