不同的組織通常有不同的使用生成式人工智慧技術的方式,但負面影響是相當普遍的。
OpenAI 最近發布了 ChatGPT 的定製版本,允許組織以靈活的方式更輕鬆地使用生成式 AI——但辯證法告訴我們,沒有積極的東西。 數週來,大西洋兩岸已經舉行了兩次人工智慧安全峰會,引發了人們對人工智慧潛在危害的擔憂。 但無論是科幻小說中針對殺手機械人的暴力威脅,還是關於AI模型應該接受什麼樣的監管指導的具體討論,都只能算是陳詞濫調。 換句話說,僅僅幫助想要大規模採用生成式 AI 工具的組織找到正確的實施路徑是不夠的。
目前,對生成式人工智慧的最大反對來自作家和藝術家社群,他們對自己的工作在未經許可的情況下被用於訓練大型語言模型(LLM)深感不滿。 11月初,荷里活爆發了長達數月的編劇和演員罷工,要求製片廠做出讓步,並限制人工智慧工具取代人類編劇和演員的方式。 但即使在創意產業之外,其他組織也需要謹慎使用生成式人工智慧。 這不僅是為了避免尷尬的反作用,也是為了化解潛在的法律訴訟。
許多公司將版權視為乙個重要的關注領域(聯邦委員會似乎已經這樣做了),他們意識到使用人工智慧從競爭對手那裡“複製”的那種商業計畫可能會遇到麻煩。 但這絕不是生成式人工智慧給我們帶來的唯一爭議。
Microsoft最近與《衛報》的衝突就是乙個教科書式的例子,《衛報》表示,這家科技巨頭的人工智慧新聞系統自動生成了一項冷血民意調查,邀請讀者猜測女性是否會死亡並將其插入故事中,對報紙造成“嚴重的聲譽損害”。 如果您必須選擇生成式 AI 要避免的最新用例,那麼它將在列表中。
這並不是必應的人工智慧新聞服務第一次在敏感故事中加入有爭議的民意調查。 同樣的人工智慧工具還產生了其他調查,詢問讀者是否會在同一案件中槍殺一名婦女,在國家公園發現的人類遺骸是否經過認證,是否應該在50所房屋被大火燒毀的地區實施緊急疏散建議,以及他們是否支援旨在為燒傷兒童籌集資金的運動,但引發了一場火災,造成兩名兒童死亡。
人工智慧驅動的 Bing Chat 發布的廣告甚至包含惡意軟體鏈結。 Microsoft的人工智慧工具建議前往渥太華的遊客在“食物銀行”(幫助當地窮人和分發食物的慈善機構)吃飯,突出來自匿名網站的關於拜登等政客的假新聞**,甚至混淆新聞報道中的特定情節。 例如,它暗示某位女演員毆打了一名體育教練,但現實情況是教練被指控虐待一匹馬。
與 ChatGPT 等生成式 AI 模型的不可思議的操縱相比,在大多數情況下,律師和醫療專業人員至少有機會認真檢查結果。 據《衛報》報道,這些民意調查似乎完全由自動化系統直接發布在Microsoft資產之上,不僅直接面向數百萬讀者,而且沒有任何人工批准。
Microsoft稱民意調查是乙個偶然的錯誤,並承諾進行調查。 但在行動上,Microsoft明顯違反了公司自己負責任地使用人工智慧的原則,比如告知人們他們正在與人工智慧系統進行互動,並嚴格遵守人機互動政策。 Microsoft一再告訴 Azure OpenAI 客戶不要製作“任何主題內容”或“以最新、嚴謹和準確的方式使用 AI”(當然包括新聞**),但他們自己根本沒有這樣做。
總體而言,Azure OpenAI 的明確提示已證明該服務可能會生成不適當或令人反感的內容,甚至是關於事件的不相關、虛假或歪曲的觀點。 Microsoft列出了幾種需要注意避免的情況,包括政治活動和高度敏感的事件,特別是過度使用各種謹慎的情況,這些情況在法律職位上被濫用時可能會影響生存機會,例如醫療保健,教育,金融和法律中的高風險領域。 然而,這些特定領域的問題往往內容有限,答案相對簡短,不太可能涵蓋開放式、無限制形式的提問。
Microsoft拒絕透露他們認為不適合應用生成式人工智慧技術的任何領域,而是提供了他們認為客戶正在成功的領域列表,包括建立內容、總結或改進語言表達、生成和語義搜尋。 但該公司的一位發言人承認:“我們生活在乙個人工智慧變得越來越強大的世界中,它可以做一些令人驚奇的事情。 但是,最重要的是要認識到,這項技術需要開發,並且必須給予它足夠的成長和發展空間。 明確這一點很重要。 ”
但並非所有生成式 AI 客戶都意識到這一點。 來自生成式人工智慧的莫名其妙和奇異的內容已經出現在商業環境中。 會議紀要、部落格文章或內部場合的演示文稿很好,但對於正式的商業檔案來說,它們顯然遠遠不夠。 越來越多的專業作家和安全教育工作者直接使用這種型別的內容,即使是人工智慧生成的影象——這是不同數量手指的標誌。 這種愚蠢的胡言亂語在未來可能會變得更加普遍和令人不安,企業必須對由此產生的聲譽威脅保持警惕。
此外,即使是不太敏感的內容也會導致問題。 民意調查和測驗可以使長時間的會議和團隊溝通不那麼沉悶,而生成式人工智慧是基於對話建立這些資產的一種非常有效的選擇。 但是,如果有人提到具體資訊,例如親人的疾病或寵物的死亡,人工智慧可能會製造出非常尷尬的鬧劇。
行業情報平台GlobalData的顛覆性技術專案副經理Saurabh Daga強調,“生成式人工智慧通常沒有同理心、道德判斷力或對人類細微差別的理解,因此在這些環境中表現不佳。 他的敏感領域清單與Microsoft的指導方針相似:“最好不要將人工智慧用於高風險決策,尤其是那些如果出錯可能會產生法律、財務或健康相關後果的決策。 ”
此外,在使用多模態模型處理各種交易之前,請謹慎對待這種混合文字和影象的生成式 AI 工具,因為錯誤的標題可能會將原本好的內容變成令人反感的內容。 此外,影象生成模型假設所有**都是女性,所有企業高管都是男性。
戴爾科技集團人工智慧戰略高階副總裁馬特·貝克(Matt Baker)警告說,“特別是生成式人工智慧,放大了過去存在但尚未得到認真解決的問題。 例如,在流程管理的情況下,演算法偏見可能會對人力資源和招聘產生影響。 組織需要誠實地審視其資料衛生、優先順序和敏感性問題,以確保生成式 AI 工具能夠最大限度地提高回報並最大限度地降低風險。 ”
儘管生成式人工智慧工具的效能令人印象深刻,但本質上仍然是一種概率理論。 這意味著他們經常犯錯誤,危險在於他們給出的結果可能不準確、不公平或令人反感,但他們經常被忽視,因為它們的措辭過於自信和有說服力。
關鍵是不要期望現成的結果,也不要意識到生成式人工智慧是不可靠的。 最好把它看作是新想法的靈感**,而不是乙個已經成熟的完美結論。
正因為如此,Microsoft在其大多數生成式AI工具中使用Copilot而不是Autopilot。 Microsoft首席執行官薩蒂亞·納德拉(Satya Nadella)今年夏天在Inspire上表示,“人類必須以人機協作的方式參與和設計——也就是說,人類將始終控制強大的人工智慧輔助工具,人工智慧將幫助人類完成他們的工作。 “作為生成式人工智慧應用的關鍵,我們必須學會使用提示詞來獲得更好的結果。 Copilot Lab 等工具已經在幫助員工發展這些技能。
同樣,不要直接使用自動化流程,而是為生成式 AI 工具構建自己的工作流程,並鼓勵員工試驗和評估 AI 生成的內容。 請注意,重要的是要注意 AI 基於哪些資訊來提供您的建議,批判性地審查結果,並檢查它引用的資訊**,而不是簡單地接受給定的偏好。 開箱即用並不能節省時間,但由於錯誤和偏見,它可能會導致更多麻煩。
使用者還應該充分理解他們從生成式人工智慧中獲得的建議和決定,相應地了解潛在的版稅,並向其他人證明這些建議和決定的合理性。 英國資訊專員辦公室警告說,“如果你的組織不為人工智慧輔助決策提供解釋,它可能會面臨聲譽受損、公眾批評甚至監管機構的參與。 ”
處理這個問題的更可靠的方法是要求AI提供多種替代方案,並每次都詳細解釋提案的內容。 此外,應使用準確、全面的提示來指導大語言模型當前響應的推理過程和判斷原因。 除了讓生成式 AI 引用關鍵資訊**之外,還要考慮如何突出顯示需要仔細檢查的重要元素,例如日期、統計資料、政策以及它所依賴的練習。
歸根結底,上述手段旨在建立一種新的工作文化。 在這種文化中,生成式人工智慧被視為一種有待證明的實用工具,而不是人類創造力和判斷力的替代品。
“生成式人工智慧或任何其他形式的人工智慧技術應該用於增強人類的決策,而不是在現有限制內取代人類,特別是在可能造成傷害的情況下,”達加說。 人類檢查員應該接受培訓,以批判性地評估人工智慧模型的輸出,而不僅僅是其看似決定性的結論。 ”
除了在流程中引入人工審查並鼓勵對 AI 建議進行實驗和徹底評估外,我們還需要設定護欄,以防止在不適用的場景中任務完全自動化。 “例如,人工智慧可以為企業生成新聞稿,但只有人類編輯才能批准和發布可以與記者和出版商共享的最終文字。 ”
生成式 AI 當然可以幫助提高開發人員的工作效率,包括構建新庫、填充樣板、自動完成函式和生成單元測試。 我們應該使用這種額外的生產力,但也要確保這部分不會在沒有人工審查的情況下進入生產。
總部位於科羅拉多州的諮詢公司Sageable的全球首席技術官兼創始人安迪·曼恩(Andi Mann)表示,公司應該對其選擇的後果負責,尤其是不適當的人工智慧部署的負面影響。 “客戶什麼都不聽,這都是人工智慧的錯,資料洩露的所有責任都歸咎於人。 ”
為了負責任地使用人工智慧系統,良好的透明度是內部員工和外部客戶的重要先決條件。 但令人尷尬的是,大量出版物已經開始使用人工智慧生成的內容,其糟糕的質量往往很容易被讀者發現。 即使是高質量的內容,我們也應該清楚地標記人工智慧系統生成的內容,包括內部會議摘要、營銷資訊或聊天機械人響應。 為自動化系統(例如聊天機械人)設定“出口”非常重要,這些系統允許使用者隨時轉移到人類身上。
根據 Daga 的說法,“客戶應該有權拒絕與生成式 AI 互動,尤其是與他們討論敏感內容。 ”
隨著舔AI在商業場景中的廣泛應用,我們必須對AI建議做出更加主動、主動、嚴謹的判斷。 在去年的 DevOps 自動化現狀報告中,80% 的 IT 從業者已經意識到了這個問題在 2023 年的“DevOps 自動化和 AI 現狀研究”中,這一比例已超過 90%。
曼恩說,這種謹慎是有道理的,尤其是在特定領域的訓練資料有限的情況下,更需要保證輸出結果的可觀性、合理性和可驗證性。 以IT運維為例,一旦訓練資料不足,AI模型就容易產生不準確的結果。
他警告說:“生成式人工智慧的用例非常有限,需要新的問題、不明確的邏輯鏈和有限的相關知識儲備。 如果潛在的輸入是沒有被廣泛公開的純利基知識,那麼根本就不可能訓練出乙個穩定可靠的大型語言模型。 ”
但他也認識到使用生成式人工智慧作為助手的重要性。 “它可以是顧問,也可以是活躍的專家,他們可以通過向培訓引擎提供跨學科定義和知識庫來了解已知的良好 IT 運營,然後識別已知問題、診斷已知原因、識別已知的低效率,並以已知的補救措施做出響應。 “但重要的是,不要忽視這樣乙個事實,即很難預先判斷新興的IT問題有哪些例外,而這些問題似乎可以通過熟悉的流程和解決方案來解決。
“我們都知道,當試圖讓人工智慧解決乙個未知的問題時,他們幾乎從來不想承認他們無力處理它,而是傾向於丟擲誤導性、虛假、錯誤甚至惡意的結果。 ”
雖然生成式人工智慧的內容輸出往往是有益的,但由於部署門檻低,盲目使用有時會增加審查負擔,給從業者帶來更多不必要的工作量。
不少休閒雜誌報道稱,他們收到了大量由AI撰寫的低質量故事,甚至達到了拒絕服務攻擊的程度。 出版商一直在嘗試使用人工智慧進行修訂和潤色,但作家和編輯報告說,人工智慧建議的修訂在處理技術術語、特定風格、複雜的句子結構和精確的措辭時往往是無益的、無效的,甚至是完全錯誤的。 但對於初學者來說,這些情況其實很少見。 因此,要現實一點,誠實地說明生成式人工智慧可以在哪些方面做出積極貢獻。
採用人工智慧工具的關鍵先決條件之一是首先建立錯誤處理流程,而不是在每次發現錯誤時都進行單獨調整。 不要假設生成式 AI 會從錯誤中學習,也不要假設相同的提示總是指向相同的結果。 對於重要內容,請務必使用提示工程和篩選器來約束和限定相關結果。
此外,為生成式 AI 技術的計畫外領域和流程做好準備。 新技術在這些領域和流程中可能表現不佳,但良好的透明度通常有助於解決問題。 員工需要了解企業何時允許使用生成式人工智慧,以及如何披露可接受的使用政策。 此外,我們還應該以企業聊天系統的形式將生成式人工智慧納入審計和電子取證。
組織可能需要盡快制定這些策略。 TechnaAnalysis Research今年春天對1000家美國公司進行的一項調查顯示,88%的公司表示他們已經在使用生成式人工智慧,但只有7%的早期採用者制定了正式的治理政策。
在 IDC 最近一項關於人工智慧技術機遇的研究中,超過四分之一的企業領導者認為缺乏人工智慧治理和風險管理是限制該技術實施的挑戰。 除了擔心業務資料洩露之外,損害商業聲譽是另乙個需要優先考慮的優先事項。 此外,超過一半的受訪者認為,無法找到熟練的技術人員(主要是開發人員和資料工程師)是乙個主要障礙。 此外,沒有科學和工程背景的企業員工需要接受培訓,以習如何準確地詢問人工智慧工具,然後評估和驗證他們給出的結果。