瞭望丨直面人工智慧的倫理挑戰

Mondo 科技 更新 2024-01-30

人工智慧的倫理挑戰不僅體現在“技術鴻溝”上,也體現在更廣闊的領域。 這些挑戰集中在四個方面。

在人工智慧技術和規則方面處於領先地位的國家正處於技術優勢快速積累的迴圈中,這很可能成為半導體領域的“瓶頸”工具,這將阻礙後發國家在人工智慧方面的進步。

2024年將是全球人工智慧倫理治理的元年。 各國**和國際組織已開始深入探討人工智慧的倫理問題,並出台了一系列宣告、願景和政策,試圖規範人工智慧的發展路徑。

美國更不願意嚴格限制其技術的發展,直到它絕對領先於曲線。 因此,美國在人工智慧治理和技術發展方面往往落後於各國。

文 |李錚, 張蘭書.

機械人在上海科技創新成果展上展出(攝於2024年11月29日) 作者:方喆本雜誌。

2024年,隨著新一代生成式人工智慧應用ChatGPT的出現,國際社會將越來越多地討論人工智慧的倫理挑戰。 越來越多的觀察家發現,人工智慧的快速發展可能超出了人類社會的準備範圍,並認為其帶來的風險不容忽視。 倫理挑戰成為人工智慧引發的廣泛爭議中最突出的話題,也將對未來人工智慧與人類社會的互動產生深遠影響。

從四個維度探討了人工智慧的倫理挑戰。

與網際網絡的誕生類似,人工智慧也將給世界帶來重大變化。 這種影響往往是一把雙刃劍,新技術既改變世界,也影響著世界,並不是每個人都能平等受益。 人工智慧的倫理挑戰不僅體現在“技術鴻溝”上,也體現在更廣闊的領域。 這些挑戰集中在四個方面。

第乙個維度源於人工智慧的“自主性”,這意味著該技術比其他尖端技術更有可能逃脫人類的控制。 相關的倫理挑戰主要體現在人工智慧是否會欺騙和控制人類意識,以及是否會減少人類發展機會。

與網際網絡和社交網路相比,人工智慧可以更全面地了解個人、“感知”和使用者的需求。 這種能力與“深度偽造”技術相結合,將進一步加強對不同群體的“控制”和“欺騙”。 通過有針對性的資訊饋送,人工智慧可能會創造更緊密的“資訊繭”和更深層次的“意識控制”。 2023 年,英國一家法院對人工智慧聊天機械人鼓勵一名男子暗殺女王的案件做出了裁決,說明了這種風險。

以ChatGPT為代表的生成式人工智慧的不斷迭代進步,也讓企業界看到了越來越廣闊的“人代替”場景。 根據麥肯錫公司的資料,到 2030 年,隨著人工智慧等技術的進步,多達 375億工人可能面臨再就業問題。 研究公司牛津經濟研究院(Oxford Economics)也得出了類似的結論,即到2024年,全球將有大約2000萬個製造業工作崗位消失,這些工作崗位將被轉移到自動化系統中,而被迫的製造業勞動力將被機器取代,即使它被轉化為服務業工作。 在眾多工作中,被人工智慧技術取代風險最高的工作型別包括程式設計師、軟體工程師、資料分析師等技術工作,以及廣告、內容創作、技術寫作、新聞等**工作,以及律師、市場分析師、教師、金融分析師、財務顧問、交易員、平面設計師、會計師、 客戶服務等 這些工作通常受過高等教育,失業意味著人力資本的巨大損失,這將加劇一些國家的結構性失業問題。

第二個維度源於人工智慧的“不透明”,這意味著該技術的隱患更難被發現,問題無法及時披露並引起社會關注。

人工智慧應用離不開算力和演算法的支援,但這兩個重要資源並不透明。 對於生成式 AI 模型,每一代內容都需要數以億計的引數和資料,因此幾乎很難解釋它們的決策過程。 流程和內容的不透明性使得AI更容易出現隱患。 大模型設計的缺乏或激進,容易導致私隱資訊洩露、資料過度收集和濫用、演算法不可控等問題。 生成式人工智慧的輸出可能具有誤導性,包含不真實和不準確的資訊,並誤導人類的決策過程。 一些犯罪分子還可能通過“資料中毒”和“演算法中毒”來誤導人工智慧系統,造成更廣泛的系統故障。

近年來,人工智慧的軍事化部署一直是最令人擔憂的。 各國正在加速部署人工智慧系統,使得“智慧型戰爭”系統在決策中出現失誤、“失火”甚至引爆和惡化戰爭的風險。

第三個維度源於人工智慧的“可擴充套件性”,這意味著該技術可以被各種人和組織使用,其中可能包括一些別有用心的人。

人工智慧易於移植、易於改造、易於整合,技術突破易於推廣,同樣的演算法可能服務於完全矛盾的目的。 一些犯罪分子可以規避模型安全策略,從人工智慧中提取“危險知識”,還可以將人工智慧轉化為犯罪工具。 據《富比士》報道,人工智慧已成為電信詐騙領域最強大的技術,任何國家都難以逃脫這場席捲全球的災難。 由人工智慧賦能的電信欺詐有可能成為世界上最有害的有組織犯罪。

第四個維度源於人工智慧的“壟斷”,這意味著該技術高度依賴資金投入,使用先進演算法具有很高的門檻,包括設計人員的演算法偏好和資料形成,容易擴大類分化。

首先,人工智慧可能會加劇壟斷行為。 人工智慧成為營銷領域最強大的“大規模殺傷力”,全方位改變了企業的營銷策略。 然而,這種更精準的營銷也可能助長“千人千價”等行為。

其次,人工智慧可能會加劇現實世界的歧視。 人工智慧應用的演算法由資料驅動,這些資料涵蓋了種族、性別、信仰、殘疾、傳染病等特定標籤,反映了人類社會複雜的價值觀和意識形態。 一旦在相關應用模型的訓練中引入偏見,演算法輸出的內容可能會受到個人、群體和國家的偏見或偏愛,從而引發公平性問題。

最後,人工智慧可能導致不平等的發展。 人工智慧的關鍵專業知識和前沿技術集中在少數具有先發優勢的企業和國家,這必然導致全球人工智慧產業發展不平衡,更大程度上加深全球“數字鴻溝”。 同時,在AI技術和規則上處於領先地位的國家正處於技術優勢快速積累的迴圈中,這些優勢很可能成為半導體領域等的“瓶頸”工具,阻礙AI後發國家的進步。

杭州亞運會女子鐵餅決賽前,一名工作人員將鐵餅放在用來搬運鐵餅的機器狗上(攝於2024年10月1日) 攝影:江 韓 本雜誌。

全球人工智慧倫理治理元年。

這些倫理挑戰正引起國際社會的廣泛關注。 2024年,各國**和國際組織將開始深入探討人工智慧倫理問題,並出台一系列宣告、願景和政策,試圖規範人工智慧的發展路徑。

聯合國在人工智慧倫理治理方面發揮了更重要的作用。 2024年,聯合國在促進各國建立共識、安全風險和治理合作方面取得了一些進展。 今年3月,教科文組織呼籲各國立即實施該組織2024年11月發布的《人工智慧倫理問題建議書》。 7月,聯合國召開首屆人形機械人與人類出席的新聞發布會,9臺人形機械人接受了與會專家和各界領導的提問舉辦“AI for Good”全球峰會,探討人工智慧的未來發展和治理框架;安全理事會就人工智慧對國際和平與安全的潛在威脅舉行了首次公開辯論。 10月,聯合國秘書長安東尼奧·古特雷斯宣布成立人工智慧高階別諮詢機構,來自世界各地的39位專家將共同探討人工智慧技術的風險和機遇,為加強國際社會治理提供支援。 可以看出,聯合國已將人工智慧倫理納入全球治理議程,未來將推動形成更加正式、更具約束力的組織和治理規範。

歐盟已經為人工智慧專門立法,以全面監管該技術。 歐盟委員會 2021 年對擬議的《人工智慧法案》的談判授權草案嚴格禁止“對人類安全構成不可接受風險的人工智慧系統”,要求人工智慧公司保持對演算法的控制,提供技術文件,並建立風險管理系統。 經過馬拉松式的談判,歐洲議會、歐盟成員國和歐盟委員會於2024年12月8日就《人工智慧法案》達成協議,該法案成為全球首個人工智慧領域的綜合性法規。

美國已經出台了監管政策,但立法程序緩慢。 與歐盟相比,美國的監管要求較少,主要強調安全原則,鼓勵企業自律。 2023 年 1 月,美國國家標準與技術研究院 (NIST) 正式公布了 AI 風險管理框架,旨在指導組織在開發和部署 AI 系統時降低安全風險,但該檔案是非強制性指導檔案。 10月,拜登簽署了迄今為止最全面的美國.AI監管原則,即《關於安全、可靠和可信開發和使用人工智慧的行政命令》,該命令超出了OpenAI、谷歌和Meta等公司今年早些時候做出的自願承諾,但仍然缺乏執法效力。 拜登敦促國會在行政命令發布後盡快提出相關立法。 參議院多數黨領袖查克·舒默(Chuck Schumer)在9月和10月舉辦了兩場人工智慧洞察論壇,以收集行業建議,並預計人工智慧立法將在幾個月內準備就緒,但這些法案未來是否會順利通過還有待觀察。

英國正在人工智慧治理外交上投入更多資源。 2024年11月,首屆全球人工智慧安全峰會在英國布萊切利公園舉行。 來自美國、英國、歐盟、中國、印度等各方的代表出席了會議。 會議最終通過了《布萊切利宣言》,強調人工智慧的許多風險本質上是國際性的,因此“最好通過國際合作來解決”。 與會者同意共同努力,建立乙個“國際包容性”的前沿人工智慧安全科學研究網路,以加深對尚未完全了解的人工智慧風險和能力的理解。 英國為主辦此次峰會做了大量的準備和外交斡旋,旨在將自己打造成全球人工智慧治理的“召集人”。 未來,越來越多的國家將投入更多資源用於人工智慧治理外交,爭奪這一新興領域的話語權。

中國高度重視人工智慧治理問題,治理理念注重發展與安全的平衡。 2024年4月,國家網際網絡資訊辦公室起草了《生成式人工智慧服務管理辦法(徵求意見稿)》。 《生成式人工智慧服務管理暫行辦法》於7月正式發布,從技術開發治理、服務規範、監督檢查、法律責任等方面對生成式人工智慧進行了具體規定,並於8月15日施行,成為全球首部生成式人工智慧專項立法。 同時,中國在年內還出台了一系列關於深度合成和演算法的規定,如1月施行的《網際網絡資訊服務深度合成管理規定》和1月施行的《網際網絡資訊服務演算法推薦管理規定》。 10月,中國提出全球人工智慧治理倡議,就個人私隱和資料保護、資料採集、演算法設計、技術開發、風險等級測試和評估以及道德準則等提出具體原則、指南或建議。

為什麼美國很慢。

與美國在人工智慧技術應用層面的發展速度相比,美國在人工智慧監管政策和立法上行動緩慢,這是多重因素共同作用的結果。

首先,美國不願放棄其人工智慧優勢。

美國和戰略界普遍認為,人工智慧是決定美國能否贏得下一輪全球技術競爭的戰略技術之一。 自歐巴馬時代以來,美國**提出了一系列相關的國家計畫和願景。 川普和拜登的人工智慧行政命令都強調保持“美國.AI領導地位”是美國治理人工智慧的基本目標。 美國更不願意嚴格限制其技術的發展,直到它絕對領先於曲線。 ChatGPT普及後,美國出台了相關監管政策,其目標不僅是應對治理風險,更是防止技術快速擴散,削弱美國的領先優勢。

其次,人工智慧倫理問題在美國被政治化,兩黨難以調和分歧,在治理上達成共識。

近年來,美國政治兩極分化加劇,兩黨在幾乎所有社會問題上都存在分歧,尤其是在與人們生活方式相關的人工智慧倫理問題上。 在議題方面,民主黨更關注個人私隱、演算法歧視、演算法正義等與多樣性相關的議題共和黨更關注人工智慧犯罪等安全問題。 在風險防範方面,民主黨認為,人工智慧造假造謠的應用風險最為突出,需要加強社交網路等中間溝通渠道的責任另一方面,共和黨人認為,這種治理措施是出於政治動機,對共和黨候選人有害。 受2024**影響,兩黨矛盾糾紛愈發尖銳,立法進度明顯滯後於形勢發展。 從拜登**在2024年底陸續推出的一系列人工智慧治理政策檔案可以看出,民主黨有意率先打破僵局,將人工智慧治理作為潛在的競選議題,並加快該議題的立法程序。

最後,美國在監管人工智慧方面也面臨一些制度障礙。

美國政治傳統中所謂的“自由第一”和“個人第一”,不利於控制權力下放、風險分散以及技術和應用的快速擴散。 這種傳統往往會造成各州之間的監管差距,也使得利用行政資源根除非法利益鏈變得困難。 槍枝和毒品犯罪的氾濫都與槍枝和毒品犯罪的氾濫有關,危險的人工智慧應用也可能成為美國的下乙個社會風險。

這種猶豫可能導致全球人工智慧“軍備競賽”的風險增加。 作為全球人工智慧技術研發的領先國家,美國有義務成為全球推廣人工智慧相關監管措施的最早參與者,但美國尚未形成監管立法,在全球範圍內推動人工智慧治理的議程也有所放緩,這將導致越來越多的國家無視控制,盲目追求技術領先, 然後加入演算法“軍備競賽”。這種競爭可能會逐漸偏離人工智慧健康有序的發展方向,這無疑會給後續的全球立法和治理帶來更多障礙,也增加了各國圍繞人工智慧發生惡性競爭事件的風險。

李錚:中國現代國際關係研究院美國研究所助理所長張嵐樹,中國現代國際關係研究院美國研究所助理研究員

《展望》,2024年第52期)。

相關問題答案

    人工智慧倫理探討了人工智慧的倫理挑戰和倫理問題

    簡介 人工智慧 AI 正逐漸成為我們生活中不可或缺的一部分,為我們提供了許多便利和創新。然而,隨著人工智慧技術的快速發展,也引發了一系列與道德倫理相關的問題。一 人工智慧倫理的概念。人工智慧倫理學是一門研究人工智慧技術和應用中與道德和倫理相關的問題的學科。它旨在 人工智慧對社會 個人和環境的影響,並...

    歐洲已就世界上第乙個全面的人工智慧規則達成協議

    研究人員警告說,強大的人工智慧模型可用於增強網路虛假資訊 網路攻擊或生物 的建立。歐盟談判代表周五就世界上第乙個全面的人工智慧規則達成協議,為對人工智慧技術的法律監督鋪平了道路,該技術有望改變日常生活,並發出人類面臨生存危險的警告。來自歐洲議會和歐盟個成員國的談判代表克服了在生成式人工智慧和使用面部...

    人工智慧時代:對家庭倫理和道德的挑戰

    隨著科學技術的發展,人工智慧逐漸成為人們關注的焦點。特別是在家庭領域,人工智慧的出現引發了人們對未來家庭概念的衝擊和挑戰。本文以科技熱點為導向,人工智慧對傳統家庭觀念的影響與挑戰。.人工智慧對家庭觀念的影響。人工智慧能進入家庭嗎?尋找AI作家程式 隨著人工智慧的發展,人工智慧正逐漸進入家庭領域。例如...

    人工智慧在工作領域面臨挑戰

    在瑞士日內瓦舉行的 人類人工智慧全球峰會 上,參與者是機器狗。新華社記者連毅攝。德勤近日發布 年數字消費趨勢 研究報告,揭示了包括比利時在內的全球至歲消費者在日常生活中使用人工智慧 AI 技術的普遍程度。調查顯示,人工智慧在個人生活中占有一席之地,但它在工作領域面臨很多挑戰。研究表明,在比利時,大約...

    大資料和人工智慧中的倫理問題

    人工智慧和大資料。隨著人工智慧技術的發展,人工智慧系統對我們日常生活的影響無處不在。科學家開發人工智慧技術和系統不僅是為了解決功能或技術問題,也是為了更好地幫助人類。然而,任何技術都有兩面性,人工智慧技術也不例外。我們如何才能實現造福人類的目標,而不是濫用甚至危害人類?作為人工智慧技術的開發者,只有...