近年來,人工智慧技術在許多領域取得了重大突破,其發展速度和影響力空前,給現代生活帶來了極大的便利,但也留下了一些可能危及人類生存的重大風險。 如何充分享受科技發展帶來的巨大紅利,同時有效防範其潛在風險,已成為人工智慧發展面臨的乙個關鍵問題。 為此,我國先後頒布了《新一代人工智慧治理原則——發展負責任的人工智慧》(2019年)、《新一代人工智慧倫理標準》(2021年)、《關於加強科技倫理治理的意見》(2022年)和《科技倫理審查辦法(試行)(2023年)》等。 試圖通過人工智慧與倫理的有機結合,引導人工智慧走上“科技向善”的健康發展道路。人工智慧與倫理的有機結合可以從三個維度進行:倫理防禦、倫理治理和倫理創新。
人工智慧的發展需要理性的道德理由。
在進入現實生活之前,人工智慧作為“機械人”活躍在文學中。 無論是在舞台劇、科幻**還是科幻電影中,人工智慧都被賦予了一種異化屬性,這種屬性是由人類創造的,但反過來又會傷害他們。 這種妖魔化人工智慧的文學想象,反映了人類對人工智慧的深深焦慮。 究其原因,AI可能比人類擁有更大的力量,並且存在著反過來傷害人類的巨大風險。 現實生活中,人工智慧Alpha Dog擊敗世界圍棋冠軍,工業機械人搶占人類勞動崗位,大型語言模型不斷產生與人類專家相媲美的行業作品,進一步加劇了人類對人工智慧的擔憂,甚至引發了一些對人工智慧的抵制。 過度的憂慮和盲目的抗拒,可能會阻礙人工智慧的正常發展,影響人類充分享受現代科技進步帶來的便利。 為了解決這些不必要的問題,需要對人工智慧進行合理的倫理辯護,以建立人工智慧的倫理合理性。
人工智慧的倫理合法性在於它能夠造福人類,提高勞動生產率,為人類創造幸福生活。 與其他科技產品相比,人工智慧具有非常獨特的功能,它可以模擬人類智慧型,不僅可以進行智慧型計算,還可以完成智慧型動作,它的一些物理能力(如力量和速度)和智力(如記憶和計算)甚至可以遠遠超過人類。 模擬意味著替代,而人工智慧可以模擬的人類活動有可能被替代。 因此,人工智慧可以作為人類勞動的助手或替代品,廣泛進入生產生活的各個領域,不僅可以節省大量的勞動時間,為人類提供更多的空閒時間,還可以創造更高的勞動效率,為人類提供豐富的勞動產品和便捷的社會服務。 簡而言之,提高勞動生產率以造福人類的能力是人工智慧倫理合法性的現實基礎。
然而,可能性並不意味著現實,人工智慧能否實現自己的倫理合法性並不取決於人工智慧本身,而是取決於人工智慧的現實發展是否真正指向其合法目的。 人工智慧具有實現有目的的發展和提高人類幸福感的潛力。 也有可能走上異化發展的道路,損害人類的根本利益。 如果我們只看到人工智慧的進步,以超人類主義的態度歡呼“超級智慧型”,要求人工智慧技術的無節制發展,就有可能危及整個人類的生存和發展。 相反,如果我們只看到人工智慧的危險,堅持拒絕“技術怪物”的反智主義,要求嚴格禁止人工智慧技術的發展,可能會導致人類科技創新停滯不前。 因此,理性的倫理辯護應該是辯證的,既要看到人工智慧的適用性,又要歡迎人工智慧發展創造的人類福祉; 也要看到人工智慧的盲目性,警惕人工智慧可能帶來的潛在風險。
人工智慧的發展需要有效的倫理治理。
人工智慧是人類創造並服務於人類的技術事物,它具有強大的技術力量,但不一定服務於人類。 人工智慧既可以造福人類,也可以傷害人類,就像無人轟炸機既可以阻止戰爭又可以殺死平民一樣。 據可預見,人工智慧有可能引起四種主要型別的問題。 首先是安全問題,即人工智慧的力量既可以改善人類生活,又可以危及社會發展和人類安全。 二是正義問題,即人工智慧雖然可以提供豐富的財富和便捷的服務,但也有可能加劇分配不公、群體歧視等社會正義問題。 三是人類發展問題,即人工智慧替代人類勞動和人類能力的延伸和增強,這可能會阻礙人類能力的全面發展。 四是自由自主問題,即人工智慧取代了人類的決策和行動,不僅減輕了人類的負擔,也壓縮了人類自由自主的空間。 為了防範這些風險,人工智慧必須受到嚴格的監管和約束,使其符合人類現有的倫理規範、道德觀念和價值取向。
人工智慧的倫理治理是確保人工智慧技術被開發和用於實現服務人類的根本目的,從而實現人類利益的最大化。 換言之,人工智慧的發展必須以人類的根本利益為中心,必須以人類現有的倫理規範和價值取向為基礎。 沒有這個中心和標準,人工智慧的發展可能會誤入歧途。 人類基本價值觀共識主要包括三個方面:一是尊重個人的安全和自由發展,二是追求人與人之間的公平、正義、仁慈和友誼,三是強調群體的和平、穩定、繁榮與發展。 人工智慧的倫理治理,就是要使人工智慧的發展服從於人類公認的倫理規範,促進人類基本價值的廣泛實現。
人工智慧倫理治理的關鍵在於人工智慧背後的人,而不是人工智慧本身。 無論人工智慧多麼強大,它本質上仍然只是乙個技術物件,乙個由人類創造和控制的技術物件。 人工智慧的自主智慧型能力不是自然產生的,它們能擁有什麼樣的能力,能擁有多少,是由人類決定的,而不是人工智慧。 從造物主與受造物的責任關係來看,人類必須對自己的創造負責,對人工智慧的功能負責,對人工智慧帶來的一切後果負責。 換言之,倫理治理需要堅持核心思想,即人工智慧引發的社會問題首先是“人”的問題,而不是“物”的問題。 開展人工智慧倫理治理,首先要增強人工智慧相關人員的責任意識。
人工智慧的有效倫理治理既需要強調自由放任的技術至上主義思想,也需要追求私人利益的技術中立主義思想。 讓人工智慧不受任何限制地自由發展,可能會導致人工智慧走上盲目發展的道路,導致人造物奴役人類的異化局面。 將人工智慧從屬於個人利益和私人意志,可能導致人工智慧的發展道路片面化,導致人工智慧成為一些人的盈利工具。 乙個真正合乎道德和負責任的人工智慧只能是為整個人類的利益而努力的人工智慧。
人工智慧的發展需要健全的道德創新。
人工智慧的出現將在一定程度上改變人類的道德生活,衝擊現有的道德觀念。 一方面,人工智慧作為超算軟體與非生物硬體的結合,不同於人類具有生物體的理性存在,也不同於具有感官能力的動物的非理性存在。 一旦進入道德世界,這種新型存在具有什麼樣的道德意義,它應該享有什麼樣的道德地位,這是現有倫理理論沒有遇到過的新問題,需要認真思考。 另一方面,人工智慧全面進入生產生活領域,必然會影響現有的勞動模式和溝通方式,甚至形成一些具有新倫理性質的社會關係。 一旦這些變化超出了現有倫理理論的範圍,就需要創新和發展倫理理論,以提供合理的解釋。 從這個意義上說,為了充分理解人工智慧的道德意義,合理應對人工智慧帶來的倫理變化,有必要進行一定的倫理創新,發展與人工智慧相適應的倫理理論和道德觀念。
基於人工智慧發展的倫理創新,首先需要基於人工智慧的獨特技術。 人工智慧不同於其他人造技術物件,它具有一定的智慧型性和自主性。 雖然AI沒有自己的自由意志,只能利用設計者、生產者、使用者等人類的意志作為自己的意志,但在許多人類意志的控制下,AI仍然有乙個相對狹窄的選擇空間,需要做出自主的行為選擇。 這種相對狹窄的自主選擇空間和相對薄弱的自主選擇能力,可能賦予人工智慧行動一定的道德意義。 因此,人工智慧是否可以被視為乙個道德主體,是否需要承擔一定的道德責任,是否能享有一定的道德權利,已經開始成為乙個嚴肅的問題,這可能指向乙個真正向人工智慧開放的倫理理論。 同時,這意味著我們需要以人工智慧為新的參照物,對現有的道德主體、道德責任、道德行為、道德評價、道德獎懲等理論進行反思,從而將人類對道德本身的理解推向乙個新的高度,從而真正把握人工智慧的道德意義。
基於AI發展的倫理創新,也需要面對AI帶來的生活變化。 人工智慧的廣泛應用有可能以三種方式改變人類生活。 首先,人工智慧可以作為人體器官的替代品或增強劑,以改善人類的生活。 這從乙個新的角度重新提出了人類特質的問題:面對人工智慧,人類的素質究竟是什麼? 人類在生命能力增強後能否獲得自我認同? 其次,人工智慧可以作為人類勞動的替代或助手,推動機器勞動大規模替代人類勞動,從乙個新的視角重新提出勞動本質的問題:勞動對人類的真正意義是什麼? 自動化機器生產的勞動產品應該如何分配? 第三,人工智慧大規模進入生產生活領域,與人類形成了各種錯綜複雜的關係,這就提出了乙個新的人機關係問題:人類應該如何看待和處理與人工智慧的關係? 要回答這些問題,有必要對既有的倫理學理論進行重新思考,或許將倫理學理論的根源從現有的人機關係延伸到新興的人機關係。
基於人工智慧發展的倫理創新應該警惕理論僵化和理論機會主義。 理論僵化主義者完全固守現有的倫理理論,看不到人工智慧帶來的發展機遇,不願做出任何實質性的理論改變。 這可能導致倫理理論與實踐發展脫節,進而削弱倫理理論指導人工智慧實踐發展的功能。 理論機會主義者完全無視現有的道德原則,拋棄人類長期以來所珍視的基本價值,只遵循實際發展的實際需要。 這可能導致倫理學理論價值基礎的喪失,也會削弱倫理學理論指導實踐發展的功能。 合理的倫理創新必須堅持人類基本價值觀的共識,並根據人工智慧的實際發展,不斷創造能夠理解、包容和引導人工智慧發展的新倫理理論。
無論是從人工智慧的健康發展還是人類社會的持續發展來看,人工智慧都必須與倫理相結合。 沒有理性的倫理理由,人類很難對人工智慧的發展保持正確的態度。 如果沒有有效的倫理治理,人類就很難理性地引導人工智慧的強大力量。 沒有健全的倫理創新,人類就很難跟上人工智慧發展的步伐。 只有將倫理防禦、倫理治理與倫理創新相結合,才能真正保障人工智慧向善向上發展,形成科技健康發展和社會可持續發展的雙贏局面。
李志祥,南京師範大學公共管理學院教授