北京**客戶|由楊彥超撰寫。
中國社科院法學研究所研究員楊延超在《群言》雜誌上撰文。
在大模型時代,人工智慧技術的廣泛應用催生了新的犯罪形式,可能涉及人身安全、財產權益和金融市場的穩定,甚至對公共安全構成威脅。 這些可能的犯罪形式有其獨特的特點。
總的來說,大模型時代的AI犯罪具有隱蔽性強、成本低、破壞性大等特點。 這些特點使它們更難防範,對社會的安全與穩定構成更大的威脅。 因此,有必要加強對人工智慧技術的監管,防止其被用於危害公共安全的活動。
面對人工智慧技術被用於犯罪活動的挑戰,歐美等國家採取了一系列涵蓋立法、法規和政策制定的措施,旨在確保人工智慧的安全使用,防止濫用,保護公民的基本權利,促進人工智慧的投資和創新。
一是立法監管措施。 2024年,美國通過了《自動化流程披露和問責法案》(Automated Process Disclosure and Accountability Act),該法案迫使數字平台公開披露其使用“旨在複製人類活動的自動化軟體程式或流程”。 2022 年 2 月,美國國會的一些議員提出了圍繞演算法殘疾侵權制定《演算法問責法案》(AMA)的想法,要求自動化決策系統更加透明和負責。 2021 年 4 月,歐盟發布了《關於建立人工智慧統一規則的條例》和《歐盟某些立法修正案》,這是世界上第乙個針對人工智慧的綜合法律框架。 為了進一步加強網路和資訊系統的安全性,歐盟於 2022 年 12 月通過了《關於在歐盟實施高階網路安全措施的指令》和《數字運營彈性法案》。 歐盟《人工智慧法草案》建立了高風險人工智慧系統風險防範機制,以保護《歐盟憲章》規定的自然人的安全、健康和基本權利。
第二,政策制定和執行。 2022 年 10 月,美國發布了《人工智慧權利法案藍圖:讓自動化系統為美國人民服務》。 該檔案旨在“指導自動化系統的設計、開發和部署,以保護美國公民的權利”。
三是研究探索。 美國聯邦**委員會正在研究生成式人工智慧如何加劇詐騙和欺詐,以便更好地了解和應對這種新形式的犯罪。 歐盟正在積極探索人工智慧的監管模式,例如引入監管沙盒。
第四,國際合作。 美國和歐盟已經開始在人工智慧治理方面進行合作,推進全球人工智慧治理程序,例如,美國和歐盟都是全球人工智慧夥伴關係的成員。
總體而言,面對人工智慧犯罪的挑戰,各國需要加強合作,共同制定和實施有效的人工智慧治理戰略。 (鄭志喬)。