近日,歐洲議會、歐盟成員國和歐盟委員會就《人工智慧法案》達成協議。 該法案將是全球首個人工智慧領域的綜合性法規,但立法實際上並不順利,過程一直受到質疑和重複。
《人工智慧法案》進一步補充了歐盟新興的數字規則手冊,其中包括《通用資料保護條例》、《數字服務法》和《數字市場法》等法案,這些法案規範了數字經濟的不同方面。 《人工智慧法案》於 2021 年立法。 去年6月,空中巴士公司(Airbus)和西門子(Siemens)等多家歐洲大公司表示,該法律過於嚴厲,無法促進創新和幫助當地工業。 此前,法國、德國和義大利也曾對草案中的一些條款表示反對,認為這些法案將影響本國人工智慧初創公司的發展。
關於《人工智慧法》,主要有兩個爭論點,乙個是在公共場所使用包括面部識別在內的實時生物識別技術二是基礎模型和通用人工智慧(AGI)的監管。 生物識別技術最棘手的談判困難之一是實時生物識別工具受到限制的程度。 除了維護和執法等個別案例外,該法案原則上禁止實施生物識別技術,因此在公共場所使用該技術有很多限制,這裡不再贅述。 下面主要談談大模型和通用人工智慧的監管。
歐盟《人工智慧法案》的核心是風險分類系統,該系統根據人工智慧系統對人們的健康、安全和基本權利構成的風險程度對其進行監管。 風險分為四類:不可接受、高風險、有限風險和最低零風險。 通用人工智慧的提供者將承擔與高風險人工智慧系統類似的義務。 開發人員必須滿足各種要求,以證明其技術及其使用不會對健康、安全和基本權利構成重大威脅。 開發人員需要提供風險管理和資料治理實踐、監控和記錄儲存實踐、詳細文件以及 AI 透明度和人工監督義務,以確保 AI 準確且穩健,符合網路安全標準。 高風險的人工智慧系統還必須在歐盟範圍內的公共資料庫中註冊。
對於大型語言模型開發人員,有基本的透明度要求。 構成系統性風險的生成式人工智慧應用程式的開發人員將需要根據計算能力、商業使用者數量和模型引數簽署自願行為準則。 對計算能力超過 10-25(GPU 數量)的 AI 模型作為基本模型進行定性鑑定,超過這些閾值的模型將面臨額外的義務,包括嚴格的評估、系統的風險評估、網路安全措施和能源消耗披露。
作為全球首個人工智慧領域的綜合性法規,歐盟的提案可以給我們一些啟示。 首先,該法案反映了歐盟在人工智慧領域彎道超車的願望。 美國在網際網絡行業已經形成了“天然壟斷”,但相比之下,新興的人工智慧產業仍處於百家思壇。 儘管美國Microsoft等科技巨頭擁有一定的先發優勢,但初創企業仍然可以在新賽道上取勝。 如果《人工智慧法案》限制了創新,它可能會重蹈DeepMind被迫出售給谷歌的覆轍。 德國初創公司 Aleph Alpha GmbH 上個月籌集了超過 5 億美元,法國的 Mistral AI 也在新賽道上處於領先地位。 如果歐盟在這個時候熄滅創業之火,無異於長城的自我毀滅。
其次,該部門很難對人工智慧等新興技術進行全面監管,因為目前還無法準確確定人工智慧技術的影響。 就像人類無法在第一輛車進行設計和測試之前制定詳細的交通法規一樣。 開發過程中複雜的法規也可能導致技術開發的延遲。 為了在開發與監管之間取得平衡,建議將技術監管和應用監管分開,放寬對技術開發的初始限制。
此前,美國與Microsoft、OpenAI等7家領先的人工智慧公司簽署了自願性資訊透明協議,歐盟在此次立法中進一步強制人工智慧企業在開發通用人工智慧時簽署自透明協議,兩者本質上都將社會監管變成了企業內部的自我監管。 因此,人工智慧龍頭企業的內部治理尤為重要。 這些公司的董事會需要由具有不同價值觀的專家來平衡,以實現內部制衡。
其他山峰的石頭可以用來攻擊玉石。 歐盟《人工智慧法案》中發展與監管的平衡、龍頭企業內部監管、龍頭企業董事會的專家參與機制,或許為不同國家對人工智慧的監管提供參考意義。 (作者為千鑫集團工作人員)。