字數:2795,閱讀約5分鐘。
導讀歐盟一直處於技術監管的最前沿。 但在企業眼中,嚴格的限制可能會阻礙歐洲企業進行創新。
作者 |第一財經錢同新.
上周末,經過馬拉松式的談判,歐盟敲定了一項歷史性的人工智慧監管協議,這將是世界上第乙個廣泛涵蓋生成式人工智慧的監管法案,也是世界上最嚴格的人工智慧監管。 在新規則中,立法者同意嚴格限制面部識別技術的使用,並禁止使用人工智慧進行“社會評分”和“操縱人類行為”的人工智慧系統。 新規則還禁止使用人工智慧來剝削因年齡、殘疾或經濟狀況而易受傷害的人。 不遵守規定的公司將面臨3500萬歐元的罰款,相當於全球收入的7%(從兩個選項中選擇乙個)。 歐盟一直處於技術監管的最前沿。 歐盟委員會內部市場專員歐盟在X平台上表示,歐盟將是第乙個為AI的使用制定明確規則的地區,而《AI法案》不僅僅是一本規則手冊,也是歐盟初創企業和研究人員引領全球AI競賽的“跳板”。
您如何平衡監管和創新?一些業內人士擔心,像ChatGPT這樣的生成式人工智慧工具能夠使用大量資料從簡單的查詢中生成複雜且類似人類的輸出,並可能產生歧視性語言和侵犯私隱的行為。 但在企業眼中,嚴格的限制可能會阻礙歐洲企業進行創新。 今年6月,包括法國空客(Airbus)和德國西門子(Siemens)在內的數十家歐洲最大公司表示,如果規定過於嚴格,它們將不會促進創新並幫助當地工業。 對此,布雷頓表示,歐盟出台的規則將為人工智慧技術的使用提供保障,同時避免給企業帶來“過度負擔”。 在歐盟就人工智慧監管法案達成協議後,法國工業軟體巨頭達索系統董事長兼首席執行官伯納德·查爾斯在接受第一財經採訪時表示:“每個國家和地區都會對技術進行相應的控制和限制,包括來自歐洲和法國本身的法規。 作為像達索系統這樣的增值軟體公司,必須遵守這些規則。 在Schabaenard看來,這些規定誕生於AI技術蓬勃發展的時代,這是適應技術發展的必然之舉,但同時也不應影響技術創新的進步。 他還提到,在向中國等市場出口高科技軟體技術時,也應該有標準和合規性。 “達索系統軟體從歐洲採購**,因此當我們向中國提供這些軟體出口時,我們需要滿足歐洲出口的相應標準和合規性。 沙伯納德說。 他強調,對於乙個全球化的企業來說,應該非常熟悉每個國家和地區的法律和監管制度,遵守不同國家的合規要求,當新的合規要求出現時,要盡快分析研究,尋找創造更多價值的機會。 達索系統此前收購了總部位於美國的人工智慧軟體公司Medidata,Medidata正在與監管機構討論使用人工智慧合成控制技術的十幾項臨床試驗。 法國的空中巴士公司和德國的西門子醫療也是人工智慧領域創新的積極倡導者。 根據空中巴士公司的官方網站,該公司正在通過人工智慧重塑其業務,專注於與人工智慧相關的六個技術領域,包括從非結構化文件中提取有價值的知識、基於深度習檢測和決策的計算機視覺、發現資料中隱藏模式的異常檢測、在自然語言互動系統中設計對話輔助、 優化解決非常複雜的約束問題,使下一代飛機能夠自主飛行。在上個月的北美放射學年會(RSNA)上,西門子醫療成為全球首家展示使用生成式人工智慧技術將成像掃瞄與臨床報告相結合的醫療裝置製造商。 該公司表示,它計畫開發生成式人工智慧技術作為聊天系統,可以為臨床醫生的查詢提供適當的答案,包括基於診斷資料和優先順序報告的“動態生成”。 針對歐盟達成的最新AI法案,第一財經記者向空客和西門子醫療尋求建議,但截至發稿,對方尚未回覆。 此外,德國軟體巨頭SAP也在涉足人工智慧領域。 今年到目前為止,該公司已宣布直接投資三家人工智慧初創公司,即Cohere、Anthropic和Aleph Alpha。 一位SAP訊息人士向第一財經記者指出:“我們對生成式AI的關注主要集中在應用層面。 ”
歐美在監管方式上有什麼不同?歐盟《人工智慧法案》被視為人工智慧發展的乙個里程碑,但已經有科技行業團體對這項新法律的潛在影響表示擔憂和不滿。 代表歐洲技術行業的組織Digital Europe總幹事塞西莉亞·博內菲爾德-達爾(Cecilia Bonefeld-Dahl)在線上平台上公開表示:“我們已經達成了協議,但我們將為此付出代價,這意味著我們需要在應對人工智慧使用風險的方式上投入更多資金,而不是技術本身,新的監管規則將要求公司投入大量資源來遵守。 將資源花在律師身上,而不是聘請人工智慧工程師。“Digital Europe的成員包括數百家行業公司,如空中巴士公司和愛立信SAP。 早在今年6月,當歐洲監管機構批准《人工智慧法案》草案時,該組織在一封聯名信中表示:“作為歐洲數字行業的代表,我們看到了基礎模型的巨大機會,以及該領域新的創新參與者的出現,其中許多都誕生於歐洲。 我們不應該對他們進行監管或強迫他們離開,直到他們有機會擴大規模。 這封公開信的簽署者聲稱,目前的《人工智慧法案》可能會削弱人工智慧技術為歐洲“重新加入技術先驅”的機會。 他們認為,批准的規則過於極端,有可能破壞歐盟的技術雄心,而不是為人工智慧創新提供合適的環境。 信中還表示,全球只有3%的AI獨角獸來自歐盟,並表示支援法國、德國和義大利的聯合提案,將基本模型的AI規則範圍限制在透明度要求上。 此前,法國、德國和義大利的談判代表要求效仿美國的監管方式,反對直接監管基於人工智慧的生成式大模型(GPAI),而是通過**引入的行為準則來支援其背後公司的自我監管。 德國和法國擁有一些歐洲最有前途的人工智慧初創公司,包括 Aleph Alpha、DeepL 和 Mistral AI。 一位分析師向第一財經指出,歐洲的監管理念是制定一系列可變的監管標準,旨在對風險最大的人工智慧系統施加最嚴格的限制,而對於其他風險程度較低的人工智慧工具,必須披露內容才能由人工智慧合成。 相比之下,美國的監管為公司採用“自願行為準則”留下了更多的餘地。 拜登在7月宣布了一項針對人工智慧的自願監管協議,稱包括亞馬遜、Anthropic、谷歌、Inflection、Meta、Microsoft和OpenAI在內的公司已同意對他們開發的人工智慧系統進行自我監管。 美國公司的“自我監管”承諾包括對人工智慧工具進行第三方安全測試,研究偏見和私隱問題,與他人共享風險資訊,開發應對氣候變化等社會挑戰的人工智慧工具,以及包括識別人工智慧生成材料在內的透明度工具。 最近,包括亞馬遜、AWS 和 Meta 在內的公司推出了第乙個 AI 生成的水印工具。 美國國會還有另一種監管聲音,一些立法者提議成立乙個類似於美國FDA的機構,來監管人工智慧服務提供商,審查新系統的許可證,並制定標準。 自2024年以來,中國迅速出台了一系列關於推薦演算法、深度偽造、生成式人工智慧等合成內容的法規,包括禁止社交平台使用推薦演算法設定歧視,以及要求人工智慧開發者對人工智慧生成的合成內容進行標註。 大多數專家都認為,人工智慧監管需要全球合作,這需要建立乙個類似於國際原子能機構的組織。 但這一想法也面臨挑戰,包括需要克服地緣政治不信任和經濟競爭。