總結:即使是最先進的人工智慧系統也有侷限性,它們不如貓聰明......
網際網絡**。 人工智慧通常被認為是一種會顛覆世界的技術,而在這個概念誕生後的65年裡,無數的電影和**創造了各種經典的人工智慧角色,AI(人工智慧)迅速成為人類未來世界藍圖的重要組成部分。 然而,在人工智慧不斷拓寬我們對未來的想象的同時,也不乏“人工智慧統治世界”、“人工智慧監控私隱”等負面論點人工智慧真的威脅到個人資料和私隱嗎?..或者,人工智慧真的比我們聰明嗎?
如果你對這些問題持懷疑態度,並希望避免被網際網絡上的所有言論所牽著鼻子走,那麼圖靈獎得主Yann Lecun的新書《科學之路:人類、機器和未來》可能會為你提供一本更科學、更客觀、更前沿的人工智慧問題參考手冊。
在我們真正開始思考人工智慧的倫理之前,我們需要先了解以下三個術語之間的關係:人工智慧、機器學習習和深度學習習。 人工智慧是試圖理解智慧型的本質,並產生一種新型的智慧型機器,這種機器可以以類似於人類智慧型的方式做出反應。 目前,開發新應用最常用的AI技術之一是機器習,而深度習是實現機器習的重要方法之一,也被楊麗坤等眾多科學家認為是人工智慧的未來。
在書中,楊麗坤提出了關於人工智慧的10個問題,並進行了深入的**,讓我們能夠更全面、客觀地了解人工智慧。
人工智慧是乙個難以理解的黑匣子嗎?
一些悲觀主義者認為深度學習習系統是“黑匣子”,我們將來無法理解和操縱AI,但他們錯了。 誠然,深度科學習是基於模擬人類神經網路的,當神經網路有數百萬個單元和數十億個連線時,似乎很難完全理解它是如何工作的,但這不是所有智慧型決策的特徵嗎
我們不了解允許計程車司機、工匠、醫生或航空公司飛行員完成工作的神經工作原理,但我們選擇信任他們。 為什麼要對一台反應更靈敏、不知疲倦、永不分心的機器提出更多要求呢?當你能證明它比人類更可靠時,為什麼要懷疑它呢?
人工智慧系統每天做出數萬億個決策,其中大部分與查詢、分類和過濾資訊有關,以及一些略顯枯燥的應用,例如應用於**和**的效果。 你真的願意花時間和精力去更多地了解他們嗎?人工智慧的工作能帶來令人滿意的結果還不夠嗎?
使用對它們的工作原理沒有深刻理解的系統是很常見的。 許多常用藥物都是通過反覆試驗獲得的,我們的作用機制知之甚少。 例如,我們熟悉的阿司匹林,在日常生活中是無法替代的,它是有史以來使用最廣泛的藥物,它於2024年首次合成,但直到2024年我們才知道它是如何工作的。
大腦只是一台可以模擬的機器嗎?
今天,大多數科學家都接受大腦是生化機器的概念。 這是一台複雜的機器,但它是一台機器。 神經元對輸入的電訊號做出反應,根據從上游神經元接收到的資訊計算是否產生電脈衝訊號、動作電位或放電脈衝,並將它們傳送到所有下游神經元。 這是乙個非常基本的機制。 但是通過結合數十億個相對簡單的神經元的活動,我們得到了大腦和思想。
我意識到模仿人腦的想法可能會受到一些哲學家或宗教人士的強烈反對,但有許多科學家認為,這種思維機制最終會被可以學習習的人工智慧系統複製。
這種觀點的懷疑論者認為,我們對生物、物理、量子和其他系統如何在人體中結合以使大腦工作還不夠了解。 的確,我們並不了解這一切但我堅信,哺乳動物或人類的大腦是一台可以“計算”的機器,而這些計算原則上可以通過電子機器或計算機再現。
人工智慧能創造意識嗎?
意識是乙個很難討論的話題,我們不知道如何衡量和定義它。 它與自我意識混淆,自我意識被認為是動物超級智慧型的標誌。 大象和黑猩猩在鏡子裡認出自己已經有了自我意識,而狗則不能。
就我個人而言,我認為意識是一種幻覺,這似乎存在於許多聰明的動物身上。 人的意識與注意力息息相關,當面對特殊情況時,我們會把注意力集中在它上面,這個時候我們非常專注。 當我們玩益智遊戲、準備新的烹飪食譜、參與辯論時,我們的注意力會毫不猶豫地集中在這項異常複雜的任務上。 它迫使我們開啟“世界模型”來計畫我們的下一步行動。
對我來說,這是毫無疑問的未來的智慧型機器應該具有某種形式的意識。也許與人類不同,它們可以同時專注於多項任務。 但它無法培養意圖或發展意識。 我的同事安托萬·博茲(Antoine Boz)總結道:“我們甚至沒有製造出真正智慧型的機器,既能制定戰略,又能對世界有敏銳的理解。 今天,我們仍然缺乏一些基本概念。 ”
人工智慧比人類聰明嗎?
今天,即使是最先進的人工智慧系統也有侷限性,它們不如貓聰明。 雖然我們已經了解了大腦習的原理,也知道了大腦的結構,但重現其功能所需的計算量是巨大的,大約每秒1次5 次操作的順序為 1018。 GPU 現在每秒可以執行 1013 次計算,功耗約為 250 瓦。 為了達到人腦的計算能力,必須將其中的100,000個處理器連線到消耗至少25兆瓦的超級計算機。 這是乙個巨大的能量消耗,是人腦的100萬倍!
因此,學習習深度的能力非常強大,但非常有限。 目前的深度學習習系統仍然無法進行邏輯推理,因為目前的邏輯與學習習能力不匹配,這是未來幾年的一大挑戰。 一台只受過西洋棋訓練的機器根本無法下圍棋,它根本不明白自己在做什麼,它只是機械地執行指令。 如果把生物的智力作為尺子,人類的智力是100,老鼠的智力是1,那麼AI在尺子上的位置可能更接近後者。
科學面臨的挑戰是巨大的,技術也是如此。
也許你會提出那些**機械人來反駁我,比如“索菲亞”。 索菲亞是乙個美麗的禿頭女人,有著神秘的笑容和玻璃般的眼睛,“她”在2024年的多個舞台上大放異彩。 “她”有一張動人的臉,能夠有幾十種不同的表情,當調侃記者擔心地球上有太多機械人時,“她”笑道:“你看了太多荷里活電影了!這個經典的笑話讓她變得如此像人,以至於沙地阿拉伯當年授予“她”沙特公民身份。 實際上,“她”只是乙個“傀儡”,工程師預先設定了一套標準答案。 當我們與“她”交談時,所有對話都通過匹配系統進行處理,並從獲得的答案中選擇最合適的輸出。索菲亞欺騙人們,“她”只是乙個完成度很高的塑料製品,但我們(被這個被啟用的物體感動的人類)卻賦予了它一些智慧。
那麼,人工智慧比人類更聰明嗎?也許它們在執行非常精確和精確的任務時遠遠優於人類。 但至少就目前而言,任何機器學習方法習都不如人類習有效。
網際網絡**。
人工智慧會產生人類的情感嗎?
我毫不懷疑自主的智慧型機器有一天會產生情感。
這難道不類似於用於測量機械人電池電量的鏡頭元件產生高成本並導致機械人開始尋找電力時的飢餓感嗎?
當一台機器因為成本高而避免採取行動時,或者當它因為成本低而執行任務時,這是否已經被視為一種情緒的表現?
當計算飢餓目標函式的組成部分會產生高昂的成本時,它會觸發對食物的搜尋。 一般認為,這些行為是目標模組元件不滿意的結果。
我很清楚,所有這些似乎都是可以簡化的。 情緒是人性的重要組成部分,因此人們不願意將其數位化為簡單的數學函式計算,也懷疑將人類行為簡化為客觀函式的最小化。 然而,我在這裡提出的只是對智慧型系統總體架構的假設,並不否認目標函式和世界模型的豐富性或複雜性。
人工智慧能成為未來嗎?
人們喜歡它,例如庫存、對產品的需求、財務價值的演變曲線。 那麼,人工智慧能成為未來嗎?
今天的人工智慧有乙個悖論:它非常強大,非常專業,而且沒有一絲常識。
常識至關重要,它限制了我們與世界的聯絡,它填補了空白,填補了隱藏的資訊。 當我們看到乙個人坐在桌子旁時,我們可能無法看到他的腿,但我們知道他肯定有腿,因為我們對人類有一定的常識。 我們的大腦還整合了物理學的基本定律,例如,如果有人打翻了他們面前的玻璃杯,玻璃杯中的水會灑到桌子上。 我們知道,如果我們不握住某樣東西,它就會掉下來。 我們也意識到時間的流逝和萬物的運動。
目前,該機器的容量非常有限。 當然,給定乙個略有刪節的文字,機器有能力給出可能的後續單詞列表。 但是,如果這段文字是阿加莎·克里斯蒂的,那麼在最後一幕中,波羅探長宣布“是的”。 先生“,那麼,為了完成這句話,讀者需要有強烈的常識和對人性的理解。 顯然,沒有機器可以做到這一點。 更不用說人類世界的未來了。
人工智慧會統治世界嗎?
在經典科幻電影《我,機械人》中,機械人具備了自我進化的能力,蛻變成人類的“機械公敵”,是製造者和被創造者的戰爭。 這恐怕也是很多人對人工智慧未來的擔憂。
我們對機械人想要獲得權力的恐懼主要來自人類特徵在機器上的投射。 對於大多數人來說,人類和智慧生物之間唯一的互動是與其他人類的互動,正因為如此,我們混淆了智慧和人性。 這是乙個錯誤,因為還存在其他形式的智慧,即使在動物領界也是如此。
人類,如倭黑猩猩、黑猩猩、狒狒和其他一些靈長類動物,有乙個複雜且通常等級森嚴的社會組織,每個人的生存(或舒適)取決於其影響物種其他成員的能力(統治只是影響的一種形式)。 我們是群居動物這一事實解釋了為什麼我們將統治慾望與智力聯絡在一起。
除了對統治的渴望之外,我們的許多衝動和情感都是通過進化為人類物種(或基因)的生存而建立起來的,包括好奇心、探索慾望、競爭、服從、與我們的同類交往的慾望、愛、仇恨、掠奪,以及我們對家庭成員、我們的部落、我們的文化的偏好, 我們的國家,沒有它,人、動物或機器也可以變得聰明。我們必須把這個問題說清楚和徹底只有當我們在智慧型機器中明確確立這種願望時,它們才會渴望統治人類。 但是我們為什麼要這樣做呢?
電影《我,機械人》劇照。
人工智慧會被濫用嗎?
霍金在2024年告訴BBC,“人工智慧可能意味著人類的毀滅”,但後來他改變了主意。 像任何傑出的天體物理學家一樣,他的時間尺度以數百萬年或數十億年為單位。 想想看,我們怎麼能這麼聰明地設計出一台超人的智慧型機器,同時又如此愚蠢地給它乙個荒謬的目標呢?
請記住,人工智慧一直是人類開發的一種工具,旨在為人類服務,目的是增強人類的智慧型。
我們認識到的所有造福人類的技術革命都有其陰暗面,每一項技術都會帶來最終得到解決的問題。
為了防止這些濫用行為,我幫助建立了人工智慧夥伴關係(PAI),該組織匯集了大約100名成員,包括大公司、網際網絡巨頭、學術團體、人權組織(國際特赦組織、美國公民自由聯盟、電子前沿、紐約時報)、大學團體和機構。 我們討論道德問題,警告危險並提出建議。 人工智慧是乙個新興領域,其深入發展的後果並不總是可能的,我們必須多思考。
人工智慧會帶來軍事風險嗎?
像其他所有技術一樣,人工智慧可以用來做最好的事情,也可以用來做最壞的事情。 有聲音反對在軍隊中使用人工智慧,主要是致命的自主武器系統,通常也被稱為“殺手機械人”。 相應的保障措施已經確立,大多數軍隊對發起打擊的授權程式都有極其嚴格的規定。 不管是什麼**,決定的來源始終是高階軍官。 我們都知道自動或半自動**已經存在了很長時間,彈道飛彈、巡航飛彈也是如此。 在所有高度致命的自動裝置中,最古老的是地雷。 自2024年以來,一項國際公約一直禁止使用地雷,不是因為它們很聰明,而是因為它們很愚蠢。
那麼,是否會有陷入情報軍備競賽的危險呢?弗拉基公尺爾·普京(Vladimir Putin)曾經說過,“人工智慧的領導者將成為世界的統治者”。 面對可能由人工智慧推動的軍事失控,危險是無比真實的。 避免這些危險的最重要力量來自我們的國際機構,現在比以往任何時候都更需要堅定不移地捍衛現有的保護措施,因為它們受到民粹主義、民族主義和孤立主義的威脅。
你會被人工智慧取代嗎?
我不確定人工智慧革命是否會影響每個人。 與那些可能(部分或完全)系統化和自動化的工作相比,深入從事合格、創新、以關係或人力資源為中心的職位的人更有可能保住自己的工作。 如果我們不通過財政措施糾正存在的問題,那麼人工智慧帶來的收益將無法平均分配,貧富差距將進一步拉大。
自動化已經取代了人類來完成重複或困難的任務,而人類則人工智慧將取代人類從事需要一定程度的感知、推理、決策和行動計畫的工作。 自動駕駛汽車將減少卡車、計程車和乘用車 (VT) 的駕駛員數量,因為它們將更安全。 醫學影象分析系統已經進入放射科醫生的日常工作,使患者更可靠、更便宜。 在這些健康和交通領域,人工智慧將挽救更多生命。
所有職業都將受到技術變革的影響。 有一件事是肯定的:人工智慧及其應用無法與之競爭的東西將變得更有價值。