人工智慧殲滅論者早已迷失在偽裝成貝葉斯分析的宗教中。 Oxide 的首席技術官在接受 TNS 採訪時表示。
翻譯自 Bryan Cantrill on AI Doomerism: Intelligence Is Not Enough,作者 D**ID Cassel 是三藩市灣區的驕傲居民,二十多年來一直在報道科技新聞。 多年來,他的文章出現在 CNN、MSNBC 和 Wall Street** Interactive 等地方。 當歷史學家回顧我們的時代時,他們看到乙個物種面臨著新技術。 他們將看到新的焦點,有些人甚至會引發對人工智慧可能消滅人類的生存擔憂。
但是,他們可能還記得其他事情。 一名男子站在緬因州波特蘭的舞台上,捍衛人類的榮譽,因為人類擁有人工智慧永遠無法複製的獨特屬性。 正如威廉·福克納曾經說過的那樣,人類不僅能忍受,而且能取得勝利。 這一辯護來自Oxide Computers的聯合創始人兼首席技術官Bryan Cantrill。 在第 11 屆年度“Monktoberfest”開發者大會上,這是乙個“研究社會趨勢和技術的交叉點”的開發者大會,Cantrill 對高度假設的“生存威脅”場景給出了強烈的感覺。 在一次電子郵件採訪中,坎特里爾告訴我們,“我的演講不是針對人工智慧滅絕主義者的。 “他們早已消失在偽裝成貝葉斯分析的宗教中。 ”
在緬因州波特蘭,他告訴聽眾,這次演講是“由一大堆網際網絡垃圾煽動的,我對此感到非常憤怒。
人工智慧究竟將如何消滅人類?坎特里爾駁斥了一些常見的建議場景,因為它們是基於荒謬的,甚至是荒謬的。 (“你不能說電腦程式會控制原子核**。
好吧,但是如果人工智慧以某種方式開發出一種新型生物呢**“我認為這反映了對生物學複雜性的某種誤解。 “如果乙個超級智慧型的人工智慧開發出一種新型的分子奈米技術呢?
我很尷尬地說,我讀了一整本關於奈米技術的書,然後才意識到一切都沒有簡化為實踐。 所有這些實際上都是假設的。 ”
“正如我女兒喜歡說的那樣,每當談到人工智慧接管世界時,'它沒有胳膊或腿。 '”然後,坎特里爾對他認為荒謬的假設做出了更簡短的反應:“哦,我的上帝。 奈米技術又回來了。 ”
坎特里爾很高興地表達了他對消滅人類的人工智慧的懷疑,並指出即使作為乙個假設,它也提出了“數以億計的問題”。 例如,為什麼這是人工智慧的動機?它從**?“正如我女兒喜歡說的那樣,每當談到人工智慧接管世界時,'它沒有胳膊或腿。 '”
坎特里爾詳細闡述,逗樂了觀眾。 “當你想殺死所有人類時,缺乏胳膊和腿變得非常關鍵。 ”
那麼,人工智慧究竟是如何應對人類抵抗的威脅的呢?“老實說,幻想很有趣。 坎特里爾說。 “你能想象如果我們聯合起來對抗電腦程式會發生什麼嗎?“想想看,如果全人類都把精力集中在阻止乙個軟體故障上,那會是什麼樣子。
那太好了!”
根據坎特里爾的說法,人工智慧湮滅的乙個例子是乙個善意的人,他“不情願地支援暫停所有人工智慧——人工智慧是可怕的,我們必須暫停所有人工智慧研究。
今年9月,人工智慧助手公司Lindy的創始人弗洛·克里韋洛(Flo Crivello)在一條推文中表示,“智慧型是世界上最強大的力量。 我們即將向地球上的每個人提供核武器,而無需考慮太多。 Crivello 還認為,“沒有提供反對存在風險的實質性論據”,並嘲笑人工智慧支持者是“不擇手段的人”。
首先,在這種情況下,坎特里爾被謹慎的人冒犯了,他們在Twitter上“將電腦程式等同於核**”。 而這些所謂的嚴肅的人已經走得太遠了,以至於他們拋棄了自己對我們“滅絕概率”的評估——即全人類的徹底毀滅。
我們能不能對我們共同的祖先多一點敬畏?”
但坎特里爾認為,這種“誇大其詞”和毫無根據的假設本身會導致可怕的情況。 例如,暫停人工智慧開發將是“沒有人看到的威權主義”。 必須的。 坎特里爾首先指出,即使“限制電腦程式可以做什麼也是相當可怕的,並且侵犯了許多人認為的自然權利。
正如一張幻燈片所指出的那樣,在這個下坡的斜坡上,“伴隨的言辭往往是令人不安的暴力。 一些認為人工智慧對人類構成生存威脅的人可以展示人類保護性暴力的實際行為。
在坎特里爾看來,認為人類存在生存威脅的信念導致人們說“我們應該控制GPU”。 那些違反GPU國際禁運的人呢?是的,我們應該轟炸他們的資料中心。 事實上,我們應該先發制人地攻擊他們的資料中心。 ”
坎特里爾嘲笑這是一種過度反應,這一切都是“因為電腦程式”。 如果在這場辯論中需要“嚴肅”的反駁,坎特里爾自己也提出了乙個。
請不要轟炸資料中心。 ”
Cantrill的演講題目是“智慧型是不夠的:工程的人性化”。
在這裡,觀眾意識到他們正在聆聽一家剛剛推出新伺服器架構的公司的自豪的首席技術官的演講。 “我想專注於實際執行專案所需的內容。 我最近確實有一些經驗,構建了一些非常大且非常困難的集體工程實踐。 坎特里爾分享了乙個來自現實世界的故事,布置了他們完成的伺服器的**,然後講述了所有恐怖故事中最可怕的反烏托邦的故事:生產。
他們花了數週時間除錯乙個拒絕重置的 CPU,結果發現問題是韌體中的錯誤。
另乙個星期花在網路介面控制器上,該控制器也不會重置。 再一次,他們的商數出了問題——這涉及到他們乙個關鍵電阻器的規格。
甚至有一段時間,他們後來稱之為“資料損壞周”——當損壞開始零星地出現在他們的作業系統啟動映像中時。 (一張幻燈片解釋了這個難以置信的晦澀原因:他們的微處理器是“通過早期引導程式中的對映推測性地載入的,以便搭便車”)。 坎特里爾說,只有孤獨的人知道通過他的直覺去哪裡看。 “正是他們的好奇心促使他們找到了在地表下燃燒的煤火。 ”
重要的是,這些錯誤的共同點是“新穎性”的特性——實際上不是設計成零件的東西,而是當它們組合在一起時出現的東西。 “對於每乙個,都沒有檔案。 事實上,對於其中的幾個人來說,文件是肯定不正確的。 文件可能會誤導您。 痘痘通常是不應該起作用的。
一些超智慧型生物不會提出任何建議。 ”
坎特里爾放了一張幻燈片,上面寫著“僅靠智慧型並不能解決這樣的問題”,這表明他在Oxide的團隊對人類有一些獨特的看法。 “我們解決這些問題的能力與我們作為乙個團隊的集體智慧無關。 他告訴他的聽眾。 “我們必須調動我們性格中的元素。 這不是我們的智力——我們的韌性。 ”
我們的團隊精神。 我們的嚴謹。 我們的樂觀態度。 ”
坎特里爾說,他確信你們(人類)工程師也會這樣做。
他強調了演講的要點。 “這些都是人類的特質。 當我們招聘時,我們不僅考慮智力,還尋求協作和團隊合作,最重要的是,共同的價值觀。 “這種對智力的迷戀來自那些老實說不怎麼出門的人。 ”
他們需要做更多動手的事情,比如照顧孩子、遠足。
坎特里爾提出了乙個深刻的真理,他說:“智力是偉大的;但這還不是全部。 這裡有人性。 ”
需要澄清的是,人工智慧對工程師仍然有用,但它缺乏三個關鍵屬性:意志力、慾望和驅動力。 “當我們假裝他們可以自主設計時,我們正在傷害我們自己的人性。 坎特里爾說。
他們不能。 我們人類可以。
雖然坎特里爾認為人類滅絕的風險太小,不值得關注,但他承認存在真正的風險。 但“壞訊息,”坎特里爾說。 “這是你已經知道的風險。 這是種族主義。 這是經濟失業。 這是階級——這是我們作為人類從永恆以來一直在處理的所有問題。 ”
人工智慧是這些問題的力量倍增器,我們需要非常非常認真地對待它。 因為人工智慧將被濫用——而且它已經被濫用了。 人工智慧倫理非常重要。 ”
坎特里爾指出,這裡有一線希望。 對於核能、生物甚至自動駕駛汽車等,已經有現成的法律法規和完整的監管體系。 “讓我們執行它們。 坎特里爾說。 “利用你的恐懼來推動執法法規。 ”
但這使得反對他所認為的過度炒作的“人工智慧悲觀主義”變得更加重要。 正如坎特里爾在最近的一篇部落格文章中所說,“對人工智慧將自主毀滅人類的恐懼比胡說八道更糟糕,因為它們讓我們忽視了人工智慧可能被濫用的非常真實的可能性。 在演講中,坎特里爾甚至暗示,人們暗中更喜歡思考乙個誇張的反烏托邦,“無論如何,我們都會滅絕。 所以像這樣,'我們都會追隨奇點。 我們實際上並不關心這個世界。 '”
我們中的一些人確實關心這個星球、這個生命和這個世界。 這就是我們生活的世界。
我們不應該讓恐懼——未具體的、非具體的恐懼——阻止我們讓這個世界變得更美好。 ”