“讓我們享受乙個漫長的'人工智慧夏天',而不是毫無準備地進入秋天。 ”
《展望東方週刊》,特約撰稿人胡振洲,編輯陳榮雪。
二十六年前,德裔美國神經科學家克里斯多福·科赫(Christopher Koch)與澳大利亞哲學家大衛·查默斯(David Chalmers)打賭。 科赫說,大腦中神經元產生意識的機制將在2023年被發現,查爾默斯說這是不可能的。
當 2023 年過去時,賭注揭曉,哲學家勝過神經學家,大腦中神經元產生意識的機制仍未被發現,但科技界開始更加熱情地討論——AI(人工智慧)會有意識嗎?
從通過資格考試到“創作”藝術,當世界對人工智慧的力量感到興奮時,《機械姬》和《銀翼殺手》等電影中曾經存在的情節似乎正在栩栩如生。
打個響指。 最可怕的是,如果 OpenAI 團隊重來一次,他們可能無法建立 ChatGPT,因為這些人不知道“湧現”是如何產生的。 2023年底,清華大學腦智實驗室首席研究員劉佳在接受鳳凰衛視專訪時表示,就像打了個響指就出來了。
他認為人工智慧正在“湧現”意識,為此,他搬走了被稱為“人工智慧教父”的傑弗里·辛頓(Jeffrey Hinton)。 Jeffrey Hinton在2023年5月接受CNN採訪時表示:“人工智慧正變得比人類更聰明,我想'吹哨'提醒我們,應該認真思考如何防止人工智慧控制人類。 ”
在人工智慧領域,Jeffrey Hinton的成就是顯著的。 他是 2018 年圖靈獎得主,幾乎一生都在從事人工智慧相關研究,擔任谷歌副總裁和工程研究員。 他主要關注神經網路和深度學習,是 AlphaGo(圍棋的 AI 程式)和 ChatGPT 等 AI 程式快速發展的基礎科學,OpenAI 的聯合創始人兼首席科學家 Ilya Sutskev 也是他的學生。
2022 年 2 月,當 Ilya Sutskfo 發帖稱“也許今天的大型神經網路已經產生了意識”時,谷歌 deepmind 的首席科學家 Murray Shanahan 回答說:“從同樣的意義上說,一大片麥田可能看起來有點像義大利麵條。 ”
2023 年 10 月 26 日,《麻省理工科技評論》就此採訪了 Ilya Sutskov,他笑著問道:“你知道玻爾茲曼大腦是什麼嗎? ”
這是乙個以 19 世紀物理學家路德維希·玻爾茲曼 (Ludwig Boltzmann) 命名的量子力學思想實驗,其中宇宙中的隨機熱力學漲落被想象為大腦突然出現和消失的原因。
我覺得現在的語言模型有點像玻爾茲曼的大腦。 當你和它說話時,大腦就會出現,當你這樣說時,大腦就會彈出並消失。 伊利亞·薩茨科夫(Ilya Sutskov)表示,ChatGPT改變了很多人對即將發生的事情的期望,從“永遠不會發生”到“將比你想象的更早發生”。
護城河。 沒有人會不認真對待傑弗里·辛頓(Jeffrey Hinton)的意見。 在美通創始人王維佳看來,ChatGPT對高階相關性的把握能力已經遠遠超越了人類,對世界的理解也遠遠超出了普通人。 他認為,大模型“幻覺”是聯想的能力,這是意識覺醒的證明——正是憑藉聯想的能力,人類發現了萬有引力、相對論和DNA的雙螺旋結構。
大模型的“幻覺”也引起了北京科學院院長、北京大學計算機學院教授黃鐵軍的關注。
在騰訊新聞發起的《20年20人20問》中,黃鐵軍認為,大模型的“錯覺”可能是超越既有知識體系的創新,比如啟發性的文學、藝術、科幻作品,或者是新的見解、新思想、新理論,這些都是知識體系不斷拓展的源泉。 他甚至說,沒有“幻想”,就沒有真正的智慧。
事實上,儘管人們已經探索了意識數千年,但在意識是什麼以及如何確定乙個人或事物是否具有意識方面一直沒有決定性的突破。
1714年,德國哲學家萊布尼茨出版了《單子論》,提到了乙個思想實驗:“必須承認,感知的存在不能僅用機械運動和數值來解釋。 想象乙個我們不知道它是否具有感知能力的機械裝置。 因此,我們把自己拉遠並走進去,我們可以看到機器操作的所有細節,過程,也了解過程背後的機制。 甚至,我們還可以**機器將如何工作。 然而,這些似乎都與機器的感知無關。 觀察到的現象和感知之間似乎總是有一條護城河,它們總是無法相互聯絡。 ”
時至今日,這條“萊布尼茨護城河”仍然矗立在人類面前。
然而,這並不妨礙360集團創始人周弘毅公開斷言:“人工智慧肯定會產生自我意識,留給人類的時間不多了。 ”
2023年3月,他在中國發展高層論壇上表示,目前大語言模型引數可以看作是神經網路在大腦容量中的連線數,人腦至少有100萬億,當大模型引數達到10萬億時,意識就可能自動產生。
2023年10月31日,在杭州雲棲鎮,參觀者參觀了2023雲棲大會“人工智慧+”展館,主題為“計算,價值不可估量”的人工智慧產品及應用(黃宗志攝)。
人群嘲笑。 事實上,這並不是科技界第一次討論人工智慧是否正在覺醒。
我們上一次談論它是在 2022 年 6 月,當時在谷歌工作了七年的研究員布萊克·勒莫因 (Blake Lemoyne) 表示,他發現了乙個令人震驚的秘密——該公司的人工智慧聊天機械人 Lamda 已經覺醒並變得有自我意識,但谷歌正試圖掩蓋它。
為了證明自己不是胡說八道,他在網上曬出了一段長達21頁的聊天記錄,希望大家看到,從阿西莫夫機械人的三定律到中國禪宗案例,拉姆達都給出了語義上的答案。
但他差點成了笑話,遭受了毫不客氣的群體嘲笑。
美國紐約大學(New York University)心理學教授加里·馬庫斯(Gary Marcus)說,他是“胡說八道的高蹺”。
加州大學伯克利分校(University of California, Berkeley)研究自然語言處理模型的教授艾梅德·赫瓦賈(Amed Hewaja)說得更簡短但更直接:“任何真正熟悉這些模型系統的人都不會說這些模型已經醒來的愚蠢事情。 ”
清華大學人工智慧國際治理研究院副院長、人工智慧治理研究中心主任梁錚表示,關於人工智慧是否具有自主意識的爭論,不僅在技術領域具有學術性,也關係到企業合規的基本堅持。
一旦發現人工智慧系統是自主的,就很可能被視為違反了《人工智慧設計道德準則》第二版**的相關規範。 他說。
該規範由電氣和電子工程師協會於2017年發布,指出:“根據一些理論,隨著系統接近並超過一般人工智慧,不可預見或無意的系統行為變得越來越危險和難以糾正。 並非所有的GEI級系統都能夠與人類利益保持一致,因此,隨著這些系統的能力越來越強,應謹慎確定不同系統的執行機制。 ”
風險。 梁錚表示,有時候技術的發展會超出人們期望的框架,在不知不覺中出現與人類利益不一致甚至背道而馳的情況。
例如,“回形針製造者”假說描述了一種場景,即當目標和技術無害時,通用人工智慧對人類構成威脅——假設人工智慧機器的最終目標是製造回形針,儘管目的對人類來說似乎是無害的,但當它利用人類無與倫比的能力將世界上所有的資源都製作成回形針時, 它會對人類造成傷害。
重要的是,不僅要關注大型模型的潛在機會,還要關注風險和缺點。 谷歌首席科學家傑夫·迪恩(Jeff Dean)說。
將人工智慧的價值觀與人類的價值觀保持一致已成為當下的熱門話題。
對此,黃鐵軍表示:“當人類智慧型高於AI智慧型時,AI就是乙個可控的助手,可以被人類訓練成越來越可信的助手; 然而,當超越人類智慧型、各方面都超越人類的AGI(Artificial General Intelligence)出現時,問題就變成了AGI是否信任人類,而不是人類是否相信AGI。 該倡議不站在人類一邊。 ”
2023年3月,全球1000多位技術專家聯合發表了一封題為《暫停大規模人工智慧研究》的公開信。
在呼籲“所有人工智慧實驗室立即暫停訓練比GPT-4更強大的人工智慧系統至少6個月”的公開信中,包括蘋果聯合創始人史蒂夫·沃茲尼亞克、特斯拉和SpaceX老闆埃隆·馬斯克在內的科技巨頭,以及人工智慧領域的頂級專家、圖靈獎獲得者約書亞·本吉奧(Joshua Bengio)寫道:“具有與人類競爭的智慧型的人工智慧系統可能會對社會和人類構成深遠的風險”“讓我們享受乙個漫長的'人工智慧的夏天“,而不是毫無準備地進入秋天。”
大膽地假設,在乙個擁有更智慧型人工智慧的世界裡,人類會怎樣?
以一種可能,以今天的標準來看,它可能很瘋狂,但以明天的標準來看,它不會那麼瘋狂,那就是很多人會選擇成為人工智慧的一部分。 這可能是人類試圖跟上人工智慧的方式。 “起初,只有最大膽、最有冒險精神的人才會嘗試這樣做。 ”
點選下面的標題閱讀這個特殊部分的所有文章。
2024,關於人工智慧的三個問題“特別系列。