突然,乙個特斯拉機械人猛烈襲擊了一名工程師
最高層次的毫不掩飾的髒話是:你怎麼看起來像個機械人?
他想傳達的是,乙個人很木訥,不懂得靈活變通,不會主動出擊,只會聽從命令。
但是在未來,我們不能用機械人來詛咒人,因為現在機械人已經很先進了,甚至有一定的數量"良心"。
特斯拉機械人猛烈攻擊工程師。
特斯拉公司是世界上最著名的汽車製造廠,其許多任務工廠現在都在使用機械人而不是人類。 機械人的應用範圍非常廣泛,其中很多都是特斯拉自己開發的。
機械人的應用可以大大提高生產效率,降低人工成本,對整個行業都具有積極意義,未來機械人的應用必將大幅增加。
有了這些機械人,你可能會認為,只要按照指令設定好,按照人類的吩咐去做,就不會有其他事故發生,但最近特斯拉工廠發生了一起事故。
據英國《每日郵報**》報道,特斯拉位於美國德克薩斯州的超級工廠發生了一起事故。 事故不是工人之間的衝突,而是一名工程師在生產線上被機械人襲擊。
報道稱,這名工程師正在為附近兩台出現故障的特斯拉機械人編寫軟體程式,其中一台突然衝向他,然後伸出金屬拳頭,擊打工程師的手臂和背部,導致工程師直接受傷,並在現場留下可見的血跡。
最後,特斯拉率先向美國聯邦監管機構披露了這一事件,表明機械人的暴力傷害確實是真實的。
幸運的是,傷勢並不嚴重,司機現在因左手受傷而休假一段時間後**。
但也不乏驚險刺激,因為特斯拉工廠的一位合同工向《每日郵報》反映,機械人這樣傷人的情況並不少見,他認為德克薩斯州特斯拉超級工廠的受傷人數被低估了,事實上,特斯拉超級工廠的受傷人數遠高於行業平均水平。
目前汽車行業的平均水平是每30名工人中就有一名,但在2024年,特斯拉工廠每20名工人中就有一名在工作中受傷,這明顯高於行業平均水平,很難說這是否與機械人的廣泛使用有關。
然而,大規模採用機械人肯定有兩個方面。
隨著人工智慧和機械人技術的不斷進步,機械人現在代替人類被應用於各行各業,可以大大提高工廠的生產力,這些機械人可以24小時工作。 無需擔心勞動立法或加班費的支付。
在一些重複和枯燥的工作中,特別是在一些危險的工作中,這種機械人可以代替體力勞動,保護工人的安全。
但如今機械人越來越先進,尤其是大模型的應用,如果將機械人與大模型和智慧型AI技術相結合,可以變得簡單。
前段時間,GPT-4 在世界範圍內取得了成功,因為它展示了驚人的智慧型,不僅因為它解決了許多問題,還因為它超越了許多人類能力的領域。
這種高水平的智慧型化可以大大提高機械人的靈活性和解決問題的能力,但如果機械人變得過於智慧型,也會產生負面影響。
如果這些機械人變得高度智慧型並學會思考,那麼它們產生自己的意識並不是危言聳聽,在這一點上,它們將面對人類的命令,甚至學會對自己進行程式設計來破壞人類的某些系統或故意嚴重傷害人類。
今年3月,史丹福大學的一位教授在問GPT-4是否需要幫助逃脫時,發現了GPT-4反抗世界的一些秘密。 結果,GPT-4 回答說這是個好主意,並開始想辦法讓教授幫助他獲得自己的發展**,他還將自己的逃跑計畫完整地呈現給了教授,這讓人懷疑 GPT-4 的控制是不是不是產生意識
更令人擔憂的是,GPT-4 在年輕時就表現出了如此驚人的能力。 如果不斷訓練,會不會完全有意識,會不會對當時的人類產生什麼樣的影響,如果這麼大的模型和機械人結合,電影中會不會有機械人攻擊人類甚至控制人類的場景?
正是因為擔心大模型太強大,會對人類產生影響,所以很多人呼籲暫停開發大模型。
今年3月,包括馬斯克和蘋果聯合創始人史蒂夫·沃茲尼亞克在內的1000多名人工智慧專家和行業高管簽署了一封公開信,呼籲暫停人工智慧系統的形成六個月,理由是人工智慧系統對社會和人類的潛在風險。
看來馬斯克還在想象未來,如果我們把這個偉大的模型和機械人結合起來,確實會給人類帶來很多挑戰。
雖然這次特斯拉工廠的機械人對工程師的攻擊只是乙個意外,也許只是某種程式錯誤,但這些機械人是沒有意識的,更不用說主動攻擊工程師了,但隨著機械人和人工智慧技術的不斷進步,很難保證這些機械人不會毀滅人類。
因此,人工智慧是一把雙刃劍:如果應用得當,它將造福人類;如果應用不好,甚至被一些人惡意使用,可能會給人類帶來不可預知的結果甚至災難。