1.1.知識表示和知識推理。
1.2.邏輯。
1.3.機器學習。
1.4.自然語言處理。
1.5.搜尋。
1.6.規劃。
1.7.力學。
1.8.倫理學。
2.1. gofai
2.1.1.很好的老式人工智慧。
2.2.荷里活版的人工智慧。
2.2.1.人們夢寐以求使用技術的大多數東西都受到電影、電視節目和書籍中影象的啟發。
2.2.2.這種人工智慧能夠控制機械人管家,理論上獲得意識並最終控制**,也可能成為現實生活中的終結者阿諾德施瓦辛格。
2.3.在計算機科學界,早在20世紀90年代,人們就已經放棄了對廣義人工智慧的研究。
2.4.廣義人工智慧是我們想要的,我們期望的,我們想象的,這是乙個夢想。
3.1.我們真正擁有的,是現實。
3.2.這是純粹的數學。
3.3.它不像gofai那樣令人興奮,但它非常高效,我們可以用它做很多有趣的事情。
3.4.機器學習是人工智慧的一種流行形式,它不是gofai
3.4.1.機器學習是狹義的人工智慧。
4.1.計算新聞學。
4.1.1. computational jour nalism
4.2.演算法問責制報告。
4.2.1. algorithmic accountability reporting
4.3.一門在資料中挖掘故事並使用資料來講述故事的學科。
4.4.許多人一遍又一遍地談論技術的光明未來,卻發現數字世界複製了現實世界的不平等。
4.5.人們談論數字技術的方式與數字技術的實際功能並不同步。
4.6.網路空間這個新的、未知的領域是我們用來讓世界變得更美好的東西。
4.7.網際網絡已成為新的公共領域。
4.7.1.1991年9月,蒂姆·伯納斯-李(Tim Berners-Lee)在歐洲核子研究中心(CERN)的粒子物理實驗室(Particle Physics Laboratory)創立了世界上第乙個**。
4.7.2.線上騷擾比以往任何時候都多。
5.1.聽說乙個案件,寫一篇聳人聽聞的報道,並呼籲社會關注的舊形式的新聞很快就會過時。
5.2.記者的工作方式是讓那些“有權決定”的人對他們的決定負責。
5.3.資料記者。
5.3.1.一種非常新型的記者。
5.3.2.資料記者的工作不是整天採訪“大資料科學家”
5.3.3.這是直接從資料中挖掘的故事。
5.4.布魯薩德。
5.4.1.本書的作者。
5.4.2.布魯薩德是乙個“用資料發現真相”的人。
5.4.3.資料記者布魯薩德(Brussard)最關心的是追究已經取代人類做出決策的“演算法”的責任。
5.4.4.人們過於相信演算法。
5.4.5.演算法都是人寫的,人會犯錯,演算法也會犯錯。
5.4.6.實際上,計算機沒有改變任何東西。
5.4.6.1.社會還是這個社會,電腦並沒有解決我們的社會問題。
5.4.7.對技術將拯救世界的說法持懷疑態度。
5.4.8.只有當技術解決特定問題時,它才是正確的答案。
6.1.歸根結底,你用電腦所做的一切都是數學。
6.1.1.如何同時使用數學和科學來做事是有基本限制的。
6.1.2.您可以做什麼以及應該使用技術做什麼有一些基本限制。
6.1.3.現在是時候就何時以及為何使用技術做出更好、更深思熟慮的決定了。
6.2.了解技術的邊界,就是了解人類的成就和人類岔路口的前沿。
6.2.1.那個前緣更像是懸崖,如果你再往前走一步,那將是非常危險的。
6.3.一些演算法將越來越多地用於為人們做出決策。
6.4.有時,您需要編寫 ** 來檢視這些演算法是否合適。
6.5.密切關注技術不佳或資料缺失的情況,並隨時收到警報。
6.6.有時候即使機器有問題,我們也會認為是我們自己的問題,不會認為是那些電腦程式中幾千行的問題。
6.7.如果有問題,通常是機器有問題。
6.7.1.可能是機器設計得太差或沒有經過嚴格測試。
6.7.2.使用了廉價的硬體。
6.7.3.機器對實際使用者如何使用系統存在深刻的誤解。
6.8.將計算機技術應用於生活各個方面的集體熱情催生了大量劣質技術。
6.8.1.沒有人仔細檢查並確保每個機構目錄中的所有聯絡資訊都準確無誤,因此與人們取得聯絡比以往任何時候都更難。
6.9.當你只有一把錘子時,一切看起來都像釘子。
6.9.1.電腦是我們手中的錘子,是時候停下來了。
6.9.2.不要蒙著眼睛,一頭紮進數字未來。
6.10.我們可以學習如何處理技術的下游影響,這樣我們就不會在複雜的社會系統中犯無意的錯誤。
6.11.大膽地對不必要的技術說“不”,這樣我們才能生活得更好,聯絡更緊密,更真正地享受技術帶給我們的好處。
7.1. technochauvinism
7.2.自 20 世紀 50 年代以來,數字技術一直是科學和政治世界中非常普遍的一部分,並在 80 年代進入人們的日常生活。
7.3.認為技術是解決所有問題的方法。
7.3.1.技術是一切的答案。
7.4.人們認為,計算機可以將所有問題提煉成數學問題,因此比人類更“客觀”或“公正”
7.5.技術沙文主義者的腦海中經常有其他類似的想法。
7.5.1.安·蘭德的精英主義。
7.5.2.技術自由主義政治哲學。
7.6.讚揚言論自由,同時對網路騷擾問題視而不見。
7.7.人們相信,如果人類更多地使用計算機並正確使用它們,社會問題就會消失,數字烏托邦就會被創造出來。
7.7.1.事實並非如此。 從來沒有一種新技術能夠阻止我們擺脫與人性相關的根本問題,而且將來也不太可能出現。
7.8.聰明而善意的人,當他們對使用計算機進行決策的陷阱視而不見,或者狂熱地支援使用計算機做任何事情,包括不適合計算機的事情時,他們就會成為技術沙文主義者。
8.1.如果好訊息太多,很容易產生不切實際的希望。
8.2.如果不切實際的希望過於強烈,它們很容易成為神話。
8.3.可以預見,在不久的將來不會出現任何人工智慧引起的失業。
8.4.許多被認為被人工智慧取代的工作根本無法被取代。
8.4.1.我們可能低估了人類的智慧。
8.5.普通大眾不僅低估了人類的智慧型,而且高估了人工智慧。
8.5.1.《西部世界》中的機械人與高科技公司現在正在開發的那種人工智慧完全不同。
8.5.2.生活 30“書中看到的關於人工智慧未來的假設,都只是物理學家的純理論假設。
8.6.人們過分依賴計算機演算法,這反過來又帶來了一系列的社會問題。
8.7.現在真正的人工智慧實際上應該被稱為“人工智慧”。
8.8.如果我們想單靠計算技術來解決複雜的社會問題,那麼我們所依賴的“人工智慧”根本就不是智慧型的。
8.8.1.計算機不關心自己或你能做什麼。
8.8.2.它盡最大努力執行指令,然後等待下乙個指令。
8.8.3.它沒有意識,也沒有靈魂。
2月** 動態激勵計畫