在計算機科學中,人工智能(AI)有時被稱為機器智能,是由機器展示的智能,與人類和動物展示的自然智能形成對比。通俗地說,“人工智能”一詞用來描述模仿人類與其他人類思維相關聯的“認知”功能的機器,如“學習”和“解決問題”。
隨著機器變得越來越有能力,被認為需要“智能”的任務通常會從人工智能的定義中刪除,這種現象被稱為人工智能效應。 特斯勒定理(Tesler’s Theorem)中的一句妙語說:“人工智能是尚未完成的事情?!崩?,光學字符識別經常被排除在人工智能之外,已經成為一種常規技術?,F代機器能力通常被歸類為人工智能,包括成功理解人類語言, 在戰略游戲系統(如象棋和圍棋)中處于最高水平的競爭, 自主操作汽車、內容傳遞網絡中的智能路由以及軍事模擬。
人工智能可以分為三種不同類型的系統:分析型、人類啟發型和人性化人工智能。分析型人工智能只有與認知智能一致的特征;生成對世界的認知表示,并利用基于過去經驗的學習來為未來的決策提供信息。人類啟發的人工智能包含認知和情商的元素;除了認知因素之外,還要理解人類情感,并在決策中考慮它們。人性化人工智能顯示了所有類型能力(即認知、情感和社會智能)的特征,能夠自我意識,并在與他人的互動中自我意識。
人工智能于1956年作為一門學術學科創立,此后幾年經歷了幾次樂觀浪潮, 接著是失望和資金損失(被稱為“人工智能冬天”), 接著是新的方法、成功和新的資金。 在其歷史的大部分時間里,人工智能研究一直被劃分為許多子領域,這些子領域之間往往無法相互溝通。這些子領域是基于技術考慮的,如特定目標(如“機器人學”或“機器學習”), 特定工具的使用(“邏輯”或人工神經網絡),或深刻的哲學差異。 子領域也基于社會因素(特定機構或特定研究人員的工作)。
人工智能研究的傳統問題(或目標)包括推理、知識表示、規劃、學習、自然語言處理、感知以及移動和操縱對象的能力。 一般智力是該領域的長期目標之一。 方法包括統計方法、計算智能和傳統的符號人工智能。人工智能中使用了許多工具,包括搜索和數學優化、人工神經網絡以及基于統計、概率和經濟學的方法。人工智能領域借鑒了計算機科學、信息工程、數學、心理學、語言學、哲學和許多其他領域。
這個領域建立在人類智能“可以被如此精確地描述,以至于可以制造一臺機器來模擬它”的主張之上。這引發了關于創造具有類人智能的人工生命的思想本質和倫理道德的哲學爭論,這些問題自古以來就被神話、小說和哲學所探索。有些人還認為人工智能如果發展勢頭不減,將對人類構成威脅。其他人認為人工智能不同于以前的技術革命,它會帶來大規模失業的風險。
在二十一世紀,隨著計算機能力、大量數據和理論理解的同步發展,人工智能技術經歷了一次復興;人工智能技術已經成為技術產業的重要組成部分,有助于解決計算機科學、軟件工程和運籌學中許多具有挑戰性的問題。
歷史
Talos,一個具有人工智能的古老神話自動機
有思維能力的人造人在古代作為講故事的工具出現, 在小說中也很常見,如瑪麗·雪萊的《弗蘭肯斯坦》或卡雷爾·切克的《機器人》(Mary Shelley’s Frankenstein or Karel ?apek’s R.U.R. (Rossum’s Universal Robots))。這些角色和他們的命運引發了許多現在人工智能倫理學中討論的相同問題。
對機械或“形式”推理的研究始于古代的哲學家和數學家。對數學邏輯的研究直接導致了艾倫·圖靈(Alan Turing)的計算理論,該理論認為,一臺機器通過將簡單到“0”和“1”的符號混在一起,可以模擬任何可以想象的數學推導行為。數字計算機可以模擬任何形式推理過程的這一見解被稱為丘奇-圖靈(Church–Turing)論題。隨著神經生物學、信息論和控制論的同時發現,這使得研究人員考慮建立電子大腦的可能性。圖靈提出,“如果一個人不能區分機器和人的反應,機器可以被認為是“智能的”?,F在公認為人工智能的第一項工作是麥卡盧和皮茨(McCullouch and Pitts)1943年為圖靈完成的“人工神經元”所進行的正式設計。
人工智能研究領域誕生于1956年達特茅斯學院(Dartmouth College)的一個研討會上。與會者艾倫·紐厄爾(Attendees Allen Newell(CMU))、希爾伯特·西蒙(Herbert Simon (CMU))、約翰·麥卡錫(John McCarthy (MIT))、馬文·明斯基(Marvin Minsky (MIT))和阿瑟·塞繆爾(Arthur Samuel (IBM))成為人工智能研究的創始人和領導者。他們和他們的學生制作了被媒體描述為“驚人(astonishing)”的程序:計算機正在學習跳棋策略(約1954年)(據報道,到1959年,計算機的水平已經超過了人類的平均水平),解決代數中的字問題,證明邏輯定理(Logic Theorist,第一次運行約1956年)和說英語。到20世紀60年代中期,美國的研究得到了國防部的大量資助,世界各地都建立了實驗室。人工智能的創始人對未來持樂觀態度:希爾伯特·西蒙預測,“機器將能夠在20年內完成人類能夠完成的任何工作”。馬文·明斯基同意了,寫道,“一代人之內……創造“人工智能”的問題將得到實質性解決”。
他們沒有意識到剩下的一些任務的困難。1974年,為了回應詹姆斯·萊特希爾(James Lighthill)爵士的批評和美國國會的持續施壓,要求為更有成效的項目提供資金,美國和英國政府都切斷了人工智能的探索性研究,因而進展緩慢。接下來的幾年將被稱為“人工智能冬天”,這是一個人工智能項目很難獲得資金的時期。
20世紀80年代初,人工智能研究因專家系統的商業成功而復興,專家系統是模擬人類專家知識和分析技能的人工智能程序的一種形式。到1985年,人工智能市場規模已經超過10億美元。與此同時,日本的第五代計算機項目激勵美國和英國政府恢復對學術研究的資助。然而,從1987年利普機器市場的崩潰開始,人工智能再次聲名狼藉,第二次更持久的中斷開始了。
在20世紀90年代末和21世紀初,人工智能開始被用于物流、數據挖掘、醫學診斷等領域。這一成功歸功于計算能力的提高(見摩爾定律),研究者對人工智能解決特定問題產生了更大重視;人工智能與其他領域(如統計學、經濟學和數學)之間也產生了新聯系;且研究人員對數學方法和科學標準也有了新的共識。深藍(Deep Blue)于1997年5月11日成為第一個擊敗衛冕世界象棋冠軍加里·卡斯帕羅夫(Garry Kasparov)的計算機象棋系統。
2011年,IBM的問答系統沃森(Watson),在“危險邊緣”(Jeopardy)智力競賽節目中以明顯的優勢,打敗了兩個偉大的節目冠軍,布拉德·魯特和肯·詹寧斯(Brad Rutter and Ken Jennings)。更快的計算機、算法的改進和對大量數據的訪問使得機器學習和感知能力有了進步;2012年左右,渴求數據的深度學習方法開始主導精度基準。Kinect為Xbox 360和Xbox One提供了一個3D身體運動界面,像智能手機中的智能個人助理一樣,它使用了通過長時間人工智能研究中產生的算法。2016年3月,阿爾法圍棋(AlphaGo)在與圍棋冠軍李世石 (Lee Sedol)的一場比賽中,贏了5局圍棋中的4局,成為第一個無障礙擊敗職業圍棋選手的電腦圍棋系統。在2017年圍棋未來峰會上,阿爾法圍棋(AlphaGo)與柯杰(Ke Jie)贏得了三場比賽,柯杰當時連續兩年蟬聯世界第一。這標志著人工智能發展的一個重要里程碑的完成,因為圍棋是一種極其復雜的游戲,比國際象棋更復雜。
彭博社(Bloomberg)的杰克·克拉克(Jack Clark)稱,2015年是人工智能的里程碑年,谷歌內部使用人工智能的軟件項目數量從2012年的“零星使用”增加到2700多個項目??死诉€提供了事實數據,表明自2011年以來,圖像處理任務的錯誤率大幅下降。 他將此歸因于云計算基礎設施的興起以及研究工具和數據集的增加,使得負擔得起的神經網絡增多。其他被引用的例子包括微軟開發的Skype系統,它可以自動從一種語言翻譯成另一種語言,以及Facebook的系統,它可以向盲人描述圖像。在2017年的一項調查中,五分之一的公司報告稱他們“將人工智能納入了一些產品或流程”。 大約在2016年,中國大幅增加了政府資助;鑒于其大量的數據供應和快速增長的研究成果,一些觀察人士認為,中國可能成為一個“人工智能超級大國”。
定義
計算機科學將人工智能研究定義為對“智能代理”的研究:任何感知其環境并采取最優行動使其有機會成功實現目標的設備。 一個更詳細的定義將人工智能描述為“一個可以正確解釋外部數據,從這些數據中學習,并利用這些學習通過靈活的適應提升實現特定目標和任務的能力的系統?!?/p>
基礎
一個典型的人工智能會分析它所處的環境,并采取行動最大化它成功的機會。人工智能的一個預期效用函數(或目標)可以很簡單(“如果人工智能贏了圍棋,則為1,否則為0”),也可以很復雜(“在數學上做類似于過去成功的動作”)。目標可以明確定義,也可以歸納。如果人工智能是為“強化學習”而設計的,其目標可以通過獎勵某些類型的行為或懲罰其他類型的行為來暗示。 或者,進化系統可以通過使用“適應度函數”變異并優先復制高分人工智能系統來誘導目標,類似于動物如何進化為天生渴望某些目標,例如尋找食物。 一些人工智能系統,例如最近鄰系統,不是通過類比推理,這些系統通常沒有給定目標,除非目標隱含在它們的訓練數據中。如果非目標系統被設計成一個其“目標”是成功完成其狹窄分類任務的系統,這樣的系統仍然可以作為基準。
人工智能通常圍繞算法的使用展開。算法是一組機械計算機可以執行的明確指令。 復雜的算法通常建立在其他更簡單的算法之上。下面是在井字游戲中一個簡單的算法示例(第一個玩家的最優玩法):
- 如果有人有“威脅”(也就是說,連續兩個),選擇剩下的方塊。否則下一條,
- 如果一個動作“分叉”同時造成兩個威脅,那么就執行這個動作。否則下一條,
- 如果中間的正方形是空的,就選擇它。否則下一條,
- 如果你的對手已經占領了一個角落,那就占領對面的角落。否則下一條,
- 如果有空的角落,就選擇它。否則,
- 選擇任何空的正方形。
許多人工智能算法能夠從數據中學習;他們可以通過學習新的啟發式(策略或“經驗法則”,這些在過去都很有效)來增強自己,或者自己編寫其他算法。下面描述的一些“學習者”,包括貝葉斯網絡、決策樹和最近鄰,理論上可以(給定無限的數據、時間和記憶)學習近似的任何函數,包括最能描述世界的數學函數組合。因此,這些學習者可以通過考慮每一個可能的假設并將其與數據相匹配來獲得所有可能的知識。實際上,幾乎不可能考慮每一種可能性,因為存在“組合爆炸”現象,即解決一個問題所需的時間呈指數級增長。人工智能的許多研究都涉及到如何識別和避免考慮各種不太可能受益的可能性。例如,當查看地圖并尋找東部從丹佛到紐約的最短駕駛路線時,在大多數情況下,人們可以跳過查看穿過舊金山或其他遠離西部地區的任何路徑;因此,如果每一條可能的路線都必須依次考慮的話,使用像A*這樣的尋路算法的人工智能可以避免組合爆炸。
人工智能最早的(也是最容易理解的)方法是象征主義(如形式邏輯):“如果一個健康的成年人發燒了,那么他們可能得了流感”。第二種更普遍的方法是貝葉斯(Bayesian)推斷:“如果當前患者發燒,就以這樣那樣的方式調整他們患流感的概率”。第三種主要方法,在日常商業人工智能應用中非常流行,如SVM和最近鄰:“在檢查了已知的過去病人的記錄后,這些病人的體溫、癥狀、年齡和其他因素與現在的病人大部分匹配,其中有10%的病人最終被證明患有流感”。第四種方法更難直觀理解,但受到大腦機器工作方式的啟發:人工神經網絡方法使用人工“神經元”,通過將自身與所需輸出進行比較并改變內部神經元之間的連接強度來“強化”似乎有用的連接,從而進行學習。這四種主要方法可以相互重疊,也可以與進化系統重疊;例如,神經網絡可以學會做推論、歸納和類比。一些系統隱式或顯式地使用這些方法中的多種以及許多其他人工智能和非人工智能算法;最佳的解決方法通常因問題而異。藍線可能是由于隨機噪聲而過度擬合線性函數的示例
學習算法的基礎是,過去運行良好的策略、算法和推理在未來可能會繼續運行良好。這些推論是顯而易見的,比如“在過去的10000天里,太陽每天早上都會升起,明天早上也可能會升起”。它們可能會有細微差別,比如“X%的家族在地理上有不同顏色的物種,所以存在未被發現的黑天鵝的可能性是Y%。學習算法也基于“奧卡姆剃刀(Occam’s razor)”:解釋數據的最簡單的理論是最有可能的。因此,要想成功,學習者必須被設計成傾向簡單的理論而不是復雜的理論,除非復雜的理論可以被證明比簡單理論要好得多。建立在一個錯誤的、過于復雜的理論上,這種理論被不公平地劃分來適應所有過去的訓練數據,這就是所謂的過度擬合。許多系統試圖通過根據理論與數據的吻合程度獎勵理論來減少過度擬合,但是根據理論的復雜程度懲罰理論。除了經典的過度訓練,學習者也可能因“聽錯了課”而失望。一個玩具例子是,一個只在棕色馬和黑貓圖片上訓練的圖像分類器可能會得出結論,所有棕色斑點都可能是馬。一個現實世界的例子是,與人類不同,當前的圖像分類器不能確定圖像成分之間的空間關系;相反,他們學習抽象的像素模式,而這些模式是人類遺忘的,但是與某些類型的真實物體的圖像是線性相關。在合法圖像上稍微疊加這樣的圖案會導致系統錯誤分類的“敵對”圖像。自動駕駛汽車系統可以使用神經網絡來確定圖像的哪些部分似乎與行人的先前訓練圖像匹配,然后將這些區域建模為緩慢移動但有些不可預測的長方體且必須避免碰撞
與人類相比,現有人工智能缺乏人類“常識推理”的幾個特征;最值得注意的是,人類對于諸如空間、時間和物理交互等“樸素物理”有強大的推理機制。這使得即使是小孩子也能很容易地做出推論,比如“如果我把這支筆從桌子上滾下來,它就會掉到地板上”。人類也有一個強大的“民間心理學”機制,可以幫助他們解釋自然語言句子,比如“市議會議員拒絕示威者的許可,因為他們提倡暴力”。(一個普通的人工智能很難推斷是議員還是示威者被指控鼓吹暴力。)這種“常識”的缺乏意味著人工智能經常會犯與人類不同的錯誤,其方式似乎令人費解。例如,現有的自動駕駛汽車不能像人類那樣精確地推理行人的位置和意圖,而是必須使用非人類的推理模式來避免事故。
問題
人工智能的總體研究目標是創造允許計算機和機器以智能方式運行的技術。模擬(或創造)智力的一般問題已被分解成幾個子問題。這些由研究人員期望智能系統顯示的特定特征或能力組成。下面描述的特征是最受關注的。
推理,解決問題
早期研究人員開發了模擬逐步推理的算法,人類在解決謎題或進行邏輯推理時使用這些算法。到20世紀80年代末和90年代,人工智能研究利用概率和經濟學的概念,已經發展出處理不確定或不完整信息的方法。
事實證明,這些算法不足以解決大型推理問題,因為它們經歷了“組合爆炸”:隨著問題變大,它們呈指數級變慢。 事實上,即使人類也很少使用早期人工智能研究能夠模擬的逐步演繹。他們用快速直觀的判斷來解決大部分問題。
知識表達
知識表示和知識工程是經典人工智能研究的核心。一些“專家系統”試圖收集專家在某個狹窄領域擁有的顯性知識。此外,一些項目試圖將普通人所知的“常識”收集到一個包含大量世界知識的數據庫中。綜合常識知識庫包含的內容包括:對象、屬性、類別和對象之間的關系;情況、事件、狀態和時間;原因和影響;關于知識的知識(我們所知道的關于別人所知道的);和許多其他研究較少的領域?!按嬖凇钡谋硎臼且粋€本體:一組正式描述的對象、關系、概念和屬性,以便軟件代理可以解釋它們。這些語義被捕獲為描述邏輯概念、角色和個體,并且通常在網絡本體語言中實現為類、屬性和個體。最一般的本體被稱為高級本體,它試圖通過充當領域本體之間的中介來為所有其他知識提供基礎,所述領域本體涵蓋關于特定知識領域(感興趣的領域或關注的領域)的特定知識。這種形式知識表示可用于基于內容的索引和檢索、場景解釋、臨床決策支持、知識發現(從大型數據庫中挖掘“有趣的”和可操作的推理)以及其他領域。本體將知識表示為域內的一組概念以及這些概念之間的關系
知識表示中最困難的問題包括:默認推理和資格問題人們知道的許多事情采取“工作假設”的形式。例如,如果一只鳥出現在談話中,人們通常會想象一只拳頭大小、會唱歌、會飛的動物。對于所有的鳥來說,這些都不是真的。約翰·麥卡錫(John McCarthy)在1969年將這個問題確定為資格問題:對于人工智能研究人員愿意代表的任何常識性規則,都有大量的例外。按照抽象邏輯的要求,幾乎沒有什么是簡單的真或假。人工智能研究已經探索了許多解決這個問題的方法。 常識知識的廣度普通人知道的原子事實數量很大。試圖建立完整的常識性知識庫(例如Cyc)的研究項目需要大量費力的本體論工程——它們必須一次用手建立一個復雜的概念。一些常識知識的亞符號形式人們所知道的大部分并不是他們可以口頭表達的“事實”或“陳述”。例如,象棋大師會避開特定的落棋位置,因為它“感覺太暴露”,或者只要藝術評論家看一眼雕像,就能發現它是贗品。這些是人類大腦中無意識和亞符號的直覺或傾向。像這樣的知識為象征性的、有意識的知識提供信息、支持和背景。如同亞符號推理的相關問題一樣,人們希望情境人工智能、計算智能或統計人工智能將提供表示這種知識的方法。
規劃
分層控制系統是一種控制系統形式,其中一組設備和管理軟件以層次結構排列
智能代理必須能夠設定目標并實現它們。他們需要一種方法來想象未來——一種可以代表世界的狀態,并且能夠預測他們的行為將如何改變未來——并且能夠做出最大化可用選擇的效用(或“價值”)的選擇。
在經典的規劃問題中,代理可以假設它是世界上唯一起作用的系統,允許代理確定其行為的后果。然而,如果代理不是唯一的參與者,那么它要求代理能夠在不確定性下推理。這就需要一個不僅能夠評估其環境并做出預測,還能夠評估其預測并根據其評估進行調整的代理。
多智能體規劃利用許多智能體的合作和競爭來實現給定的目標。進化算法和群體智能均使用這樣的緊急行為。
學習
機器學習(Machine learning)是人工智能研究領域自創立以來的一個基本概念,是對通過經驗進行自動改進的計算機算法的研究。
無監督學習是在輸入流中找到模式的能力,而不需要人類先標記輸入。監督學習包括分類和數值回歸,這兩種方法需要先人工標記輸入數據。分類是指在程序從幾個類別中看到一些例子之后,確定某樣東西屬于什么類別?;貧w是指試圖產生一個函數來描述輸入和輸出之間的關系,并預測輸出應該如何隨著輸入的變化而變化。分類器和回歸學習者都可以被視為試圖學習未知(可能是隱含)函數的“函數逼近者”;例如,垃圾郵件分類器可以看作是學習一個函數,該函數將電子郵件的文本映射到“垃圾郵件”或“非垃圾郵件”這兩種類別中的一種。計算學習理論可以通過計算復雜性、樣本復雜性(需要多少數據)或其他優化概念來評估學習者。在強化學習中, 代理人因反應好而得到獎勵,因反應差而受到懲罰。代理使用這一系列的獎勵和懲罰來形成一個在其問題空間中進行操作的策略。
自然語言處理
解析樹根據某種形式語法表示句子的句法結構
自然語言處理(NLP)賦予機器閱讀和理解人類語言的能力。一個足夠強大的自然語言處理系統將支持自然語言用戶界面和直接從人類編寫的資源中獲取知識,如新聞專線文本。自然語言處理的一些直接應用包括信息檢索、文本挖掘、問答 和機器翻譯。許多當前的方法使用單詞共現頻率來構建文本的句法表示。搜索的“關鍵詞識別”策略是流行的、可擴展的,但是是愚蠢的;對“dog”的搜索查詢可能只匹配文字單詞“dog”的文檔,而不匹配單詞“poodle”的文檔?!霸~匯相似性”策略使用諸如“意外”等詞來評估文檔的情感?,F代統計自然語言處理方法可以將所有這些策略以及其他策略結合起來,并且通常在頁面或段落級別上達到可接受的準確性,但是仍然缺乏對孤立句子進行良好分類所需要的語義理解能力。除了編碼語義常識知識的困難之外,現有的語義NLP有時擴展性太差,在業務應用中不可行。除了語義NLP之外,“敘事”NLP的最終目標是體現對常識推理的全面理解。
感知
特征檢測(如圖:邊緣檢測)幫助AI從原始數據中構成信息抽象結構
機器感知利用傳感器(如攝像機(可見光譜或紅外)、麥克風、無線信號和主動激光雷達、聲納、雷達和觸覺傳感器)的輸入來推斷世界各方面的能力。應用包括語音識別,面部識別和物體識別。計算機視覺是分析視覺輸入的能力,這種輸入通常是模糊的;一個50米高的巨型行人可能會產生與附近正常大小的行人完全相同的像素,這就要求人工智能判斷不同解釋的相對可能性和合理性,例如通過使用它的“對象模型”來評估50米高的行人不存在。
運動和操縱
人工智能被廣泛應用于機器人領域?,F代工廠中廣泛使用的先進機械臂和其他工業機器人可以從經驗中學習如何在存在摩擦和齒輪打滑的情況下高效移動。 現代移動機器人,當給定一個小的、靜態的和可見的環境時,可以很容易地確定它的位置并繪制它的環境地圖;然而,動態環境,例如(內窺鏡檢查中)對患者呼吸體的內部的檢測提出了更大的挑戰。運動規劃是將運動任務分解成“基本”的過程,例如單個關節運動。這種運動通常包括順從運動,這種運動需要與物體保持物理接觸。 莫拉維克(Moravec)的悖論概括了人類認為理所當然的低級感覺運動技能,與直覺相反,很難編程為機器人;這個悖論是以漢斯·莫拉維克(Hans Moravec)的名字命名的,他在1988年指出,“讓電腦在智力測試或下棋方面表現出成人水平的表現相對容易,而讓它們具備一歲孩子的感知能力和行動能力,則是困難的,甚至是不可能的?!边@是因為,數百萬年來,身體靈活性一直是自然選擇的直接目標,所以要實現感知和移動性方面的行為(不同于跳棋行為)是比較困難的。
社會智力
Kismet,一個具有基本社交技能的機器人
莫拉維克的悖論可以延伸到許多形式的社會智力問題。自主車輛的分布式多智能體協調仍然是一個難題。情感計算是一個包括識別、解釋、處理或模擬人類情感系統的跨學科領域。 與情感計算相關的微小成功案例包括文本情感分析,以及最近的多模態情感分析(參見多模態情感分析),其中人工智能將拍攝對象所顯示的情感進行分類。
從長遠來看,社交技能以及對人類情感和博弈論的理解對社交代理人來說是有價值的。能夠通過理解他人的動機和情緒狀態來預測他人的行為將使代理人做出更好的決定。一些計算機系統模仿人類的情感和表達,對人類互動的情感動態更加敏感,或者以其他方式促進人機互動。類似地,一些虛擬助理被編程為能交談,甚至可以幽默地開玩笑;這往往會讓一些天真的用戶對現有的計算機代理究竟有多智能產生不切實際的想法。
通用智能(AGI)
歷史上,像Cyc知識庫(1984—)和大規模日本第五代計算機系統計劃(1982—1992)這樣的項目試圖覆蓋人類認知的廣度。這些早期的項目未能逃脫非定量符號邏輯模型的限制,回想起來,大大低估了跨領域人工智能的難度。如今,絕大多數當前人工智能研究人員轉而致力于可處理的“窄人工智能”應用(如醫療診斷或汽車導航)。許多研究人員預測,這種在不同個體領域工作的“狹義人工智能”最終將被整合到一臺具有人工通用智能(AGI)的機器中,將本文中提到的大多數狹義技能結合在一起,在某些時候甚至會具有大多數或所有相關領域超越人類的能力。許多進展具有普遍的、跨領域的意義。一個引人注目的例子是,DeepMind在2010年代開發了一種“廣義人工智能”,它可以自己學習許多不同的雅達利游戲( Atari games),后來又開發了一種成功進行順序學習的系統變體 。除了轉移學習之外,假設性的AGI可以突破決策理論元推理的反射體系結構的開發限制,以及可以找出如何從整個非結構化網絡中“汲取”一個全面的知識庫。一些人認為某種(目前尚未發現的)概念上簡單但數學上困難的“主算法”可能會導致AGI。最后,一些“緊急”方法看起來非常接近模擬人類智能,并且相信擬人化的特征(如人工大腦或模擬兒童發育),但是可能有一天會達到一般智能出現的臨界點。
如果機器能像人一樣解決問題,本文中的許多問題也可能需要AGI。例如,即使是像機器翻譯這樣的特定的直接任務,也要求機器用兩種語言讀寫(NLP),跟隨作者的論點(原因),知道正在談論什么(知識),并忠實地再現作者的原始意圖(社會智能)。像機器翻譯這樣的問題被認為是“人工智能完成的”,因為所有這些問題都需要同時解決才能達到具有人類水平的機器性能。
方法
沒有既定的統一理論或范式來指導人工智能研究。研究人員在許多問題上意見不一。 有幾個長期懸而未決的問題是:人工智能應該通過研究心理學或神經生物學來模擬自然智能嗎?或者,人類生物學與人工智能研究的關系,就像鳥類生物學與航空工程的關系一樣?智能行為可以用簡單優雅的原則(如邏輯或優化)來描述嗎?或者,這是否必然需要解決大量完全不相關的問題?
控制論和大腦模擬
在20世紀40年代和50年代,許多研究者探索了神經生物學、信息論和控制論之間的聯系。他們中的一些人建造了使用電子網絡展示基本智力的機器,例如格雷·沃爾特的海龜和約翰·霍普金斯野獸(W. Grey Walter’s turtles and the Johns Hopkins Beast)。許多研究人員聚集在普林斯頓大學的“目的論協會”和英國“比率俱樂部”的會議上。到了1960年,盡管它的一些要素將在1980年代恢復,但在當時這種方法基本上被放棄了。
符號的
20世紀50年代中期,當使用數字計算機成為可能時,人工智能研究開始探索人類智能被簡化為符號操縱的可能性。這項研究集中在三個機構:卡內基梅隆大學、斯坦福大學和麻省理工學院,如下所述,每個機構都發展了自己的研究風格。約翰·豪格蘭(John Haugeland)將這些人工智能的象征性方法命名為“好的老式人工智能”或“GOFAI”。在20世紀60年代,符號方法在模擬小型演示項目中的高級思維方面取得了巨大成功?;诳刂普摶蛉斯ど窠浘W絡的方法被拋棄或推到了后臺。20世紀60年代和70年代的研究人員相信,符號方法最終會成功地創造出具有人工智能的機器,并認為這是他們領域的目標。
認知模擬
經濟學家希爾伯特·西蒙和艾倫·紐厄爾(Herbert Simon and Allen Newell)研究人類解決問題的技能,并試圖將其形式化,他們的工作奠定了人工智能領域以及認知科學、運籌學和管理學的基礎。他們的研究團隊利用心理學實驗的結果來開發模擬人們用來解決問題的技術的程序。這個傳統以卡內基梅隆大學為中心,最終在20世紀80年代中期Soar建筑的發展中達到頂峰。
基于邏輯的
與西蒙和紐維爾不同,約翰·麥卡錫認為機器不需要模擬人類的思維,而是應該嘗試尋找抽象推理和解決問題的本質,不管人們是否使用相同的算法。 他在斯坦福的實驗室里專注于使用形式邏輯來解決各種各樣的問題,包括知識表示、規劃和學習。 邏輯也是愛丁堡大學和歐洲其他地方工作的重點,這促進了編程語言Prolog和邏輯編程科學的發展。
反邏輯或不符合邏輯的
麻省理工學院的研究人員(如馬文·明斯基和西蒙·派珀特(Marvin Minsky and Seymour Papert)) 發現,解決視覺和自然語言處理中的難題需要特別的解決方案——他們認為沒有簡單和通用的原則(如邏輯)可以涵蓋智能行為的所有方面。羅杰·沙克(Roger Schank)將他們的“反邏輯”方法描述為“scruffy”(與CMU和斯坦福的“neat”范例相反)。常識知識庫(如道格·萊納特(Doug Lenat)的Cyc)是“scruffy”人工智能的一個例子,因為它們必須手工構建,一次一個復雜的概念。
基于知識的
當具有大內存的計算機在1970年左右出現時,來自這三個傳統的研究人員開始將知識構建到人工智能應用中。這場“知識革命”導致了專家系統的開發和部署(由愛德華·費根鮑姆(Edward Feigenbaum)引入),這是第一款真正成功的人工智能軟件。所有專家系統中的體系結構的一個關鍵組成部分就是知識庫,它存儲說明人工智能的事實和規則。 知識革命也是通過認識到多個簡單的人工智能同樣需要大量知識儲備的現象所驅動的。
子符號
到20世紀80年代,符號人工智能的進展似乎停滯不前,許多人認為符號系統永遠無法模仿人類認知的所有過程,尤其是感知、機器人、學習和模式識別。許多研究人員開始研究解決特定人工智能問題的“亞符號”方法。 子符號方法設法在沒有特定知識表示的情況下接近智能。
具體化智能
這包括具體化的、情境化的、基于行為的和全新的人工智能。機器人學科相關領域的研究人員,如羅德尼·布魯克斯(Rodney Brooks),拒絕符號人工智能,而專注于讓機器人移動和生存的基本工程問題。 他們的工作恢復了20世紀50年代早期控制論研究者的非符號觀點,并重新引入了控制理論在人工智能中的應用。這與認知科學相關領域的體驗思維理論的發展相一致:即身體的各個方面(如運動、感知和可視化)是更高智能所必需的。
在發展機器人學科中,發展性學習方法被詳細闡述以允許機器人通過自主自我探索、與人類教師的社會互動以及使用指導機制(主動學習、成熟、運動協同等)來積累新技能的儲備。
計算智能和軟計算
20世紀80年代中期,大衛·魯梅爾哈特(David Rumelhart)等人重新對神經網絡和“連接主義”產生了興趣。人工神經網絡是軟計算的一個例子——它們是對無法完全采用邏輯確定性來解決問題所提出的方案,而近似的解決方案通常就足夠了。人工智能的其他軟計算方法包括模糊系統、灰色系統理論、進化計算和許多統計工具。軟計算在人工智能中的應用是由新興的計算智能學科共同研究的。
統計學習
許多傳統的GOFAI在符號計算的臨時補丁上陷入困境,這些補丁在他們自己的玩具模型上起作用,但未能將其推廣到現實世界。然而,在20世紀90年代左右,人工智能研究人員采用了復雜的數學工具,如隱馬爾可夫模型(HMM)、信息論和規范貝葉斯決策理論來比較統一競爭的體系結構。共享的數學語言允許與更成熟的領域(如數學、經濟學或運籌學)進行高水平的合作。 與GOFAI相比,新的“統計學習”技術(如隱馬爾可夫模型和神經網絡)在許多實際領域(如數據挖掘)中獲得了更高的準確度,而不一定獲得對數據集的語義理解?,F實世界數據越來越成功,導致人們越來越重視將不同的方法與共享測試數據進行比較,以了解哪種方法在比特殊模型更廣泛的背景下表現最佳;人工智能研究變得越來越科學。如今,實驗結果往往是嚴格可測量的,有時(難以)重現。不同的統計學習技術有不同的局限性;例如,基本的隱馬爾可夫模型不能模擬自然語言的無限可能組合。 批評家指出,從GOFAI到統計學習的轉變通常也是從可解釋人工智能的轉變。在AGI的研究中,一些學者告誡不要過度依賴統計學習,并認為繼續研究GOFAI對于獲得AGI仍然是必要的。
整合方法
智能代理范例智能代理是一個感知其環境并最大化其成功機會的系統。最簡單的智能代理是解決特定問題的程序。更復雜的代理包括人和人的組織(如公司)。該范例允許研究人員通過詢問哪個代理最擅長最大化給定的“目標函數”,直接比較甚至組合不同的方法來解決孤立的問題。解決特定問題的代理可以使用任何有效的方法——一些代理是符號化的和邏輯化的,一些是亞符號化的人工神經網絡,還有一些使用其他新的方法。這一范式也為研究人員提供了一種與其他領域交流的通用語言——如決策理論和經濟學——這些領域也使用抽象主體的概念。構建一個完整的代理需要研究人員解決集成的現實問題;例如,因為感官系統給出了不確定的環境信息,所以規劃系統必須能夠在各種不確定的情況下運行。智能代理范式在20世紀90年代被廣泛接受。代理架構和認知架構研究人員已經設計了一些系統,通過多智能體系統中的交互智能體來構建智能系統。 分級控制系統在最低反應級別的子符號人工智能和最高級別的傳統符號人工智能之間提供了一個橋梁,在這種情況下,寬松的時間限制允許規劃和世界建模。一些認知架構是為解決一個狹窄的問題而定制的;其他的如soar是被設計來模仿人類的認知,并提供對一般智力的洞察。Soar的現代擴展是包括符號和子符號組件的混合智能系統。
工具
人工智能已經開發了大量的工具來解決計算機科學中最困難的問題。下面討論了這些方法中一些最常見的方法。
搜索和優化
人工智能中的許多問題可以通過智能搜索許多在理論上得到證實的潛在解決方案: 推理可以簡化為執行搜索。例如,邏輯證明可以被視為尋找從前提到結論的路徑,其中每一步都是推理規則的應用。 規劃算法搜索目標樹和子目標樹,試圖找到一條通向目標的路徑,這一過程稱為手段-目的分析。用于移動肢體和抓取物體的機器人算法使用配置空間中的局部搜索。許多學習算法使用基于優化的搜索算法。
簡單詳盡的搜索很少足以解決大多數現實世界的問題:搜索空間(要搜索的地方數量)迅速增長到天文數字。直接導致的結果是搜索速度太慢或者永遠無法完成。對許多問題來說,解決方法是使用“啟發式”或“經驗法則”,將選擇優先于更有可能達到目標的選擇,并在更短的步驟中實現。在一些搜索方法中,啟發式還可以完全消除一些不太可能導致目標的選擇(稱為“修剪搜索樹”)。試探法為程序提供了解決方案所在路徑的“最佳猜測”。試探法將對解決方案的搜索限制在較小的樣本容量內。
20世紀90年代,一種非常不同的基于最優化的數學理論搜索被提出。對于許多問題,可以從某種形式的猜測開始搜索,然后逐步完善猜測,直到無法再進行進一步的完善。這些算法可以被想象成盲目爬山:我們從風景上的一個隨機點開始搜索,然后,通過跳躍或臺階,我們繼續向上移動我們的猜測,直到到達山頂。其他優化算法有模擬退火、波束搜索和隨機優化。尋求全局最小值的粒子群
進化計算使用一種優化搜索的形式。例如,它們可能從一群有機體(猜測)開始,然后允許它們變異和重組,只選擇最適合的來存活每一代(完善猜測)。經典進化算法包括遺傳算法、基因表達式編程和遺傳編程?;蛘?,分布式搜索過程可以通過群體智能算法進行協調。搜索中使用的兩種流行的群體算法是粒子群優化算法(受鳥類群集的啟發)和蟻群優化算法(受螞蟻蹤跡的啟發)。
邏輯
邏輯用于知識表示和問題解決,但它也可以應用于其他問題。例如,satplan算法使用邏輯進行規劃歸納邏輯編程也是一種學習方法。
人工智能研究中使用了幾種不同形式的邏輯。命題邏輯涉及“或”和“不”等真理函數。一階邏輯增加了量詞和謂詞,可以表達關于對象、對象屬性以及它們之間關系的事實。模糊集合論將“真實程度”(介于0和1之間)賦予模糊的陳述,如“愛麗絲老了”(或富有,或高了,或餓了),這些陳述在語言上太不精確,以至于不能完全正確或錯誤。模糊邏輯成功地應用于控制系統中,允許專家貢獻模糊的規則,例如“如果你靠近目的地站并且移動很快,就會增加列車的制動壓力”;然后,這些模糊的規則可以在系統中進行數字細化。模糊邏輯在知識庫中不能很好地擴展;許多人工智能研究者質疑鏈接模糊邏輯推理的有效性。
默認邏輯、非單調邏輯和限定是用來幫助默認推理和限定問題的邏輯形式。邏輯的一些擴展已經被設計來處理特定的知識領域,例如:描述邏輯;情境演算、事件演算和流暢演算(用于表示事件和時間); 因果演算;信念演算; 和模態邏輯。
總的來說,定性符號邏輯是脆弱的,并且在存在噪聲或其他不確定性的情況下縮放性很差。規則的例外很多,邏輯系統在存在矛盾的規則時很難發揮作用。
不確定推理的概率方法
老實泉噴發數據的期望最大化聚類從隨機猜測開始,但隨后成功地收斂于兩種物理上不同的噴發模式的精確聚類
人工智能中的許多問題(推理、規劃、學習、感知和機器人學)都要求智能體在信息不完整或不確定的情況下運行。人工智能研究人員已經設計了許多強大的工具,使用概率論和經濟學的方法來解決這些問題。
貝葉斯網絡是一種非常通用的工具,可以用于大量問題:推理(使用貝葉斯推理算法),學習(使用期望最大化算法),規劃(使用決策網絡)和感知(使用動態貝葉斯網絡)。概率算法也可以用于過濾、預測、平滑和尋找數據流的解釋,幫助感知系統分析隨時間發生的過程(例如,隱馬爾可夫模型或卡爾曼濾波器)。與符號邏輯相比,形式貝葉斯推理計算量很大。為了便于推理,大多數觀察結果必須有條件地相互獨立。帶有菱形或其他“環”(無向循環)的復雜圖形可能需要一種復雜的方法,例如馬爾可夫鏈蒙特卡羅(Markov chain Monte Carlo),這種方法將隨機行走者的集合分布在貝葉斯網絡中,并試圖利用收斂條件進行概率的評估。Xbox Live使用貝葉斯網絡對玩家進行評級和匹配;輸和贏是球員有多優秀的“證據”。AdSense使用一個擁有3億多條邊界的貝葉斯網絡來學習該為哪些廣告服務。
經濟學中的一個關鍵概念是“效用”:衡量某樣東西對一個智能代理有多有價值。已經開發了精確的數學工具,使用決策理論、決策分析,和信息價值理論來分析代理人如何做出選擇和計劃。 這些工具包括馬爾可夫決策過程、動態決策網絡,博弈論和機制設計等模型。
分類器和統計學習方法
最簡單的人工智能應用可以分為兩種類型:分類器(“如果閃亮,那么鉆石”)和控制器(“如果閃亮,那么拾取”)。然而,控制器也在推斷動作之前對條件進行分類,因此分類是許多人工智能系統的核心部分。分類器是使用模式匹配來確定最接近匹配的函數。它們可以根據例子進行調整,使得它們在人工智能中非常有吸引力。這些例子被稱為觀察或模式。在監督學習中,每個模式都屬于某個預定義的類。一個類可以被看作是一個必須做出的決定。所有的觀察結果和它們的類標簽被稱為數據集。當收到新的觀察結果時,該觀察結果將根據以前的經驗進行分類。
分類器可以用多種方式訓練;有許多統計和機器學習方法。決策樹也許是使用最廣泛的機器學習算法。其他廣泛使用的分類器有神經網絡、k最近鄰算法、核方法如支持向量機(SVM)、高斯混合模型和非常流行的樸素貝葉斯分類器。分類器性能在很大程度上取決于要分類的數據的特征,例如數據集大小、樣本在類中的分布、維度和噪聲水平。如果假設的模型非常適合實際數據,則基于模型的分類器將會表現良好。否則,如果沒有匹配模型可用,并且如果只考慮精度(而不是速度或可伸縮性),那么傳統觀點認為,在大多數實際數據集上,判別分類器(尤其是SVM)往往比基于模型的分類器更精確,例如“樸素貝葉斯”。
人工神經網絡
神經網絡是一組相互連接的節點,類似于人腦中龐大的神經元網絡
神經網絡受人腦神經元結構的啟發。一個簡單的“神經元”N接受來自多個其他神經元的輸入,當每個神經元被激活(或“激發”)時,對神經元N本身是否應該被激活投下加權“票”。學習需要算法根據訓練數據來調整這些權重;一個簡單的算法(稱為“一起開火,一起連線”)是當一個神經元的激活觸發另一個神經元的成功激活時,即增加兩個相連神經元之間的權重。網絡形成了分布在共享網絡子網中的“概念”, 這些子網往往會一起著火;意思是“腿”的概念可能與包含“腳”的聲音子網進行耦合。神經元有連續的激活光譜;此外,神經元可以以非線性方式處理輸入,而不是簡單地權衡選票。令人驚訝的是,現代神經網絡既能學習連續函數,還能學習數字邏輯運算。神經網絡的早期成功包括預測股票市場和(1995年)自動駕駛的汽車。在2010年代,使用深度學習的神經網絡的進步推動人工智能進入廣泛的公眾意識,并促使企業人工智能支出大幅增加;例如,2017年與人工智能相關的企業并購額M&A比2015年大25倍以上。
非學習人工神經網絡的研究最早出現在人工智能研究領域建立之前的十年,由沃爾特·皮茨(Walter Pitts)和沃倫·麥卡魯丘(Warren McCullouch)的工作完成。弗蘭克·羅森布拉特(Frank Rosenblatt)發明了感知器,一種單層學習網絡,類似于早期線性回歸的概念。早期的先驅還包括阿列克謝·格里戈里耶維奇·伊萬赫連科、特沃·科霍寧、斯蒂芬·格羅斯伯格、福島昆尼???、克里斯托夫·馮·德·馬爾斯堡、戴維·威爾肖、阿馬里順一、伯納德·維卓爾、約翰·霍普菲爾德、愛德華多·卡尼耶洛(Alexey Grigorevich Ivakhnenko, Teuvo Kohonen, Stephen Grossberg, Kunihiko Fukushima, Christoph von der Malsburg, David Willshaw, Shun-Ichi Amari, Bernard Widrow, John Hopfield, Eduardo R. Caianiello)等。
網絡的主要類別是無環或前饋神經網絡(信號只沿一個方向傳遞)和遞歸神經網絡(允許對以前的輸入事件進行反饋和短期記憶)。最流行的前饋網絡有感知器、多層感知器和徑向基網絡。神經網絡可以應用于智能控制(機器人學)或學習的問題,使用諸如Hebbian這樣的方法來學習(“一起開火,一起連線”)、GMDH或競爭學習等技術。
今天,神經網絡通常使用反向傳播算法訓練,該算法自1970年以來一直作為Seppo Linnainmaa出版的自動微分的反向模式存在,并由保羅·沃伯斯(Paul Werbos)引入神經網絡。
分層時間記憶是一種模擬大腦皮層的一些結構和算法特性的新方法。
總而言之,大多數神經網絡在手工創建的神經拓撲上使用梯度下降更新參數。然而,一些研究團體,如優步,認為簡單的神經進化來更新神經網絡拓撲和權重,可能與復雜的梯度下降方法競爭。神經進化的一個優勢是它可能不容易陷入“死胡同”。
深度前饋神經網絡
深度學習是能夠學習任何一長串因果聯系的人工神經網絡。例如,具有六個隱藏層的前饋網絡可以學習七個因果鏈(六個隱藏層+輸出層),并且具有七個“信用分配路徑”(CAP)深度。許多深度學習系統需要能夠學習長度為十個或更多因果聯系的鏈。深度學習改變了人工智能的許多重要子領域,包括計算機視覺、語音識別、自然語言處理等。
據一篇綜述稱,Rina Dechter在1986年將“深度學習”這個表述引入機器學習社區,并在2000年Igor Aizenberg及其同事將其引入人工神經網絡后獲得了廣泛的關注。 1965年,阿列克謝·格里戈里耶維奇·伊萬赫連科和帕拉(Alexey Grigorevich Ivakhnenko and V. G. Lapa)發表了第一個實用的深度學習網絡。 這些網絡一次訓練一層。Ivakhnenko 1971年的論文描述了具有八層的深度前饋多層感知器的學習,該感知器已經比許多后來的網絡更深。2006年,杰弗里·辛頓(Geoffrey Hinton)和魯斯蘭·薩拉庫蒂諾夫(Ruslan Salakhutdinov)的一份出版物介紹了一次一層預訓練多層前饋神經網絡(FNs)的另一種方法,將每一層依次視為無監督的受限玻爾茲曼機器,然后使用有監督的反向傳播進行微調。 與淺層人工神經網絡相似,深層神經網絡可以模擬復雜的非線性關系。在過去的幾年里,機器學習算法和計算機硬件的進步已經導致更有效的方法來訓練包含許多層非線性隱藏單元和非常大的輸出層的深層神經網絡。
深度學習經常使用卷積神經網絡(CNNs),其起源可以追溯到1980年由福島昆氏子(Kunihiko Fukushima)引入的新認知神經網絡。1989年,Yann LeCun和他的同事將反向傳播應用到這種架構中。在21世紀初,在一個工業應用中,CNNs已經處理了美國大約10%到20%的現有支票。自2011年以來,CNNs在圖形處理器上的快速實現贏得了許多視覺模式識別競賽。
具有12個卷積層的CNNs被深度思維的“AlphaGo Lee”與強化學習結合使用,該程序在2016年擊敗了世界頂級圍棋冠軍。
深層遞歸神經網絡
早期,深度學習也被應用到遞歸神經網絡的序列學習中,遞歸神經網絡理論上是圖靈完備的,可以運行任意程序來處理任意輸入序列。RNN的深度是無限的,取決于其輸入序列的長度;因此,RNN是深度學習的一個例子。神經網絡可以通過梯度下降進行訓練,但會遇到梯度消失的問題。1992年,研究表明,對一堆遞歸神經網絡進行無監督的預訓練可以加速對深層序列問題的后續監督學習。
許多研究人員現在使用一種叫做長短期記憶(LSTM)網絡的遞歸神經網絡的變體,該網絡由Hochreiter & Schmidhuber于1997年發表。LSTM接受CTC(Connectionist Temporal Classification)按時間分類的訓練。在谷歌、微軟和百度,這種方法徹底改變了語音識別。例如,在2015年,通過接受CTC訓練的LSTM,谷歌的語音識別性能大幅提升了49%,現在數十億智能手機用戶可以通過谷歌語音獲得這一服務。谷歌還利用LSTM改善機器翻譯、語言建模和多語言語言處理。LSTM與CNNs的結合也改善了自動圖像字幕和大量其他的應用。
評估進展
人工智能,像電或蒸汽機一樣,是一種通用技術。對于人工智能傾向于擅長哪些任務,人們還沒有達成共識。雖然阿爾法零號(AlphaZero)等項目已經成功地從頭開始生成自己的知識,但許多其他機器學習項目需要大量的訓練數據集。研究者吳恩達提出,作為一個“非常不完善的經驗法則”,“常人用幾乎不到一秒鐘的思維做的任何事情,我們現在或者在不久的將來都可以使用人工智能實現自動化”。莫拉維克的悖論表明,人工智能在許多任務上落后于人類,而人類大腦正是為了更好地完成這些任務而進化的。
游戲為評估進展速度提供了一個廣為人知的基準。阿爾法圍棋大約在2016年結束了經典棋盤游戲基準的時代。知識不完善的博弈在博弈論領域給人工智能提出了新的挑戰。星際爭霸等電子競技繼續提供額外的公共基準。有許多比賽和獎項,如圖像挑戰賽,以促進人工智能的研究。最常見的競爭領域包括通用機器智能、會話行為、數據挖掘、機器人汽車、機器人足球以及傳統游戲。
“模仿游戲”(對1950年圖靈測試的一種解釋,該測試評估計算機是否能模仿人類)如今被認為太容易被利用,不能作為有意義的基準。圖靈測試的衍生產品是全自動公共圖靈測試,用于區分計算機和人類(CAPTCHA)。顧名思義,這有助于確定用戶是真實的人,而不是冒充人的計算機。與標準圖靈測試相反,驗證碼是由機器管理并以人為目標,而不是由人管理并以機器為目標。計算機要求用戶完成一個簡單的測試,然后為該測試生成一個分數。計算機無法解決這個問題,所以正確的解決方案被認為是一個人參加測試的結果。驗證碼的一種常見類型是要求輸入扭曲的字母、數字或符號的測試,這些字母、數字或符號出現在計算機無法識別的圖像中。
提議的“通用智能”測試旨在比較機器、人類、甚至非人動物在盡可能通用的問題集上的表現。在極端情況下,測試套件可以包含所有可能的問題,用Kolmogorov復雜度加權;不幸的是,這些問題集往往被貧乏的模式匹配練習所主導,在這些練習中,調整后的人工智能很容易超過人類的表現水平。
應用程序
在網頁上提供客戶服務的自動在線助理 是人工智能的許多非常原始的應用程序之一
人工智能與任何智力任務都相關。 現代人工智能技術無處不在,不勝枚舉。通常,當一項技術達到主流用途時,它不再被認為是人工智能;這種現象被描述為人工智能效應。
人工智能引人注目的例子包括無人駕駛汽車(如dronesand self-driving cars)、醫療診斷、創造藝術(如詩歌)、證明數學定理、玩游戲(如象棋或圍棋)、搜索引擎(如谷歌搜索)、在線助手(如Siri)、照片中的圖像識別、垃圾郵件過濾、預測航班延誤,預測司法判決和鎖定在線廣告。
隨著社交媒體網站取代電視成為年輕人的新聞來源,新聞機構越來越依賴社交媒體平臺進行發布, 主要出版商現在使用人工智能技術更有效地發布故事,并產生更高的流量。
衛生保健
Da Vinci手術系統的患者側手術臂
人工智能正被應用于劑量問題的高成本問題——研究結果表明人工智能可以節省160億美元。2016年,加州的一項開創性研究發現,在人工智能的幫助下開發的數學公式正確地確定了給予器官患者的免疫抑制劑藥物的準確劑量。人工智能正在通過幫助醫生進入醫療保健行業。據彭博科技報道,微軟開發了人工智能來幫助醫生找到正確的癌癥治療方法。有大量與癌癥相關的研究和藥物開發。具體來說,有800多種治療癌癥的藥物和疫苗。這對醫生產生了負面影響,因為有太多的選擇,使得為病人選擇合適的藥物更加困難。微軟正在開發一種叫做“漢諾威”的機器。它的目標是記住癌癥所需的所有論文,并幫助預測哪種藥物組合對每個患者最有效。目前正在進行的一個項目是抗擊髓細胞性白血病,這是一種致命的癌癥,幾十年來治療沒有改善。據報道,另一項研究發現,人工智能在識別皮膚癌方面與訓練有素的醫生一樣好。另一項研究是使用人工智能來嘗試和監控多個高風險患者,這是通過基于從現場醫生那里獲得的數據向每個患者詢問大量問題來完成的。其中一項研究是通過轉移學習完成的,該機器執行的診斷類似于訓練有素的眼科醫生,并且可以在30秒內做出是否應該推薦患者接受治療的決定,準確率超過95%。手的X射線,可以通過計算機軟件自動計算骨齡
據美國有線電視新聞網報道,華盛頓兒童國家醫療中心的外科醫生最近的一項研究成功展示了用自主機器人進行手術。該團隊聲稱,在機器人進行軟組織手術時,他們對其進行監督,在開放手術中縫合豬的腸道,并且做得比人類外科醫生更好。IBM創造了自己的人工智能計算機——國際商用機器公司沃森(IBM Watson),它在某些層面上擊敗了人類智能。沃森不僅在游戲節目《危險邊緣》(Jeopardy?。﹃嚽肮谲娭蝎@勝,而且成功診斷出一名患有白血病的女性,隨后他被宣布為英雄。
汽車領域
人工智能的進步通過自動駕駛汽車的創造和發展為汽車工業的發展做出了貢獻。截至2016年,有超過30家公司利用人工智能創造無人駕駛汽車。一些參與人工智能的公司包括特斯拉、谷歌和蘋果。
許多部件有助于自動駕駛汽車的運行。這些車輛包括制動、換道、防撞、導航和繪圖等系統。這些系統以及高性能計算機一起集成到一個復雜的車輛中。
自動汽車的最新發展使自動駕駛卡車的創新成為可能,盡管它們仍處于測試階段。英國政府已通過立法,從2018年開始測試自動駕駛卡車排。自動駕駛卡車排是跟隨一輛非自動駕駛卡車的自動駕駛卡車車隊,所以卡車排還不是完全自主的。與此同時,德國汽車公司戴姆勒公司正在測試一種只能在高速公路上使用的半自主卡車——貨運靈感(Freightliner Inspiration)。
影響無人駕駛汽車運行能力的一個主要因素是繪制地圖。一般來說,車輛將被預先編程為具有行駛區域的地圖。該地圖將包括路燈和路緣高度近似值的數據,以便車輛了解周圍環境。然而,谷歌一直在研究一種算法,目的是消除對預編程地圖的需求,而是創造一種能夠適應各種新環境的設備。 一些自動駕駛汽車沒有配備方向盤或制動踏板,因此也有研究集中于創建一種算法,該算法能夠通過意識到速度和駕駛條件來為車輛中的乘客維持安全的環境。
另一個影響無人駕駛汽車性能的因素是乘客的安全。為了制造無人駕駛汽車,工程師必須對其進行編程,以應對高風險情況。這些情況可能包括與行人正面碰撞。汽車的主要目標應該是做出一個避免撞到行人并挽救車上的乘客的決定。但是汽車有可能需要做出一個會使人處于危險中的決定。換句話說,汽車需要決定拯救行人或乘客。在這些情況下,汽車的編程對于成功的無人駕駛汽車至關重要。
財經
金融機構長期以來一直使用人工神經網絡系統來檢測超出正常范圍的指控或索賠,為人類調查標記這些指控或索賠。人工智能在銀行業的應用可以追溯到1987年,當時美國安全太平洋國家銀行成立了一個反欺詐特別工作組,以打擊未經授權使用借記卡的行為??ㄎ魍校↘asisto)和金錢流(Moneystream)等項目正在金融服務中使用人工智能。
如今,銀行使用人工智能系統來組織運營、維護簿記、投資股票和管理財產。人工智能可以在一夜之間或業務不進行時對變化做出反應。2001年8月,機器人在模擬金融交易比賽中擊敗了人類。人工智能還通過監控用戶的行為模式來減少欺詐和金融犯罪。
人工智能機器在市場中的應用,如在線交易和決策,已經改變了主要的經濟理論。 例如,基于人工智能的買賣平臺改變了供求規律,因為現在可以很容易地估計個性化的需求和供應曲線,從而進行個性化定價。此外,人工智能機器減少了市場中的信息不對稱,從而使市場更加高效,同時減少了交易量。此外,市場中的人工智能再次限制了市場行為的后果,使市場更加高效。人工智能產生影響的其他理論包括理性選擇、理性預期、博弈論、劉易斯轉折點、投資組合優化和反事實思維。
政府
電子游戲
在電子游戲中,人工智能通常用于在非玩家角色中產生動態的有目的行為。此外,眾所周知的人工智能技術通常用于尋路。一些研究人員認為游戲中的NPC人工智能對于大多數生產任務來說是一個“已解決的問題”。具有更不典型人工智能的游戲包括《Left 4 Dead》(2008)的人工智能總監和《Supreme Commander 2》(2010)的神經進化訓練。
軍事
全球機器人技術的年度軍費開支從2010年的51億美元增加到2015年的75億美元。 能夠自主行動的軍用無人機被廣泛認為是一種有用的資產。但是,出于和平,許多人工智能研究人員試圖遠離人工智能的軍事應用。
審計
對于財務報表審計,人工智能使持續審計成為可能。人工智能工具可以立即分析多組不同的信息。潛在的好處是總體審計風險將降低,保證水平將提高,審計時間將縮短。
廣告
使用人工智能從客戶的數字足跡中預測或概括他們的行為是可能的,以便通過個性化促銷或自動構建客戶角色來鎖定他們。一個記錄在案的案例報告稱,在線賭博公司正在使用人工智能來提高客戶定位。
此外,人格計算人工智能模型的應用可以通過在更傳統的社會人口統計或行為目標中增加心理目標來幫助降低廣告活動的成本。
藝術
人工智能已經激發了許多創造性的應用,包括它用于生產視覺藝術?,F代藝術博物館的展覽“思維機器:1959-1989年計算機時代的藝術和設計”提供了人工智能在藝術、建筑和設計方面的歷史應用的良好概述。最近展示人工智能在藝術創作中的應用的展覽包括谷歌贊助的舊金山灰區基金會(Gray Area Foundation)的收益和拍賣,藝術家們在那里試驗了深夢算法(deepdream),并于2017年秋季在洛杉磯和法蘭克福舉辦了展覽“人類:人工智能時代的藝術”。2018年春天,計算機機械協會專門發行了一期以計算機和藝術為主題的雜志,突出了機器學習在藝術中的作用。
哲學和倫理
有三個與人工智能相關的哲學問題:
1.通用人工智能可能嗎?機器能解決人類利用智能能解決的任何問題嗎?或者機器能完成的工作有嚴格的限制嗎?
2.智能機器危險嗎?我們如何確保機器的行為符合道德規范,并且它們的使用符合道德規范?
3.機器能有和人類完全一樣的思維、意識和精神狀態嗎?機器能有感知力,從而獲得某些權利嗎?機器會故意造成傷害嗎?
人工智能的極限
機器能智能嗎?它能“思考”嗎?艾倫·圖靈的“禮貌慣例”我們不需要決定一臺機器是否能“思考”;我們只需要決定機器是否能像人類一樣聰明。這種處理與人工智能相關的哲學問題的方法構成了圖靈測試的基礎。 達特茅斯(Dartmouth)提案“學習的每個方面或智能的任何其他特征都可以被如此精確地描述,以至于可以制造一臺機器來模擬它?!边@個猜想被印在1956年達特茅斯會議的提案中,代表了大多數人工智能研究人員的立場。 紐厄爾和西蒙(Newell and Simon)的物理符號系統假說“物理符號系統具有一般智能行為的必要和充分的手段.”紐厄爾和西蒙認為,智力由對符號的形式運算組成。休伯特·德雷福斯(Hubert Dreyfus)認為,恰恰相反,人類的專長依賴于無意識的本能,而不是有意識的符號操縱,依賴于對情況的“感覺”,而不是明確的符號知識。(見德雷福斯(Dreyfus’ critique of AI)對人工智能的評論) 哥德里安(G?delian)論點哥德爾(G?del)本人, 約翰·盧卡斯(John Lucas)(1961年)和羅杰·彭羅斯(Roger Penrose)(1989年以后的一篇更詳細的論述)提出了高度技術性的論點,認為人類數學家能夠始終如一地看到他們自己的“哥德爾陳述”的真相,因此具有超越機械圖靈機的計算能力。然而,科學界和數學界的現代共識是,這些“哥德式論點”失敗了。人工大腦的爭論大腦可以被機器模擬,因為大腦是智能的,所以模擬的大腦也必須是智能的;因此,機器可以是智能的。漢斯·莫拉維克、雷·庫茲韋爾(Hans Moravec, Ray Kurzweil)和其他人認為,將大腦直接復制到硬件和軟件中在技術上是可行的,這樣的模擬將與原始模擬基本相同人工智能效應機器已經很智能了,但是觀察者沒有意識到這一點。深藍在國際象棋中擊敗加里·卡斯帕羅夫時,這臺機器表現得很聰明。然而,旁觀者通常對人工智能程序的行為不屑一顧,認為它畢竟不是“真正的”智能;因此,“真正的”智能是人們可以做的智能行為,而機器仍然做不到。這就是所謂的人工智能效應:“人工智能是尚未完成的事情?!?/p>
潛在危害
人工智能的廣泛使用可能會帶來意想不到的危險或不良后果。生命未來研究所的科學家描述了一些短期研究目標,以了解人工智能如何影響經濟、與人工智能相關的法律和倫理,以及如何將人工智能安全風險降至最低。從長遠來看,科學家們建議繼續優化功能,同時將新技術帶來的可能安全風險降至最低。
人工智能和自動化的潛在負面影響是楊安澤(Andrew Yang)總統競選的一個主要問題。
存在風險
物理學家斯蒂芬·霍金(Stephen Hawking)、微軟創始人比爾·蓋茨(Bill Gates)和SpaceX創始人埃隆·馬斯克(Elon Musk)對人工智能可能進化到人類無法控制的程度表示擔憂,霍金認為這可能“意味著人類的終結”。
全人工智能的發展可能意味著人類的終結。一旦人類開發出人工智能,它將自行起飛,并以越來越快的速度重新設計自己。受緩慢生物進化限制的人類無法競爭,將被取代。
——Stephen Hawking
尼克·博斯特羅姆(Nick Bostrom)在其著作《超級智能》(Superintelligence)中提出了人工智能將對人類構成威脅的論點。他認為,足夠聰明的人工智能,如果它選擇基于實現某個目標的行動,將表現出趨同的行為,如獲取資源或保護自己不被關閉。如果人工智能的目標沒有反映人類的目標——例如,人工智能被告知計算盡可能多的π位數——它可能會傷害人類,以便獲得更多的資源或防止自己被關閉,最終更好地實現其目標。
對人工智能風險的擔憂導致了一些高調的捐贈和投資。包括彼得·泰爾(Peter Thiel)、亞馬遜網絡服務(Amazon Web Services)和馬斯克(Musk)在內的一群杰出的科技巨頭已經向OpenAI公司投資了10億美元,這是一家旨在支持負責任的人工智能開發的非營利公司。人工智能領域的專家意見不一,相當一部分人對最終超人類能力人工智能的風險既關心又不關心。其他科技行業的領導者認為人工智能在目前的形式下是有幫助的,并將繼續幫助人類。甲骨文首席執行官馬克·赫德(Oracle CEO Mark Hurd)表示,人工智能“實際上會創造更多的工作,而不是更少的工作”,因為管理人工智能系統需要人類。Facebook首席執行官馬克·扎克伯格(Mark Zuckerberg)認為人工智能將“釋放出大量積極的東西”,比如治愈疾病和提高無人駕駛汽車的安全性。
2015年1月,埃隆·馬斯克(Elon Musk)向生命未來研究所捐贈了一千萬美元,用于資助理解人工智能決策的研究。該研究所的目標是“增長智慧,以此來管理”不斷增長的技術力量。馬斯克還資助開發人工智能的公司,如谷歌深度思維和替代公司,以“關注人工智能的發展情況。我認為那里有潛在的危險結果。”
要想意識到這種危險,假設人工智能將不得不壓倒或超越整個人類,少數專家認為這種可能性在很遠的將來,不值得研究。從人工智能的角度來看,其他的反駁圍繞著人類的內在價值或聚合價值展開。
人性的貶值
約瑟夫·韋森鮑姆(Joseph Weizenbaum)寫道,根據定義,人工智能應用程序無法成功模擬真正的人類同理心,在客戶服務或心理治療等領域使用人工智能技術被嚴重誤導。韋岑鮑姆還感到困擾的是,人工智能研究人員(和一些哲學家)愿意把人類的思維僅僅看作是一個計算機程序(這一立場現在被稱為計算主義)。對韋岑鮑姆來說,這些觀點表明人工智能研究貶低了人類生命。
社會正義
一個擔憂是人工智能程序可能被編程為對某些群體有偏見,比如女性和少數民族,因為大多數開發者是富裕的高加索男性。男性(47%贊成)對人工智能的支持高于女性(35%贊成)。
算法在當今的法律體系中已經有了大量的應用,可以幫助法官、假釋官和公設辯護人等官員評估被告再次犯罪的可能性。COMPAS(替代制裁的罪犯管理概況的縮寫)是最廣泛使用的商業解決方案之一。有人認為,COMPAS認為黑人被告的再犯風險特別高,而白人被告的再犯風險則出乎意料地低。
對人力需求的減少
自動化和就業之間的關系很復雜。雖然自動化消除了舊工作,但它也通過微觀經濟和宏觀經濟效應創造了新工作。與以前的自動化浪潮不同,許多中產階級的工作可能會被人工智能淘汰;《經濟學人》指出,“有人擔心人工智能會像工業革命期間蒸汽動力對藍領工人所做的那樣對白領工作造成影響”,這是“值得認真對待的”。對風險的主觀估計差異很大;例如,邁克爾·奧斯本(Michael Osborne)和卡爾·貝內迪克特·弗雷(Carl Benedikt Frey)估計,47%的美國工作處于潛在自動化的“高風險”,而經合組織的一份報告僅將9%的美國工作歸類為“高風險”。風險極高的工作范圍從律師助理到快餐廚師,而從個人醫療保健到神職人員等護理相關專業的工作需求可能會增加。作家馬丁·福特等人則更進一步,他們認為,大量工作都是例行公事、重復性的,而且(對人工智能來說)是可預測的;福特警告說,這些工作可能在未來幾十年內實現自動化,許多新工作即使再培訓,“能力一般的人也可能無法獲得”。經濟學家指出,在過去,技術傾向于增加而不是減少總就業,但是他們也承認,人工智能令“我們處在未知的領域”。
自主武器
目前,50多個國家正在研究戰場機器人,包括美國、中國、俄羅斯和英國。許多擔心超智能人工智能風險的人也想限制人工士兵和無人機的使用。
倫理機器
具有智能的機器有潛力利用它們的智能來防止傷害和最小化風險;他們可能有能力運用倫理推理來更好地選擇他們在世界上的行為。這一領域的研究包括機器倫理、人工道德代理和友好的人工智能。
人工道德代理人
溫德爾·沃勒赫(Wendell Wallach)在他的著作《沃勒赫的道德機器》中引入了人工道德代理人(AMA)的概念,對于沃勒赫來說,AMAs已經成為人工智能研究領域的一部分,它的兩個核心問題是“人類希望計算機做出道德決策嗎”和“機器人真的有道德嗎”。對沃勒赫來說,這個問題的核心并不是機器是否能表現出與道德行為相當的行為,而是社會對AMAs發展的限制。
機器倫理
機器倫理的領域是給予機器倫理原則,或發現解決他們可能遇到的倫理困境的方法的程序,使他們能夠通過自己的倫理決策以倫理負責的方式運作。該領域在2005年AAAI秋季機器倫理研討會上有所描述:“過去關于技術和倫理之間關系的研究主要集中在人類對技術負責任和不負責任的使用上,只有少數人對人類應該如何對待機器感興趣。在所有情況下,只有人類參與了倫理推理?,F在是時候給至少一些機器增加道德維度了。認識到涉及機器的行為的倫理后果,以及機器自主性的最近和潛在發展,這是必要的。與計算機黑客行為、軟件財產問題、隱私問題和其他通常歸屬于計算機倫理的話題不同,機器倫理關注的是機器對人類用戶和其他機器的行為。機器倫理的研究是減輕對自主系統的擔憂的關鍵——可以說,沒有這種維度的自主機器的概念是所有關于機器智能的恐懼的根源。此外,對機器倫理的研究能夠發現當前倫理理論的問題,推進我們對倫理的思考?!睓C器倫理有時被稱為機器道德、計算倫理或計算道德。這個新生領域的各種觀點可以在2005年AAAI秋季機器倫理研討會收錄的《機器倫理》中找到。
惡意友好的人工智能
政治學家查爾斯·魯賓(Charles T. Rubin)認為人工智能既不能被設計也不能保證是仁慈的。他認為,“任何足夠先進的善舉都可能無法與惡意區分開來?!比祟惒粦摷僭O機器或機器人會善待我們,因為沒有先驗的理由相信它們會同情我們的道德體系,而道德體系是隨著我們特定的生物學而進化的(人工智能不會分享)。超智能軟件可能不一定決定支持人類的繼續存在,而且極難阻止。這個話題最近也開始在學術出版物上討論,它是文明、人類和地球面臨風險的真正來源。
解決這一問題的一個建議是確保第一個普遍智能的人工智能是“友好人工智能”,然后能夠控制隨后開發的人工智能。有些人質疑這種檢查是否真的能繼續存在。
首席人工智能研究員羅德尼·布魯克斯(Rodney Brooks)寫道,“我認為擔心我們在未來幾百年的任何時候發展惡意人工智能都是錯誤的。我認為,這種擔憂源于一個根本錯誤,即沒有區分人工智能某個特定方面的最新進展與構建有知覺的意志智能的巨大復雜性之間的區別?!?/p>
機器意識、感覺和頭腦
如果人工智能系統復制了人類智能的所有關鍵方面,那么這個系統會是有意識的嗎——它會有一個有意識體驗的頭腦嗎?這個問題與關于人類意識本質的哲學問題密切相關,通常被稱為意識的難題。
意識
大衛·查爾莫斯(David Chalmers)發現了理解思維的兩個問題,他稱之為意識的“困難”和“容易”問題。簡單的問題是理解大腦如何處理信號、制定計劃和控制行為。困難的問題是如何解釋這種感覺,或者為什么會有這種感覺。人類的信息處理很容易解釋,然而人類的主觀經驗卻很難解釋。
例如,考慮一下當一個人看到一個色樣,并識別說出“它是紅色”時,會發生什么。這個簡單的問題只需要理解大腦機制就可以讓一個人知道色樣是紅色的。困難的問題是人們還知道別的東西——他們也知道紅色是什么樣子。(假設一個天生失明的人可以知道某樣東西是紅色的,卻不知道紅色是什么樣子。) 每個人都知道主觀經驗的存在,因為他們每天都這樣做(例如,所有有視力的人都知道紅色是什么樣子)。困難的問題是解釋大腦是如何創造它的,為什么它會存在,以及它是如何不同于知識和大腦的其他方面。
計算主義和功能主義
計算主義是心靈哲學中的一種立場,即人思想或人腦(或兩者)是一個信息處理系統,思維是計算的一種形式。計算主義認為,身心之間的關系類似于或等同于軟件和硬件之間的關系,因此可能是身心問題的一個解決方案。這一哲學立場受到人工智能研究人員和認知科學家在20世紀60年代工作的啟發,最初由哲學家杰里·福多爾和希拉里·普特南(Jerry Fodor and Hilary Putnam)提出。
強人工智能假設
約翰·塞爾(John Searle)稱之為“強人工智能”的哲學立場是:“具有正確輸入和輸出的適當編程的計算機將擁有與人類擁有思維完全相同的思維?!?nbsp;塞爾用他的“中文房間”論點反駁了這一論斷,“中文房間”論點要求我們查看電腦內部,并試圖找到“大腦”可能在哪里。
機器人權利
如果能創造出一臺具有智能的機器,它還會有感覺嗎?如果它能感覺到,它有和人類一樣的權利嗎?這個現在被稱為“機器人權利”的問題,目前正在由加州未來研究所進行研究,盡管許多批評家認為討論還為時過早。一些對超人類主義的批評者認為,任何假設的機器人權利都屬于動物權利和人權的范疇。這個主題在2010年的紀錄片《插頭與祈禱》(Plug & Pray)和許多科幻媒體如《星際迷航下一代》(Star Trek Next Generation)中有深刻的討論,其中的角色是指揮官Data(Commander Data)為研究而戰斗,并希望“成為人類”,以及《航海家》(Voyager)中的機器人全息圖。
超智能
智能機器——或人機混合——有極限嗎?超智能、高智能或超高智能是一種假設的智能體,其擁有的智能遠遠超過最聰明和最有天賦的人類大腦。超智能也可以指這種機器所擁有的智能形式或智能程度。
技術奇點
如果對強大的人工智能的研究能生產出足夠智能的軟件,它也許能夠重新編程和改進自己。改進后的軟件會更擅長自我改進,從而實現遞歸自我改進。因此,新的智能可以指數級增長,并顯著超過人類??苹米骷曳矤柤{·文奇(Vernor Vinge)將這一場景命名為“奇點”。技術奇點是指加速技術進步將導致失控效應,其中人工智能將超過人類的智力能力和控制能力,從而從根本上改變甚至終結文明。因為這樣一種智能的能力可能無法理解,因此技術奇點是一種不可預測甚至深不可測的事件。
雷·庫茲韋爾(Ray Kurzweil)利用摩爾定律(描述了數字技術的無情指數進步)計算出,到2029年,臺式計算機將擁有與人腦相同的處理能力,并預測奇點將出現在2045年。
轉人道主義
機器人設計師漢斯·莫拉維克(Hans Moravec)、控制論專家凱文·沃里克(Kevin Warwick)和發明家雷·庫茲韋爾(Ray Kurzweil)預測,人類和機器將在未來融合成比兩者都更有能力、更強大的機器人。 這個想法被稱為跨人類主義,起源于阿爾多斯·赫胥黎(Aldous Huxley)和羅伯特·艾丁格(Robert Ettinger.)。
愛德華·弗萊德金(Edward Fredkin)認為“人工智能是進化的下一個階段”,這一想法早在1863年就由塞繆爾·巴特勒(Samuel Butler)的《機器中的達爾文》(Darwin among the Machines)中首次提出,喬治·戴森在1998年同名著作中對此進行了擴展。
經濟學
人工智能的長期經濟影響是不確定的。一項對經濟學家的調查顯示,對于機器人和人工智能的日益使用是否會導致長期失業率大幅上升,經濟學家們存在不同意見,但他們普遍認為,如果生產率的提高得到重新分配,這可能是一種凈收益。
在小說中
“機器人”這個詞本身就是由Karel?apek在他1921年的戲劇“R.U.R”中創造的,該片名為“Rossum’s Universal Robots”
有思維能力的人造生物自古以來就作為講故事的工具出現,并且一直是科幻小說中的一個永恒主題。
這些作品中的一個常見比喻始于瑪麗·雪萊的《弗蘭肯斯坦》(Mary Shelley’s Frankenstein),在這部小說中,人類的創造成為對主人的威脅。這些作品包括亞瑟·C·克拉克(Arthur C. Clarke)和斯坦利·庫布里克(Stanley Kubrick)的《2001年:太空漫游(A Space Odyssey)》(都于1968年出版),哈爾(HAL)9000,它是負責探索一號宇宙飛船的殺人計算機,以及《終結者(The Terminator)》(1984年)和《黑客帝國(The Matrix)》(1999年)。相比之下,像《地球靜止之日(The Day the Earth Stood)》(1951年)中的高特和《異形(Aliens)》中的畢曉普(Bishop)(1986年)這樣罕見的忠誠機器人,在流行文化中并不突出。
艾薩克·阿西莫夫(Isaac Asimov)在許多書籍和故事中介紹了機器人三定律,最著名的是關于同名超智能計算機的“Multivac”系列。阿西莫夫定律經常在外行人討論機器倫理時被提出來; 雖然幾乎所有人工智能研究人員都通過流行文化熟悉阿西莫夫定律,但他們通常認為這些定律沒有用,原因有很多,其中之一就是它們的模糊性。
《攻殼機動隊(Ghost in the Shell)》和科幻系列小說《沙丘(Dune)》探索了人類與機器的融合。20世紀80年代,藝術家哈吉姆·索拉雅瑪(Hajime Sorayama)的性感機器人系列在日本被繪制并出版,描繪了真實的有機人類形態,帶有逼真的肌肉金屬皮膚,隨后《菊三七(the Gynoids)》一書被喬治·盧卡斯(George Lucas)等電影制作人使用,或受到他們的影響。索拉雅瑪(Sorayama)從未認為這些有機機器人是自然的真實部分,而是人類思維的非自然產物,即使以實際形式實現,這種幻想也存在于頭腦中。
有幾部作品使用人工智能迫使我們直面“是什么讓我們成為人類”這一基本問題,向我們展示了人造生物,它們有感知的能力,因此也有受苦的能力。這出現在卡雷爾·恰佩克(Karel ?apek)的《蘇聯(R.U.R)》、電影《人工智能(A.I. Artificial Intelligence)》和《機械姬(Ex Machina)》以及菲利普·K·迪克(Philip K. Dick)的小說《銀翼殺手(Do Androids Dream of Electric Sheep)。迪克認為,我們對人的主體性的理解被人工智能創造的技術改變了。
解釋性說明
- The act of doling out rewards can itself be formalized or automated into a “reward function”.
- Terminology varies; see algorithm characterizations.
- Adversarial vulnerabilities can also result in nonlinear systems, or from non-pattern perturbations. Some systems are so brittle that changing a single adversarial pixel predictably induces misclassification.
- While such a “victory of the neats” may be a consequence of the field becoming more mature, AIMA states that in practice both neat and scruffy approaches continue to be necessary in AI research.
- “There exist many different types of uncertainty, vagueness, and ignorance… [We] independently confirm the inadequacy of systems for reasoning about uncertainty that propagates numerical factors according to only to which connectives appear in assertions.”
- Expectation-maximization, one of the most popular algorithms in machine learning, allows clustering in the presence of unknown latent variables
- The most widely used analogical AI until the mid-1990s
- SVM displaced k-nearest neighbor in the 1990s
- Naive Bayes is reportedly the “most widely used learner” at Google, due in part to its scalability.
- Each individual neuron is likely to participate in more than one concept.
- Steering for the 1995 “No Hands Across America” required “only a few human assists”.
- This is based on Mary’s Room, a thought experiment first proposed by Frank Jackson in 1982