瀏覽次數(shù):11 標(biāo)簽:
前段時(shí)間專門撰文介紹了5G的來龍去脈,今天讓我們一起,來了解一下誕生于1950年代的“人工智能”。
如果你希望能對人工智能有一定程度理解的話,請耐心看完本文。
1
2001年,好萊塢電影《人工智能》公映。
人工智能的電影海報(bào)(圖片源自網(wǎng)絡(luò))
1982年,電影大師斯坦利·庫布里克買下了《人工智能》的拍攝權(quán),到1993年,斯蒂芬·斯皮爾伯格導(dǎo)演的《侏羅紀(jì)公園》的成功,促使庫布里克根據(jù)1969年布萊恩·阿爾迪斯(Brian Aldiss)的短篇故事《Super-Toys Last All Summer Long》改編了劇本,并與斯皮爾伯格探討了劇本,委托工業(yè)光魔公司設(shè)計(jì)特效。
1999年,庫布里克意外辭世,斯皮爾伯格于2000年初宣布了自己的拍攝計(jì)劃,并于2001年將亡友的這部未竟之作搬上銀幕。影片中應(yīng)用了當(dāng)時(shí)最新的“實(shí)時(shí)3D電腦游戲引擎”系統(tǒng)和“On-Set Visualization”技術(shù)。
劇情概要:
《人工智能》講述了21世紀(jì)中期,由于溫室效應(yīng),南北極冰川融化,地球上很多城市被淹沒。此時(shí),人類科技已經(jīng)高度發(fā)達(dá),人工智能機(jī)器人就是人類發(fā)明出來用以應(yīng)對惡劣自然環(huán)境的科技手段之一,而且,機(jī)器人制造技術(shù)已經(jīng)高度發(fā)達(dá),先進(jìn)的機(jī)器人不但擁有可以亂真的人類外表,還能感知自身的存在。
女主莫妮卡的兒子馬丁重病住院,生命危在旦夕,為了緩解傷痛的心情,她領(lǐng)養(yǎng)了機(jī)器人小孩大衛(wèi),大衛(wèi)的生存使命就是愛她。隨著馬丁蘇醒,恢復(fù)健康,回到了家里,一系列的事情使大衛(wèi)“失寵”,最后被莫妮卡拋棄。
為了回到自己認(rèn)定的母親莫妮卡身邊,大衛(wèi)與一起被扔掉的機(jī)器玩具熊泰迪一起踏上了旅程,旅途中結(jié)識了逃亡中的牛郎機(jī)器人喬。之前也從莫妮卡講的故事中得知了木偶奇遇記中藍(lán)仙女的傳說,大衛(wèi)認(rèn)為藍(lán)仙女會(huì)幫助他實(shí)現(xiàn)愿望──變成真正的小男孩,這樣母親就能愛他了,因此大衛(wèi)改踏上了尋找藍(lán)仙女的旅程。之后大衛(wèi)隨喬到達(dá)了制作大衛(wèi)的公司,大衛(wèi)看到很多與自己完全一樣的“大衛(wèi)”機(jī)器人,他無法忍受,因?yàn)樗J(rèn)為莫妮卡只屬于他一個(gè)人,于是跳海自殺。于后被喬救起,但喬之后被警察抓走。大衛(wèi)一個(gè)人乘潛水艇在海中發(fā)現(xiàn)了被海水淹沒的一座樂園,里頭矗立著一尊藍(lán)仙女的雕像,大衛(wèi)認(rèn)為自己找到了,便拼命的向其請求自己想變成真正的小男孩的愿望。
大衛(wèi)在潛水艇中一直請求藍(lán)仙女,直到大衛(wèi)身體的能源用完,海水也被冰凍起來。時(shí)間又經(jīng)過了2000年,人類已經(jīng)滅亡,地球被厚實(shí)的冰層覆蓋,成為一片荒蕪的冰冷世界。世界上只剩下進(jìn)化的人工智能機(jī)器人,他們意外找到在海中機(jī)能停止的大衛(wèi)。
他們重新啟動(dòng)了大衛(wèi),并希望大衛(wèi)快樂,所以決定滿足大衛(wèi)的心愿,利用DNA再生出同一個(gè)莫妮卡(母親)。但再生人只能存活一天,一旦再次入眠后便不會(huì)再醒來,所以大衛(wèi)與莫妮卡度過了一生中最開心的一天,實(shí)現(xiàn)他的愿望,在母親的懷抱中,微笑地進(jìn)入夢鄉(xiāng)。
2
當(dāng)然,今天文章的主題,并非當(dāng)年的好萊塢電影,而是作為第四次工業(yè)革命標(biāo)志之一的人工智能。
人工智能(Artificial Intelligence,縮寫為AI),亦稱機(jī)器智能,指由人制造出來的機(jī)器所表現(xiàn)出來的智能。通常,人工智能是指通過普通計(jì)算機(jī)程序來呈現(xiàn)人類智能的技術(shù);該詞也指研究這樣的智能系統(tǒng)是否能夠?qū)崿F(xiàn),以及如何實(shí)現(xiàn)的一系列活動(dòng)。
一般教材中,人工智能的定義領(lǐng)域是“智能主體(intelligent agent)的研究與設(shè)計(jì)”,智能主體指一個(gè)可以觀察周遭環(huán)境并作出行動(dòng),以達(dá)致目標(biāo)的系統(tǒng)。
約翰·麥卡錫(John McCarthy)于1955年給出的定義是“制造智能機(jī)器的科學(xué)與工程”。
安德里亞斯·卡普蘭(Andreas Kaplan)和邁克爾·海恩萊因(Michael Haenlein)將人工智能定義為“系統(tǒng)正確解釋外部數(shù)據(jù),從這些數(shù)據(jù)中學(xué)習(xí),并利用這些知識通過靈活適應(yīng)實(shí)現(xiàn)特定目標(biāo)和任務(wù)的能力”。
人工智能的研究是高度技術(shù)性和專業(yè)的,各分支領(lǐng)域都是深入且各不相通的,因而涉及范圍極廣。人工智能(AI)的研究可以分為幾個(gè)技術(shù)問題。其分支領(lǐng)域主要集中在解決具體問題,其中之一是,如何使用各種不同的工具完成特定的應(yīng)用程序。
人工智能的核心問題包括:建構(gòu)能夠跟人類似甚至超越的推理、知識、規(guī)劃、學(xué)習(xí)、交流、感知、移動(dòng)和操作物體的能力等。
人工智能當(dāng)前仍然是該領(lǐng)域的長遠(yuǎn)目標(biāo)。當(dāng)前強(qiáng)人工智能已經(jīng)有初步成果,甚至在一些影像識別、語言分析、棋類游戲等等單方面的能力達(dá)到了超越人類的水平。
而且人工智能的通用性代表著,能解決上述問題的,是使用了同樣的AI程序,無須重新開發(fā)算法就可以直接使用現(xiàn)有的AI程序完成任務(wù),這與人類的處理能力相同,但達(dá)到具備思考能力的統(tǒng)合強(qiáng)人工智能還需要時(shí)間研究。比較流行的方法包括統(tǒng)計(jì)方法,計(jì)算智能和傳統(tǒng)意義的人工智能。
當(dāng)前有大量的工具應(yīng)用了人工智能,其中包括搜索和數(shù)學(xué)優(yōu)化、邏輯推演。而基于仿生學(xué)、認(rèn)知心理學(xué),以及基于概率論和經(jīng)濟(jì)學(xué)的算法等也在逐步探索中。
思維來源于大腦,而思維控制行為,行為需要意志去實(shí)現(xiàn),而思維又是對所有數(shù)據(jù)采集的整理,相當(dāng)于數(shù)據(jù)庫,所以人工智能最后會(huì)演變?yōu)闄C(jī)器替換人類。
3
概論
人工智能的定義可以分為兩部分,即“人工”和“智能”?!叭斯ぁ奔从扇嗽O(shè)計(jì),為人創(chuàng)造、制造。
關(guān)于什么是“智能”,較有爭議性。這涉及到其它諸如意識(consciousness)、自我(self)、心靈(mind),包括無意識的精神(unconscious mind)等等問題。
人唯一了解的智能是人本身的智能,這是普遍認(rèn)同的觀點(diǎn)。但是我們對我們自身智能的理解其實(shí)都非常有限,對構(gòu)成人的智能必要元素的了解也很有限,所以就很難定義什么是“人工”制造的“智能”了。
因此人工智能的研究往往涉及對人智能本身的研究。其它關(guān)于動(dòng)物或其它人造系統(tǒng)的智能也普遍被認(rèn)為是人工智能相關(guān)的研究課題。
人工智能當(dāng)前在計(jì)算機(jī)領(lǐng)域內(nèi),得到了愈加廣泛的發(fā)揮。并在機(jī)器人、經(jīng)濟(jì)政治決策、控制系統(tǒng)、仿真系統(tǒng)中得到應(yīng)用。
4
人工智能的發(fā)展史
5
研究課題
當(dāng)前人工智能的研究方向已經(jīng)被分成幾個(gè)子領(lǐng)域,研究人員希望一個(gè)人工智能系統(tǒng)應(yīng)該具有某些特定能力,以下將這些能力列出并說明。
演繹、推理和解決問題
早期的人工智能研究人員直接模仿人類進(jìn)行逐步的推理,就像是玩棋盤游戲或進(jìn)行邏輯推理時(shí)人類的思考模式。
到了1980和1990年代,利用概率和經(jīng)濟(jì)學(xué)上的概念,人工智能研究還發(fā)展了非常成功的方法處理不確定或不完整的資訊。
對于困難的問題,有可能需要大量的運(yùn)算資源,也就是發(fā)生了“可能性組合爆增”:當(dāng)問題超過一定的規(guī)模時(shí),計(jì)算機(jī)會(huì)需要天文數(shù)量級的存儲器或是運(yùn)算時(shí)間。尋找更有效的算法是優(yōu)先的人工智能研究項(xiàng)目。
人類解決問題的模式通常是用最快捷、直觀的判斷,而不是有意識的、一步一步的推導(dǎo),早期人工智能研究通常使用逐步推導(dǎo)的方式。人工智能研究已經(jīng)于這種“次表征性的”解決問題方法獲取進(jìn)展:實(shí)體化Agent研究強(qiáng)調(diào)感知運(yùn)動(dòng)的重要性。神經(jīng)網(wǎng)絡(luò)研究試圖以模擬人類和動(dòng)物的大腦結(jié)構(gòu)重現(xiàn)這種技能。
知識表示法
知識表示是人工智能領(lǐng)域的核心研究問題之一,它的目標(biāo)是讓機(jī)器存儲相應(yīng)的知識,并且能夠按照某種規(guī)則推理演繹得到新的知識。有許多需要解決的問題需要大量的對世界的知識,這些知識包括事先存儲的先驗(yàn)知識和通過智能推理得到的知識。
事先存儲的先驗(yàn)知識指:人類通過某種方式告訴給機(jī)器的知識。
通過智能推理得到的知識指:結(jié)合先驗(yàn)知識和某種特定的推理規(guī)則(邏輯推理)得到的知識。
首先,先驗(yàn)知識可以指描述目標(biāo),特征,種類及對象之間的關(guān)系的知識,也可以描述事件,時(shí)間,狀態(tài),原因和結(jié)果,以及任何知識你想要機(jī)器存儲的。比如:今天沒有太陽,沒有太陽就是陰天。那么以命題邏輯語言,這些知識可以被表示為:今天→沒有太陽, 沒有太陽→陰天。這些知識是先驗(yàn)知識,那么通過推理可以得到新知識:今天→陰天。由此例子可以看出,先驗(yàn)知識的正確性非常重要,這個(gè)例子中沒有太陽就是陰天,這個(gè)命題是不嚴(yán)謹(jǐn)?shù)摹⒈容^籠統(tǒng)的,因?yàn)闆]有太陽可能是下雨,也可能下雪。
邏輯命題表示在知識表示中非常重要,邏輯推理規(guī)則是當(dāng)前主要推理規(guī)則??梢栽跈C(jī)器中用邏輯符號定義每一個(gè)邏輯命題,然后再讓機(jī)器存儲相應(yīng)的邏輯推理規(guī)則,那么自然而然機(jī)器便可進(jìn)行推理。
當(dāng)前知識表達(dá)有許多困境尚無法解決,比如:創(chuàng)建一個(gè)完備的知識庫幾乎不可能,所以知識庫的資源受到限制;先驗(yàn)知識的正確性需要進(jìn)行檢驗(yàn),而且先驗(yàn)知識有時(shí)候不一定是只有對或者錯(cuò)兩種選擇。
本體論將知識表示為一個(gè)領(lǐng)域內(nèi)的一組概念以及這些概念之間的關(guān)系(圖片來自維基百科)
規(guī)劃
智能主體必須能夠制定目標(biāo)和實(shí)現(xiàn)這些目標(biāo)。他們需要一種方法來創(chuàng)建一個(gè)可預(yù)測的世界模型(將整個(gè)世界狀態(tài)用數(shù)學(xué)模型表現(xiàn)出來,并能預(yù)測它們的行為將如何改變這個(gè)世界),這樣就可以選擇功效最大的行為。
在傳統(tǒng)的規(guī)劃問題中,智能主體被假定它是世界中唯一具有影響力的,所以它要做出什么行為是已經(jīng)確定的。但是,如果事實(shí)并非如此,它必須定期檢查世界模型的狀態(tài)是否和自己的預(yù)測相匹配。
如果不匹配,它必須改變它的計(jì)劃。因此智能代理必須具有在不確定結(jié)果的狀態(tài)下推理的能力。在多智能主體中,多個(gè)智能主體規(guī)劃以合作和競爭的方式去完成一定的目標(biāo),使用演化算法和群體智能可以達(dá)成一個(gè)整體的突現(xiàn)行為目標(biāo)。
機(jī)器學(xué)習(xí)
機(jī)器學(xué)習(xí)的主要目的是為了讓機(jī)器從用戶和輸入數(shù)據(jù)等處獲得知識,從而讓機(jī)器自動(dòng)地去判斷和輸出相應(yīng)的結(jié)果。這一方法可以幫助解決更多問題、減少錯(cuò)誤,提高解決問題的效率。
對于人工智能來說,機(jī)器學(xué)習(xí)從一開始就很重要。1956年,在最初的達(dá)特茅斯夏季會(huì)議上,雷蒙德·索洛莫諾夫(Ray Solomonoff)寫了一篇關(guān)于非監(jiān)督的概率性機(jī)器學(xué)習(xí):一臺歸納推理機(jī)。
機(jī)器學(xué)習(xí)的方法各種各樣,主要分為監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)兩大類。
監(jiān)督學(xué)習(xí):指事先給定機(jī)器一些訓(xùn)練樣本并且告訴樣本的類別,然后根據(jù)這些樣本的類別進(jìn)行訓(xùn)練,提取出這些樣本的共同屬性或者訓(xùn)練一個(gè)分類器,等新來一個(gè)樣本,則通過訓(xùn)練得到的共同屬性或者分類器進(jìn)行判斷該樣本的類別。監(jiān)督學(xué)習(xí)根據(jù)輸出結(jié)果的離散性和連續(xù)性,分為分類和回歸兩類。
非監(jiān)督學(xué)習(xí):是不給定訓(xùn)練樣本,直接給定一些樣本和一些規(guī)則,讓機(jī)器自動(dòng)根據(jù)一些規(guī)則進(jìn)行分類。無論哪種學(xué)習(xí)方法都會(huì)進(jìn)行誤差分析,從而知道所提的方法在理論上是否誤差有上限。
自然語言處理
自然語言處理探討如何處理及運(yùn)用自然語言,自然語言認(rèn)知?jiǎng)t是指讓計(jì)算機(jī)“懂”人類的語言。自然語言生成系統(tǒng)把計(jì)算機(jī)數(shù)據(jù)轉(zhuǎn)化為自然語言。自然語言理解系統(tǒng)把自然語言轉(zhuǎn)化為計(jì)算機(jī)程序更易于處理的形式。
運(yùn)動(dòng)和控制
機(jī)器感知是指能夠使用感測器所輸入的數(shù)據(jù)(如照相機(jī)、麥克風(fēng)、聲納以及其他的特殊感測器)然后推斷世界的狀態(tài)。計(jì)算機(jī)視覺能夠分析影像輸入。另外還有語音識別、人臉識別和物體識別。
社交
情感和社交技能對于一個(gè)智能主體是很重要的。首先,通過了解他們的動(dòng)機(jī)和情感狀態(tài),代理人能夠預(yù)測別人的行動(dòng)(這涉及要素博弈論、決策理論以及能夠塑造人的情感和情緒感知能力檢測)。此外,為了良好的人機(jī)交互,智能代理人也需要表現(xiàn)出情緒來。至少它必須出現(xiàn)禮貌地和人類打交道。至少,它本身應(yīng)該有正常的情緒。
Kismet,一個(gè)具有表情等社交能力的機(jī)器人
創(chuàng)造力
一個(gè)人工智能的子領(lǐng)域,代表了理論(從哲學(xué)和心理學(xué)的角度)和實(shí)際(通過特定的實(shí)現(xiàn)產(chǎn)生的系統(tǒng)的輸出是可以考慮的創(chuàng)意,或系統(tǒng)識別和評估創(chuàng)造力)所定義的創(chuàng)造力。相關(guān)領(lǐng)域研究的包括了人工直覺和人工想像。
倫理管理
史蒂芬·霍金、比爾·蓋茨、馬斯克(Elon Musk)、Jaan Tallinn以及Nick Bostrom等人都對于人工智能技術(shù)的未來公開表示憂心,人工智能若在許多方面超越人類智能水平的智能、不斷更新、自我提升,進(jìn)而獲取控制管理權(quán),人類是否有足夠的能力及時(shí)停止人工智能領(lǐng)域的“軍備競賽”,能否保有最高掌控權(quán)?現(xiàn)有事實(shí)是:機(jī)器常失控導(dǎo)致人員傷亡,這樣的情況是否會(huì)更加擴(kuò)大規(guī)模出現(xiàn),歷史顯然無法給出可靠的樂觀答案。
馬斯克在麻省理工學(xué)院(MIT)航空航天部門百年紀(jì)念研討會(huì)上稱人工智能是“召喚惡魔”行為,英國發(fā)明家Clive Sinclair認(rèn)為,一旦開始制造抵抗人類和超越人類的智能機(jī)器,人類可能很難生存,蓋茨同意馬斯克和其它人所言,且不知道為何有些人不擔(dān)憂這個(gè)問題。
DeepMind的人工智能(AI)系統(tǒng)在2016年“AlphaGo”對戰(zhàn)韓國棋王李世乭獲勝,開發(fā)商表示在內(nèi)部設(shè)立倫理委員會(huì),針對人工智能的應(yīng)用制定政策,防范人工智能淪為犯罪開發(fā)者。
隨著科技進(jìn)步,人工智能科技產(chǎn)生“自主武器”軍備競賽已悄悄展開,英國、以色列與挪威,都已部署自主導(dǎo)彈與無人操控的無人機(jī),具有“射后不理”(fire-and-forget)能力的導(dǎo)彈,多枚導(dǎo)彈還可互相溝通,分享找到攻擊目標(biāo)。目前,這些武器還未被大量投入,但很快就會(huì)出現(xiàn)在戰(zhàn)場上,且并非使用人類所設(shè)計(jì)的程序,而是完全利用機(jī)器自行決策。
霍金等人在英國獨(dú)立報(bào)發(fā)表文章,警告未來人工智能可能會(huì)比人類金融市場、科學(xué)家、人類領(lǐng)袖更能操縱人心、甚至研發(fā)出人們無法理解的武器。專家恐發(fā)展到無法控制的局面,援引聯(lián)合國禁止研發(fā)某些特定武器的“特定常規(guī)武器公約”加以限制。新南威爾士大學(xué)(New South Wales)人工智能的沃爾什(Toby Walsh)教授認(rèn)為這是一種欺騙,因?yàn)闄C(jī)器無區(qū)別戰(zhàn)敵和平民的技術(shù)。
經(jīng)濟(jì)沖擊
CNN財(cái)經(jīng)網(wǎng)數(shù)字媒體未來學(xué)家兼Webbmedia集團(tuán)創(chuàng)始人艾米·韋伯(Amy Webb);美國在線等紛紛預(yù)測一些即將被機(jī)器人取代的職業(yè),日本野村總合研究所也與英國牛津大學(xué)的研究學(xué)者共同調(diào)查指出,10至20年后,日本有49%的職業(yè)(235種職業(yè))可能會(huì)被機(jī)械和人工智能取代而消失,直接影響約達(dá)2500萬人。
例如:超市店員、一般事務(wù)員、計(jì)程車司機(jī)、收費(fèi)站運(yùn)營商和收銀員、市場營銷人員、客服人員、制造業(yè)工人、金融中間人和分析師、新聞?dòng)浾摺㈦娫捁韭殕T、麻醉師、士兵和保安、律師、醫(yī)生、軟件開發(fā)者和操盤手、股票交易員等等高薪酬的腦力職業(yè)將最先受到?jīng)_擊。
2017年6月份馬云在美國底特律舉行“鏈接世界”(Gateway 17)產(chǎn)業(yè)大會(huì)上提出,人工智能可能導(dǎo)致第三次世界大戰(zhàn)。
因?yàn)榍皟纱萎a(chǎn)業(yè)革命都導(dǎo)致兩次大戰(zhàn),戰(zhàn)爭原因并非這些創(chuàng)新發(fā)明本身,而是發(fā)明對社會(huì)上許多人的生活方式?jīng)_擊處理不當(dāng),新科技在社會(huì)上產(chǎn)生新工作也取代舊工作,產(chǎn)生了新的輸家和贏家,若是輸家的人數(shù)太多將造成一股社會(huì)不穩(wěn)的能量而這股能量被有心人利用可能導(dǎo)致各種事件。
他認(rèn)為各國應(yīng)該強(qiáng)制制定規(guī)定:人工智能機(jī)器只能用于人類不能做的工作,避免短時(shí)間大量人類被取代的失業(yè)大潮,但馬云沒有提出這種世界性規(guī)定將如何實(shí)現(xiàn)并確保遵守的細(xì)節(jié)方案。
數(shù)據(jù)科學(xué)和人工能被哈佛商業(yè)評論稱為《二十一世紀(jì)最Sexy的職業(yè)》,人工智能需求量大,鼓勵(lì)了不少大學(xué)諸如伯克利大學(xué)專門成立數(shù)據(jù)科學(xué)系。2014年,著名的《數(shù)據(jù)孵化器(The Data Incubator)》公司成立于紐約,主要提供數(shù)據(jù)科學(xué)培訓(xùn)服務(wù),涉及的服務(wù)內(nèi)容包括數(shù)據(jù)科學(xué),大數(shù)據(jù),和人工智能的企業(yè)培訓(xùn)。
5
強(qiáng)人工智能和弱人工智能
人工智能的一個(gè)比較流行的定義,也是該領(lǐng)域較早的定義,是由當(dāng)時(shí)麻省理工學(xué)院的約翰·麥卡錫(John McCarthy)在1956年的達(dá)特矛斯會(huì)議上提出的:人工智能就是要讓機(jī)器的行為看起來就像是人所表現(xiàn)出的智能行為一樣。但是這個(gè)定義似乎忽略了強(qiáng)人工智能的可能性。
另一個(gè)定義指人工智能是人造機(jī)器所表現(xiàn)出來的智能。
總體來講,當(dāng)前對人工智能的定義大多可劃分為四類,即機(jī)器“像(like)人一樣思考”、“像人一樣行動(dòng)”、“理性地思考”和“理性地行動(dòng)”。這里“行動(dòng)”應(yīng)廣義地理解為采取行動(dòng),或制定行動(dòng)的決策,而不是肢體動(dòng)作。
強(qiáng)人工智能
強(qiáng)人工智能觀點(diǎn)認(rèn)為“有可能”制造出“真正”能推理(Reasoning)和解決問題的智能機(jī)器,并且,這樣的機(jī)器將被認(rèn)為是具有知覺、有自我意識的。
強(qiáng)人工智能可以有兩類:
人類的人工智能,即機(jī)器的思考和推理就像人的思維一樣。
非人類的人工智能,即機(jī)器產(chǎn)生了和人完全不一樣的知覺和意識,使用和人完全不一樣的推理方式。
弱人工智能
弱人工智能觀點(diǎn)認(rèn)為,“不可能”制造出能“真正”地推理和解決問題的智能機(jī)器,這些機(jī)器只不過“看起來”像是智能的,但是并不真正擁有智能,也不會(huì)有自主意識。
弱人工智能是對比強(qiáng)人工智能才出現(xiàn)的,因?yàn)槿斯ぶ悄艿难芯恳欢忍幱谕磺暗臓顟B(tài)下,直到類神經(jīng)網(wǎng)絡(luò)有了強(qiáng)大的運(yùn)算能力加以模擬后,才開始改變并大幅超前。但人工智能研究者不一定同意弱人工智能,也不一定在乎或者了解強(qiáng)人工智能和弱人工智能的內(nèi)容與差別,因此對定義爭論不休。
就當(dāng)下的人工智能研究領(lǐng)域來看,研究者已大量造出“看起來”像是智能的機(jī)器,獲取相當(dāng)豐碩的理論上和實(shí)質(zhì)上的成果。
如2009年康乃爾大學(xué)教授Hod Lipson和其博士研究生Michael Schmidt 研發(fā)出的Eureqa計(jì)算機(jī)程序,只要給予一些數(shù)據(jù),這計(jì)算機(jī)程序自己只用幾十個(gè)小時(shí)計(jì)算就推論出牛頓花費(fèi)多年研究才發(fā)現(xiàn)的牛頓力學(xué)公式,等于只用幾十個(gè)小時(shí)就自己重新發(fā)現(xiàn)牛頓力學(xué)公式,這計(jì)算機(jī)程序也能用來研究很多其他領(lǐng)域的科學(xué)問題上。
這些所謂的弱人工智能在神經(jīng)網(wǎng)絡(luò)發(fā)展下已經(jīng)有巨大進(jìn)步,但對于要如何集成成強(qiáng)人工智能,現(xiàn)在還沒有明確定論。
對強(qiáng)人工智能的哲學(xué)爭論
“強(qiáng)人工智能”一詞最初是約翰·羅杰斯·希爾勒(John Rogers Searle)針對計(jì)算機(jī)和其它信息處理機(jī)器創(chuàng)造的,其定義為:“強(qiáng)人工智能觀點(diǎn)認(rèn)為計(jì)算機(jī)不僅是用來研究人的思維的一種工具;相反,只要運(yùn)行適當(dāng)?shù)某绦颍?jì)算機(jī)本身就是有思維的?!保↗ Searle in Minds Brains and Programs. The Behavioral and Brain Sciences, vol. 3, 1980)
關(guān)于強(qiáng)人工智能的爭論,不同于更廣義的一元論和二元論的爭論。其爭論要點(diǎn)是:如果一臺機(jī)器的唯一工作原理就是轉(zhuǎn)換編碼數(shù)據(jù),那么這臺機(jī)器是不是有思維的?
希爾勒認(rèn)為,這是不可能的。他用中文房間(Chinese room)的實(shí)驗(yàn)來說明,如果機(jī)器僅僅是轉(zhuǎn)換數(shù)據(jù),而數(shù)據(jù)本身是對某些事情的一種編碼表現(xiàn),那么,在不理解這一編碼和這實(shí)際事情之間的對應(yīng)關(guān)系的前提下,機(jī)器不可能對其處理的數(shù)據(jù)有任何理解?;谶@一論點(diǎn),希爾勒認(rèn)為即使有機(jī)器通過了圖靈測試,也不一定說明機(jī)器就真的像人一樣有自我思維和自由意識。
中文房間的實(shí)驗(yàn)過程可表述如下:
一個(gè)對中文一竅不通,只說英語的人關(guān)在一間只有一個(gè)開口的封閉房間中。房間里有一本用英文寫成的手冊,指示該如何處理收到的漢語訊息及如何以漢語相應(yīng)地回復(fù)。房外的人不斷向房間內(nèi)遞進(jìn)用中文寫成的問題。房內(nèi)的人便按照手冊的說明,查找到合適的指示,將相應(yīng)的中文字符組合成對問題的解答,并將答案遞出房間。
約翰·希爾勒認(rèn)為,盡管房里的人可以以假亂真,讓房外的人以為他確確實(shí)實(shí)說漢語,他卻壓根不懂漢語。在上述過程中,房外人的角色相當(dāng)于程序員,房中人相當(dāng)于計(jì)算機(jī),而手冊則相當(dāng)于計(jì)算機(jī)程序:每當(dāng)房外人給出一個(gè)輸入,房內(nèi)的人便依照手冊給出一個(gè)答復(fù)(輸出)。而正如房中人不可能通過手冊理解中文一樣,計(jì)算機(jī)也不可能通過程序來獲得理解力。既然計(jì)算機(jī)沒有理解能力,所謂“計(jì)算機(jī)于是便有智能”便更無從談起了。
也有哲學(xué)家對此持不同的觀點(diǎn)。丹尼爾·丹尼特在其著作《意識的解釋(Consciousness Explained)》里認(rèn)為,人也不過是一臺有靈魂的機(jī)器而已,為什么我們認(rèn)為:“人可以有智能,而普通機(jī)器就不能”呢?他認(rèn)為像上述的數(shù)據(jù)轉(zhuǎn)換機(jī)器是有可能有思維和意識的。
“所有人都認(rèn)為,人是擁有智能的,而人的智能決策來自于腦細(xì)胞的電信號轉(zhuǎn)換,每一個(gè)腦細(xì)胞并不理解單詞的意義,只是簡單的緩沖、傳遞或抑制一個(gè)電信號,腦細(xì)胞創(chuàng)造了語法規(guī)則,創(chuàng)造了決策策略(相當(dāng)于規(guī)則書與不懂中文的人),但是它們并不懂每個(gè)單詞的意義。而人類卻顯示出與人溝通的能力。如果按照希爾勒的觀點(diǎn),那么人類也不存在認(rèn)知能力,但這與事實(shí)是不符的。所以依然可以認(rèn)為若某段計(jì)算機(jī)程序,能夠完成圖靈測試,則說明該段計(jì)算機(jī)程序具有認(rèn)知能力”。
然而,此一觀點(diǎn)也被提出存在兩項(xiàng)根源性謬誤,以至甚至被認(rèn)為錯(cuò)誤理解“中文房間”概念。
其一為此論過于倚賴“智能決策來自于腦細(xì)胞的電信號轉(zhuǎn)換”此一前題,并將人類作出智能決策時(shí),涉及腦細(xì)胞電信號轉(zhuǎn)換的現(xiàn)象,錯(cuò)誤地演繹為“智能決策‘唯獨(dú)’由腦細(xì)胞的電信號轉(zhuǎn)換‘所產(chǎn)生’”。
此演繹不但從未被證明過,也無足夠證據(jù)支持。
其次,此說只能推導(dǎo)出“單獨(dú)一個(gè)腦細(xì)胞的緩沖、傳遞或抑制一個(gè)電信號,不能使其理解單詞的意義”而已,至于腦細(xì)胞(集體)如何創(chuàng)造語法規(guī)則、決策策略,是否單純倚靠個(gè)別腦細(xì)胞的緩沖、傳遞或抑制電信號等等,并未作出任何合理推論;
同時(shí)也忽略了“單獨(dú)一個(gè)腦細(xì)胞”與一個(gè)擁有智能的人類之間,后者包涵前者、前者與眾多他者組成后者等復(fù)雜關(guān)系,便直接將“單獨(dú)一個(gè)腦細(xì)胞不理解單詞的意義而人類擁有智能”此一現(xiàn)實(shí),用作否定“機(jī)器不能透過程序獲得理解能力”與及“智能直接關(guān)系于理解能力”的根據(jù),其邏輯難以明白,推演也過于草率。
有的哲學(xué)家認(rèn)為如果弱人工智能是可實(shí)現(xiàn)的,那么強(qiáng)人工智能也是可實(shí)現(xiàn)的。
比如西蒙·布萊克本(Simon Blackburn)在其哲學(xué)入門教材《Think》里說到:一個(gè)人的看起來是“智能”的行動(dòng),并不能真正說明這個(gè)人就真的是智能的。我永遠(yuǎn)不可能知道,另一個(gè)人是否真的像我一樣是智能的,還是說她/他僅僅是“看起來”是智能的。
基于這個(gè)論點(diǎn),既然弱人工智能認(rèn)為可以令機(jī)器“看起來”像是智能的,那就不能完全否定這機(jī)器是真的有智能的。布萊克本認(rèn)為這是一個(gè)主觀認(rèn)定的問題。
需要指出的是,弱人工智能并非和強(qiáng)人工智能完全對立,也就是說,即使強(qiáng)人工智能是可能的,弱人工智能仍然是有意義的。至少,今日的計(jì)算機(jī)能做的事,像算術(shù)運(yùn)算等,在一百多年前是被認(rèn)為很需要智能的。
并且,即使強(qiáng)人工智能被證明為可能的,也不代表強(qiáng)人工智能必定能被研制出來。
6
研究方法
當(dāng)前沒有統(tǒng)一的原理或范式指導(dǎo)人工智能研究。在許多問題上,研究者都存在爭論。
其中幾個(gè)長久以來仍沒有結(jié)論的問題是:是否應(yīng)從心理或神經(jīng)方面模擬人工智能?或者像鳥類生物學(xué)對于航空工程一樣,人類生物學(xué)對于人工智能研究是沒有關(guān)系的?智能行為能否用簡單的原則(如邏輯或優(yōu)化)來描述?還是必須解決大量完全無關(guān)的問題?
智能是否可以使用高級符號表達(dá),如詞和想法?還是需要“子符號”的處理?約翰·豪格蘭德(John Haugeland)提出了GOFAI(Good Old-Fashioned Artificial Intelligence,有效的老式人工智能)的概念,也提議人工智能應(yīng)歸類為綜合智能(synthetic intelligence),這個(gè)概念后來被某些非GOFAI研究者采納。
控制論與大腦模擬
20世紀(jì)40年代到50年代,許多研究者探索神經(jīng)學(xué)、信息理論及控制論之間的聯(lián)系。其中還造出一些使用電子網(wǎng)絡(luò)構(gòu)造的初步智能,如格雷·華特(W. Grey Walter)的烏龜(turtle)和約翰霍普金斯野獸(Johns Hopkins Beast)。
這些研究者還經(jīng)常在普林斯頓大學(xué)和英國的Ratio Club舉行技術(shù)協(xié)會(huì)會(huì)議。[41]直到1960,大部分人已經(jīng)放棄這個(gè)方法,盡管在80年代再次提出這些原理。
符號處理
當(dāng)20世紀(jì)50年代,數(shù)字計(jì)算機(jī)研制成功,研究者開始探索人類智能是否能簡化成符號處理。研究主要集中在卡內(nèi)基梅隆大學(xué),斯坦福大學(xué)和麻省理工學(xué)院,而各自有獨(dú)立的研究風(fēng)格。約翰·豪格蘭德(John Haugeland)稱這些方法為GOFAI(有效的老式人工智能)。1960年代,符號方法在小型證明程序上模擬高級思考有很大的成就?;诳刂普摶蛏窠?jīng)網(wǎng)絡(luò)的方法則置于次要。1960-1970年代的研究者確信符號方法最終可以成功創(chuàng)造強(qiáng)人工智能的機(jī)器,同時(shí)這也是他們的目標(biāo)。
認(rèn)知模擬
經(jīng)濟(jì)學(xué)家赫伯特·西蒙(Herbert Alexander Simon)和艾倫·紐厄爾(Allen Newell)研究人類問題解決能力和嘗試將其形式化,同時(shí)他們?yōu)槿斯ぶ悄艿幕驹泶蛳禄A(chǔ),如認(rèn)知科學(xué)、運(yùn)籌學(xué)和經(jīng)營科學(xué)。他們的研究團(tuán)隊(duì)使用心理學(xué)實(shí)驗(yàn)的結(jié)果開發(fā)模擬人類解決問題方法的程序。這方法一直在卡內(nèi)基梅隆大學(xué)沿襲下來,并在1980年代于Soar發(fā)展到高峰。
基于邏輯
不像艾倫·紐厄爾和赫伯特·西蒙,約翰·麥卡錫(John McCarthy)認(rèn)為機(jī)器不需要模擬人類的思想,而應(yīng)嘗試找到抽象推理和解決問題的本質(zhì),不管人們是否使用同樣的算法。他在斯坦福大學(xué)的實(shí)驗(yàn)室致力于使用形式化邏輯解決多種問題,包括知識表示,智能規(guī)劃和機(jī)器學(xué)習(xí)。致力于邏輯方法的還有愛丁堡大學(xué),而促成歐洲的其他地方開發(fā)編程語言Prolog和邏輯編程科學(xué)。
“反邏輯”
斯坦福大學(xué)的研究者,如馬文·閔斯基(Marvin Lee Minsky)和西摩爾·派普特(Seymour Aubrey Papert)發(fā)現(xiàn)要解決計(jì)算機(jī)視覺和自然語言處理的困難問題,需要專門的方案:他們主張不存在簡單和通用原理(如邏輯)能夠達(dá)到所有的智能行為。羅杰·單克(Roger Schank)描述他們的“反邏輯”方法為“蕪雜派(scruffy)”。
常識知識庫(如道格拉斯·萊納特的Cyc)就是“scruffy”AI的例子,因?yàn)樗麄儽仨毴斯ひ淮尉帉懸粋€(gè)復(fù)雜的概念。
基于知識
大約在1970年出現(xiàn)大容量內(nèi)存計(jì)算機(jī),研究者分別以三個(gè)方法開始把知識構(gòu)造成應(yīng)用軟件。這場“知識革命”促成專家系統(tǒng)的開發(fā)與計(jì)劃,這是第一個(gè)成功的人工智能軟件形式?!爸R革命”同時(shí)讓人們意識到,許多簡單的人工智能軟件可能需要大量的知識。
子符號方法
1980年代,符號人工智能停滯不前,很多人認(rèn)為符號系統(tǒng)永遠(yuǎn)不可能模仿人類所有的認(rèn)知過程,特別是感知、機(jī)器人、機(jī)器學(xué)習(xí)和模式識別。很多研究者開始關(guān)注子符號方法解決特定的人工智能問題。
自下而上、接口主體、嵌入環(huán)境(機(jī)器人)、行為主義、新式AI
機(jī)器人領(lǐng)域相關(guān)的研究者,如羅德尼·布魯克斯(Rodney Brooks),否定符號人工智能而專注于機(jī)器人移動(dòng)和求生等基本的工程問題。他們的工作再次關(guān)注早期控制論研究者的觀點(diǎn),同時(shí)提出了在人工智能中使用控制理論。這與認(rèn)知科學(xué)領(lǐng)域中的表征感知論點(diǎn)是一致的:更高的智能需要個(gè)體的表征(如移動(dòng),感知和形象)。
計(jì)算智能
1980年代中大衛(wèi)·魯姆哈特(David E. Rumelhart)等再次提出神經(jīng)網(wǎng)絡(luò)和聯(lián)結(jié)主義。這和其他的子符號方法,如模糊控制和進(jìn)化計(jì)算,都屬于計(jì)算智能學(xué)科研究范疇。
統(tǒng)計(jì)學(xué)方法
1990年代,人工智能研究發(fā)展出復(fù)雜的數(shù)學(xué)工具來解決特定的分支問題。這些工具是真正的科學(xué)方法,即這些方法的結(jié)果是可測量的和可驗(yàn)證的,同時(shí)也是近期人工智能成功的原因。共享的數(shù)學(xué)語言也允許已有學(xué)科的合作(如數(shù)學(xué),經(jīng)濟(jì)或運(yùn)籌學(xué))。
Stuart J. Russell和Peter Norvig指出,這些進(jìn)步不亞于“革命”和“簡約派(neats)的成功”。有人批評這些技術(shù)太專注于特定的問題,而沒有考慮長遠(yuǎn)的強(qiáng)人工智能目標(biāo)。
集成方法
智能主體范式
智能主體是一個(gè)會(huì)感知環(huán)境并作出行動(dòng)以達(dá)致目標(biāo)的系統(tǒng)。最簡單的智能主體是那些可以解決特定問題的程序。更復(fù)雜的主體包括人類和人類組織(如公司)。
這些范式可以讓研究者研究單獨(dú)的問題和找出有用且可驗(yàn)證的方案,而不需考慮單一的方法。一個(gè)解決特定問題的主體可以使用任何可行的方法,一些主體用符號方法和邏輯方法,一些則是子符號神經(jīng)網(wǎng)絡(luò)或其他新的方法。范式同時(shí)也給研究者提供一個(gè)與其他領(lǐng)域溝通的共同語言,如決策論和經(jīng)濟(jì)學(xué),也使用抽象主體(abstract agents)的概念。1990年代,智能主體范式被廣泛接受。
主體體系結(jié)構(gòu)和認(rèn)知體系結(jié)構(gòu):
研究者設(shè)計(jì)出一些系統(tǒng),來處理多主體系統(tǒng)中智能主體之間的相互作用。一個(gè)系統(tǒng)中包含符號和子符號部分的系統(tǒng),稱為混合智能系統(tǒng),而對這種系統(tǒng)的研究則是人工智能系統(tǒng)集成。分級控制系統(tǒng)則給反應(yīng)級別的子符號AI和最高級別的傳統(tǒng)符號AI提供橋梁,同時(shí)放寬了規(guī)劃和世界建模的時(shí)間。
7
人工智能的實(shí)際應(yīng)用包括:
機(jī)器視覺、指紋識別、人臉識別、視網(wǎng)膜識別、虹膜識別、掌紋識別、專家系統(tǒng)、自動(dòng)規(guī)劃等。
人工智能的應(yīng)用領(lǐng)域包括:
智能控制,機(jī)器人學(xué),自動(dòng)化技術(shù),語言和圖像理解,遺傳編程,法學(xué)信息系統(tǒng),下棋,醫(yī)學(xué)領(lǐng)域。
人工智能是一門邊緣學(xué)科,屬于自然科學(xué)和社會(huì)科學(xué)的交叉。
人工智能的學(xué)科范疇包括:
認(rèn)知科學(xué),數(shù)學(xué)及統(tǒng)計(jì)學(xué),物理學(xué),邏輯學(xué),控制論及決定論,社會(huì)學(xué),犯罪學(xué)及智能犯罪學(xué)。
人工智能的研究范疇包括:
自然語言處理(NLP; Natural Language Processing)
知識表現(xiàn)(Knowledge Representation)
智能搜索(Intelligent Search)
推理(Reasoning)
規(guī)劃(Planning)
機(jī)器學(xué)習(xí)(Machine Learning)
增強(qiáng)式學(xué)習(xí)(Reinforcement Learning)
知識獲?。↘nowledge acquisition)
感知問題(Perception Problems)
模式識別(Pattern Recognition)
邏輯程序設(shè)計(jì)(Logic Programming)
軟計(jì)算(Soft Computing)
不精確和不確定的管理(Imprecision and Uncertainty Management)
人工生命(Artificial Life)
人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network)
復(fù)雜系統(tǒng)(Complex System)
遺傳算法(Genetic Algorithm(GA))
數(shù)據(jù)挖掘(Data Mining)
模糊控制(Fuzzy Control)。
8
1997年5月11日,深藍(lán)成為戰(zhàn)勝國際象棋世界冠軍卡斯帕羅夫的第一個(gè)計(jì)算機(jī)系統(tǒng)。
2005年,Stanford開發(fā)的一臺機(jī)器人在一條沙漠小徑上成功地自動(dòng)行駛了131英里,贏得了DARPA挑戰(zhàn)大賽頭獎(jiǎng)。
2009年,藍(lán)腦計(jì)劃聲稱已經(jīng)成功地模擬了部分鼠腦。
2011年,IBM沃森參加《危險(xiǎn)邊緣》節(jié)目,在最后一集打敗了人類選手。
2016年3月,AlphaGo擊敗李世石,成為第一個(gè)不讓子而擊敗職業(yè)圍棋棋士的電腦圍棋程式。
2017年5月,AlphaGo在中國烏鎮(zhèn)圍棋峰會(huì)的三局比賽中擊敗當(dāng)時(shí)世界排名第一的中國棋手柯潔。
這些成就的取得并不是因?yàn)榉妒缴系母锩K鼈內(nèi)匀皇枪こ碳夹g(shù)的復(fù)雜應(yīng)用,但是計(jì)算機(jī)性能已經(jīng)今非昔比了。事實(shí)上,深藍(lán)計(jì)算機(jī)比克里斯多?!に固乩灼妫–hristopher Strachey)在1951年用來下棋的Ferranti Mark 1快一千萬倍。這種劇烈增長可以用摩爾定律描述:計(jì)算速度和內(nèi)存容量每兩年翻一番。計(jì)算性能上的基礎(chǔ)性障礙已被逐漸克服。
現(xiàn)在,最先進(jìn)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)在某些領(lǐng)域已經(jīng)能夠達(dá)到甚至超過人類平均準(zhǔn)確率,例如在計(jì)算機(jī)視覺領(lǐng)域,特別是一些具體的任務(wù)上,比如MNIST數(shù)據(jù)集(一個(gè)手寫數(shù)字識別數(shù)據(jù)集)、交通信號燈識別等。再如游戲領(lǐng)域,Google的deepmind團(tuán)隊(duì)研發(fā)的AlaphaGo,在問題搜索復(fù)雜度極高的圍棋上,已經(jīng)打遍天下無敵手。
那么,人工智能的未來會(huì)如何發(fā)展?
牛津大學(xué)人類未來研究院的院長,哲學(xué)家和超人類主義學(xué)家尼克?波斯特洛姆所預(yù)言的超級智能會(huì)被人類創(chuàng)造出來嗎?
史蒂芬·霍金、比爾·蓋茨、馬斯克等人的擔(dān)憂會(huì)變成事實(shí)嗎?
人工智能是天使還是滅霸?人工智能真的會(huì)成為壓垮人類的最后一根稻草嗎?
誰也無法預(yù)知。
正如美國哲學(xué)家、作家及認(rèn)知科學(xué)家Daniel C. Dennett教授在《人工智能會(huì)有意識嗎?問題問錯(cuò)了》一文中所陳述的那樣:“.......所以我們在創(chuàng)造的(人工智能)并不是——也不應(yīng)該是——有意識的類人主體,而是一種全新的存在?;蛟S它們更像圣人,沒有良心,不懼死亡,不受愛與恨干擾,沒有性格(但是各種各樣的弱點(diǎn)和怪癖無疑將被認(rèn)作該系統(tǒng)的“個(gè)性”):真理的盒子里(如果我們足夠幸運(yùn))幾乎總是散落著各種錯(cuò)誤。
與人工智能一起生活,我們很難不去分心想象它們會(huì)以何種奇特的方式奴役(字面意義上的)我們。人對人的用處很快將被再一次永久的改變,但我們可以把握這個(gè)改變的方向;如果我們對人類前進(jìn)的道路負(fù)起責(zé)任,就能避開危險(xiǎn)。”