記憶哲學能夠為人工智能(AI)的發(fā)展提供很好的理論根據(jù),并可能會成為智能時代哲學出場的有效方式。主要表現(xiàn)為如下五個方面:(1)從發(fā)展爭論看,記憶觀念能夠澄清“強弱”AI爭論的實質(zhì);(2)從發(fā)展基礎看,記憶分類為AI發(fā)展提供了必要的理論基礎;(3)從發(fā)展方向看,記憶模式?jīng)Q定了AI發(fā)展方向:如何形成通用智能;(4)從發(fā)展危機看,災難性遺忘是制約通用AI形成的一個根本性危機;(5)智能體能否作為回憶主體存在將會是人工智能發(fā)展面臨的極大問題,而回憶與記憶關系的澄清將明晰這一問題的關鍵。本文轉(zhuǎn)載自《探索與爭鳴》雜志2018年11月刊。
電影《銀翼殺手2049》劇照
在人工智能的發(fā)展過程中,眾多相關學科中哲學的作用極易忽視,甚至被擠壓到以“倫理問題”的名義存在的領域。盡管科學家與哲學家在后果論上達成了一致,雙方以極大熱情投入到人工智能倫理問題的研究中,并形成了二者交往的主導方式,但這對于哲學自身的發(fā)展來說依然不夠。且不說哲學家與科學家共同聯(lián)手探索人工智能的倫理問題中依然存在一些問題:如基本范疇存在分歧、對話需要繼續(xù)深入。如果將人工智能時代哲學出場的方式僅僅定位為倫理路徑,這未免過于狹窄了。幸運的是,我們也看到很多學者從不同視角拓展著哲學的路徑,如機器智能的主體性、智能社會發(fā)展的挑戰(zhàn)。本文試圖對從記憶哲學角度闡述哲學對于人工智能發(fā)展提供的洞見:記憶哲學提供了一種思考AI的視野,即從記憶角度能夠很好地理解和解釋AI的發(fā)展的理論基礎、存在的理論爭論、未來的發(fā)展方向及其可能面臨的危機。在進入分析之前,需要說明的是,記憶哲學提出的三個原則是:(1)記憶是時間意識及其意識現(xiàn)象得以產(chǎn)生的條件;(2)記憶哲學涵蓋記憶與遺忘兩個維度,缺一不可。(3)記憶與回憶存在著根本區(qū)分。而這三個原則將成為本文反思AI發(fā)展的重要原則。
一、記憶理論與AI發(fā)展爭論
目前關于AI發(fā)展過程中最為有名的爭議是強AI與弱AI之爭,在此基礎上衍生了人工智能三階段發(fā)展理論:弱人工智能、強人工智能和超人工智能。但是在這一觀點中,將記憶放置到弱人工智能的階段。在這種理解中,記憶被看做是信息的存儲,與理智能力是并列形式之一。
上述爭論能否稱得上是范式之爭存在著諸多爭議,按照庫恩的觀點,一個范式必須符合:1)在一定時期內(nèi)科學共同體普遍接受;2)為科學家提供據(jù)以工作的模型、范例。但是在人工智能領域,至少行為主義、聯(lián)想主義和計算主義三大流派之間的內(nèi)戰(zhàn)硝煙始終彌漫著沒有散去,難以實現(xiàn)統(tǒng)一,所以并沒有公認的范式出現(xiàn)。然而它作為技術爭論卻沒有任何問題,所以我們把它稱之為“人工智能領域技術層面的強弱之爭”。這一爭論的實質(zhì)是AI是否能夠具有通用意識。從歷史上看,這一爭論的形成卻與英國計算機科學家圖靈和美國哲學家約翰·塞爾分不開。在圖靈看來,一個機器如果能夠通過人類測試,那么在一定程度上說這個機器就通過了圖靈測試。此時,我們可以說這部通過圖靈測試的機器就屬于強AI。從圖靈的觀點看,目前大部分AI機器只是出于弱的階段,能夠被人識別僅僅是一部機器而已,甚至有時候稱不上是弱,不值得人們?yōu)橹ㄙM太多的測試成本。2015年,一項研究成果顯示出AI已經(jīng)通過了“視覺圖靈測試”。嚴格地說,“通過”是極其日?;蛳矚g被媒體使用的用語,在科學界并不會使用。科學家只是關心更具體的任務實現(xiàn)。而在塞爾看來,一個機器只有具有心智,才是強AI。在二者的分歧中,基本上可以概括出任務實現(xiàn)和自主意識的區(qū)分??茖W家強調(diào)前者,而哲學家則喜歡討論更為普遍的自主意識問題。
圍繞爭論,基本上形成了兩個明顯的派別,一類是科學流派,即AI研究專家認為機器還只是停留在弱的階段,因為AI機器所表現(xiàn)出的行為非常弱智,強AI機器還遠未能到來;另一派是哲學流派,即人文學者和哲學家認為機器已然或者必然進入強的階段,因為機器通過圖靈測試已經(jīng)成為現(xiàn)實,同時還因為機器心靈具有自身演化規(guī)律,通過奇點已經(jīng)成為必然。這兩個派別之間的爭議極大。在科學流派看來,人文學者多是杞人憂天,甚至是像唐吉坷德一樣,朝著AI風車沖擊,有些妄想癥;而在人文學者看來,科學家和工程師目光短淺,只盯住眼下,未能意識到AI發(fā)展的必然。
在強弱之爭的問題上,人工智能三種流派作用各不相同,它們在解釋意識本質(zhì)及其產(chǎn)生的問題上存在差異。首先,對行為主義而言,自主意識不是必要的條件,甚至不需要意識存在假設。這種理論可以從兩個方面做出解釋,其一從機器內(nèi)在原理看,主要源自控制論,其原理“為控制論及感知-動作型控制系統(tǒng)?!?,這是指機器自身的行為而言;其二是從機器與環(huán)境的行為應對關系出發(fā),強調(diào)機器對于環(huán)境的適應行為。如同心理學領域的行為主義,意識存在是無效的假設,在人工智能領域中,意識存在依然是無效假設。其次,對符號主義而言,自主意識就成為必要的條件。這種理論源自數(shù)理邏輯,其原理為物理符號系統(tǒng)(即符號操作系統(tǒng))的連接和推理。這一背后需要意識的存在或者類人意識的存在,而這也不是假設;第三,對聯(lián)結(jié)主義而言,同樣需要自主意識作為必要條件。這種理論源自仿生學,主要原理為模仿人類神經(jīng)網(wǎng)絡及神經(jīng)網(wǎng)絡間的連接機制與學習算法。它們以某種方式為機器心靈的可能性提供了論證。
這三種立場都存在問題。行為主義強調(diào)對環(huán)境做出反應,所以最終不會產(chǎn)生強的人工智能的擔憂,因為最多是對環(huán)境做出的更為人化反應。符號主義和聯(lián)結(jié)主義所存在的問題是陷入到實體主義的立場之中。實體主義探討某類特定的主體實體具有意識,對于AI而言,AI成為一個有自身基礎意識的主體,基礎意識的運行機制與人類似或者以自身的獨特邏輯進行。而這條路徑經(jīng)常會碰到一個無法繞開的悖論:因為意識是人類特定的規(guī)定性,而非人的存在物從實體意義上擁有意識就成為一個無法論證的課題。實體主義的立場將會遭遇來自心靈主義的嚴厲指責。在心靈主義看來,以意向性為特征的只能屬于心靈現(xiàn)象,而作為各種材料組合而成的AI是不可能具備這種意識的。
某種意義上,實體主義將強弱之爭引入到了一個死胡同。面對這種死胡同,記憶哲學的出場顯得非常必要。本文認為,記憶哲學將成為一個可能的出路,它從意識產(chǎn)生過程而不是主體角度對人工智能的意識問題做出解釋。在本文所說記憶哲學中,為了破解強弱之爭陷入的死胡同,我們需要擺脫將記憶看作是信息過程的神經(jīng)科學的觀點,也需要擺脫將記憶看做是心理聯(lián)想或者精神性時間旅行的心理學觀點,而是將記憶看作是時間意識、意識現(xiàn)象及其自主意識產(chǎn)生以及理解智能存在體的歷史條件。在哲學史上,多位哲學家的觀點支持了這一點。德國的黑格爾、布倫塔諾和伽達默爾等共同奠定了這一理論的基礎。
在黑格爾那里,記憶的地位被極大忽略,甚至隱藏在“意識的直接性”底下無法見到天日。從黑格爾的問題自我意識的生成出發(fā),循著他的解決過程會發(fā)現(xiàn)一個有趣的現(xiàn)象:記憶之光在精神的運作中隱隱發(fā)光。他指出“個體不再需要把具體存在轉(zhuǎn)化為自在存在的形式,而僅只需要把已經(jīng)呈現(xiàn)于記憶中的自在存在轉(zhuǎn)化為自為存在的形式?!痹谶@個觀點的表述中,“在記憶之中”是精神發(fā)生的一個形式結(jié)構。因此,可以說黑格爾對記憶的解讀是不同于以往的哲學家,記憶是自在存在之所,自在存在從這里出發(fā)轉(zhuǎn)為自為存在??上У氖牵@個觀點被極大地忽略了。與黑格爾不同,布倫塔諾更多從哲學心理學的角度將記憶看作是觀念的一聯(lián)結(jié)的前提條件。在他看來,記憶是過去的心理現(xiàn)象成為對象的條件。第三位哲學家是伽達默爾,他的解釋學體系對于記憶的定位就是理解人自身存在的歷史條件形式。在漢斯·盧恩(Hans Ruin)看來,《真理與方法》不像表面上看起來那樣與記憶無關,而是有著深刻的關聯(lián)。他指出,伽達默爾所做的事情,是將記憶的理解從心理能力解放出來,而從人的有限的、歷史存在的基本要素的角度來看待。在他看來,伽達默爾是從歷史的、解釋學的理解中來思考記憶的。所以,漢斯的工作主要揭示出兩點值得我們關注:1)記憶不是心理能力(聯(lián)想或者表征能力);2)記憶不是記憶術(保留信息的技巧),而是人的有限的、歷史存在的前提條件。
讓我們再回到AI的強弱之爭中,機器是否具有自我意識?的問題上。如果僅僅將記憶看做是AI進行學習將所獲得的信息被編碼、存儲,并且轉(zhuǎn)化認知的過程,那么這個問題永遠無法解決。如果把記憶看作是機器個體意識產(chǎn)生的前提條件,那么,就可以看到一種可能性的存在。對于AI而言,必要的前提具備了,信息感知、記憶,但是缺乏其他條件還不足以產(chǎn)生出基礎意識。我們需要解釋的是自主意識產(chǎn)生過程中的那個飛躍:所以,如果記憶是意識出現(xiàn)的場域和條件,意識的發(fā)生也就是將存在于記憶之中的存在顯現(xiàn)出來。強人工智能的出現(xiàn)并不是沒有可能,而基于因果關系的意識發(fā)生理論就無法解釋這種飛躍。
二、記憶類型與AI發(fā)展基礎
事實上,記憶已經(jīng)成為制約AI發(fā)展的重要因素,是AI進行學習、決策以及合理行動的基礎。那么與哪些記憶有著密切的關系呢?AI發(fā)展與心理學領域中的記憶分類有著不可分割的關系。20世紀70年代,心理學家為記憶分類劃定了一個穩(wěn)定的框架。1970年美國心理學家繆勒(George A·Miller)提出“短時記憶”的概念,但是他所提出的這個概念只是一個理論推測,缺乏足夠的證據(jù);80年代,加拿大心理學家圖爾文(Endel Tulving)將記憶區(qū)分為語義記憶、情景記憶和程序記憶;1974年英國心理學家艾倫·巴德利(Alan Baddeley)在提出“工作記憶”(working memory)的替代性概念,是指對信息進行短暫加工和存儲的能量有限的記憶系統(tǒng)。這一階段確立的分類框架也被神經(jīng)科學家接受。2004年宮下雅秀(Yasushi Miyashita)在一篇題為《認知記憶:分子和網(wǎng)絡機器以及它們自上向下的控制》接受了這種講法?!伴L期記憶被分為外顯記憶(陳述)和內(nèi)隱記憶(非陳述)。內(nèi)隱記憶無需覺知而影響行為,外顯記憶則進一步被劃分為語義記憶(表示關于世界的一般知識)和情景記憶(表征一個人過去的知識)。這種形式直接運用于人類記憶系統(tǒng)。相似的譜系也可以用于動物記憶,盡管缺乏一些人類記憶的顯著特征。因此,諸如類語義或者類情景記憶用來指動物記憶系統(tǒng)。”這一分類框架可以作為我們分析這一問題的出發(fā)點。
(1)記憶模塊增強了神經(jīng)網(wǎng)絡。一般說來,傳統(tǒng)神經(jīng)網(wǎng)絡只能做到孤立記憶,無法做到連續(xù)記憶,為了克服這一缺陷,科學家提出了循環(huán)神經(jīng)網(wǎng)絡(RNN),但是缺陷是不能進行長期記憶。為了解決這個問題,人工智能學者提出了不同的記憶模式構成的模塊。1997年森普·霍克賴特(Sepp Hochreiter)提出長短期記憶(LSTM),解決了上述神經(jīng)網(wǎng)絡存在的連續(xù)性和長期性記憶問題;2014年維森特(Weston,J)等人提出記憶網(wǎng)絡(Memory Networks),即聯(lián)合存儲器,在此基礎上發(fā)展出許多其他相關模式,如Nested LSTM。這些模式的提出在一定程度上解決了長期記憶的問題。如DeepMind開發(fā)了一款可微神經(jīng)計算機(DNC)的機器學習模型,就是利用了可以讀寫的外部記憶神經(jīng)網(wǎng)絡,極大擴展了神經(jīng)網(wǎng)絡在表征變量和數(shù)據(jù)結(jié)構以及長時間存儲數(shù)據(jù)的能力。同年,他們利用記憶模塊解決了一次性學習(one-shot learning)的問題。
(2)長短期記憶成為AI內(nèi)部機制、算法的必要模塊?;艨速囂睾褪┟滋睾悾↗ürgen Schmidhuber)等人將記憶因素考慮在內(nèi)解決AI的問題并提出了長短期記憶網(wǎng)絡(LSTM)的概念這一思路獲得了廣泛認可。2013年格萊威(Graves)等人運用這一模式解決語言識別(speech recognition)問題;2014年艾莉亞·斯特斯凱威(Ilya Sutskever)等人運用這一模式解決機器翻譯(machine translation)的問題;奧利奧·維尼亞斯( Oriol Vinyals)等人運用這一模式解決了圖像到文字轉(zhuǎn)換的問題。]2015年加拿大學者朱小丹(Xiaodan Zhu)提出了S-LSTM模式用于語言或圖像解析結(jié)構(image parse structures);2016年卡萊克貝納(Kalchbrenner)提出G-LSTM[Grid-LSTM]模式運用于屬性預測(character prediction)、機器翻譯(machine translation )和圖像分類(and image classification)。從這些文章可以看出,AI非常依賴的一個記憶分類是心理學中的長短期記憶。此外,在AI算法上,以記憶為核心的算法起到了比較重要的作用,如循環(huán)神經(jīng)網(wǎng)絡(RNN)中的長短期記憶神經(jīng)網(wǎng)絡(LSTM),但是這種算法始終為認知和推理起鋪墊作用的。其功能是“使用傳統(tǒng)的通過時間的反向傳播(BPTT)或?qū)崟r循環(huán)學習(RTTL),在時間中反向流動的誤差信號往往會爆炸或消失。但LSTM可以通過遺忘和保留記憶機制減少這些問題?!边@也可以看作是在AI領域中記憶附屬于認知的表現(xiàn)形式。“RNN隱藏狀態(tài)的結(jié)構以循環(huán)形成記憶的形式工作,每一時刻的隱藏層狀態(tài)取決于它的過去狀態(tài)。這種結(jié)構使得RNN可以保存、記住和處理長時期的過去復雜信號?!?/p>
(3)工作記憶成為AI發(fā)展過程中制約因素之一。如記憶是智能體(intelligent agents)設計中不可或缺的因素。“推理智能體必須記住它的視覺歷史中相關的片段,忽略不相關的細節(jié),基于新的信息來更新和操作記憶,以及在后面的時間里利用這些記憶做出決策?!惫ぷ饔洃浭且曈X推理中的限制因素之一?!霸谶@項研究工作中,我們解決了視覺推理中的第二項限制,即關于時間和記憶的限制?!薄斑@些隨機生成的三元組能夠在大量的任務序列中訓練視覺推理,解決它們需要對文本的語義理解,對圖像序列中每張圖像的視覺認知,以及決定時變答案的工作記憶?!?/p>
盡管上述記憶分類為人工智能的發(fā)展提供了比較扎實的基礎,并推進了人工智能的發(fā)展。但是一旦進入到與人類記憶最為密切的情景記憶時,這個問題就不是那么樂觀。比如情景記憶(episodic memory)和自傳式記憶(autobiographical memory)對于AI研究的關系完全不明確。這主要與情境記憶和自傳式記憶的本質(zhì)有著密切關系?!扒榫秤洃涥P心的是記憶者過去的時間中獨特的、具體的個人體驗;語義記憶是指個人抽象的、無時間的可以與他們分享的關于世界的知識?!睆男睦韺W家的角度看,情景記憶和自傳式記憶有著非常強的個體體驗特性,又涉及到過去的時間性。情景記憶與自傳式記憶一旦和當事人割裂開來,就失去了生命力。對于機器而言,這很難想象。畢竟在機器那里,我們所能看到的是無處不在的二元分離,精神可以獨立于物質(zhì)存在,體驗可以獨立于主體存在。
三、人工記憶模式與AI發(fā)展方向
2015年AI學界圍繞AI未來發(fā)展探討了如下2個問題:(1)能否創(chuàng)造出人類水平的AI?(2)是否存在智能爆炸?圍繞問題(1)DeepMind的研究者重點探討了這一方向的技術可能性,如德米斯·哈斯貝斯(Demis Hassabis)、Vicarious公司的迪麗·喬治(Dileep George)和卡耐基·梅隆大學的湯姆·米契爾(Tom Mitchell);圍繞問題(2)牛津大學哲學系的尼克·博斯徹姆(Nick Bostrom)、康奈爾大學的巴特·塞爾曼(Bart Selman)以及SpaceX的埃隆·馬斯克(Elon Musk)等人探討了這一問題。這些問題的探討均可以還原到“通用AI”這一假設之上。所謂通用人工智能(AGI)是指強AI,“能夠成功執(zhí)行人類能夠完成的智力任務的機器智能”。在楊·立坤(Yann LeChun)看來,通用人工智能發(fā)展的最大障礙是“讓機器通過觀察來學習預測模型。”通用2018年,騰訊公布了三大戰(zhàn)略,通用AI、機器人實驗室和AI+醫(yī)療。這些現(xiàn)象表明AI的未來方向是指向通用AI。
如果把通用AI當作出發(fā)點,AI中的三種觀點服務于這一出發(fā)點。在目前運算能力、海量數(shù)據(jù)與優(yōu)化算法成為AI發(fā)展的基礎,在此基礎上形成了三種不同的觀點:(1)運算主義,即AI能夠?qū)W習是因為其強大運算能力;(2)數(shù)據(jù)主義,即強調(diào)AI其功能是挖掘出數(shù)據(jù)深處的相關關系(Naftali Tishby,2017;王天思,2016);(3)算法主義,即強調(diào)AI發(fā)展基于更新、更優(yōu)化的算法。這三點都是為了通用AI這個方向服務的。而通用AI意識形成自身的條件是記憶。圍繞解決如何形成通用智能的問題上,形成了四條與記憶有著密切的關系不同的人工記憶模式。
(1)長短期記憶網(wǎng)絡(Long Short-Term Memory Networks)它是由一個被嵌入到網(wǎng)絡中的顯性記憶單元組成。其功能是記住較長周期的信息。這一技術主要是被頂級跨國公司如谷歌、亞馬遜和微軟使用,只要勇于語言識別、智能助手和屬性增強的應用。
(2)彈性權重鞏固算法(Elastic Weight Consolidation Algorithm),這是從神經(jīng)科學中借來的概念。用來評估聯(lián)結(jié)的權重,而這些權重主要是通過早期任務的重要性來評估的。這種算法主要是用于序列學習多種游戲的。目前DeepMind公司使用著這種方法。2017年,谷歌DeepMind團隊發(fā)表了一篇名為《使得神經(jīng)網(wǎng)絡中持續(xù)學習成為可能》,里面提到了一種與記憶鞏固(memory consolidation)有關的算法,其目的是讓機器學習、記住并能夠提取信息。
(3)可微分網(wǎng)神經(jīng)計算機(Differentiable Neural Computer)這種計算機的特點是將神經(jīng)網(wǎng)絡與記憶系統(tǒng)聯(lián)系起來,它可以像計算機一樣存儲信息,還可以從例子中進行學習。
(4)連續(xù)神經(jīng)網(wǎng)絡(Progressive neural networks)主要用于迷宮學習?!皩W習解決復雜的連續(xù)性任務,即同時可以遷移知識,但是又不會忘掉此前學到的重要信息,依然是實現(xiàn)人類水平的智能中的一大難題。連續(xù)神經(jīng)網(wǎng)絡的方法代表了在這一方向上的一個嘗試:它們不會忘記先驗知識,并通過連接到此前學習到的特征來利用這些知識?!?/p>
但是僅僅具有通用智能是不夠的,AI也只是停留在空洞的形式階段。我們可以從兩個角度預見AI發(fā)展的方向。其一是從學科角度來看,AI所依賴的重要學科之一是神經(jīng)科學,而神經(jīng)科學的發(fā)展方向在一定程度上決定和影響了AI發(fā)展的方向。從記憶角度看,神經(jīng)科學提出記憶是信息內(nèi)容的編碼、存儲、提取,AI在人工神經(jīng)網(wǎng)絡的方向上將循環(huán)神經(jīng)網(wǎng)絡、長短記憶網(wǎng)絡等與記憶有關的概念引入進來,極大地促進了AI自身的發(fā)展;此外,從神經(jīng)科學未來的發(fā)展方向看,神經(jīng)科學下一個目標是研究同理心,說明同理心的神經(jīng)機制。根據(jù)中國神經(jīng)科學家蒲慕明教授的觀點,神經(jīng)科學會將同理心作為下一個研究目標。因此,我們可以大膽預測:AI的同理心(empathy)討論逐漸成為一個AI的發(fā)展方向之一。這一方向?qū)锳I實現(xiàn)通用智能奠定更為堅實的基礎;其二是從意識構成角度看,意識到底有哪些形式構成?所以類人的AI的研究必然會延續(xù)這個方向,除了更進一步研究AI的認知之外,還有就是對于記憶、情感、意志和欲望的研究。而這一點已經(jīng)開始有所苗頭。而在路徑二中,記憶將成為不可或缺的因素。這里的記憶不是信息的存儲和提取,而是使得時間意識構成的可能性條件。對于記憶,楊立昆指出,這是預測學習中的一個關鍵部分,即與過去有關的部分。
四、災難性遺忘與AI發(fā)展危機
從記憶角度分析已經(jīng)看到AI發(fā)展可能面臨的危機:記憶神經(jīng)網(wǎng)絡和災難性遺忘。第一個危機是對記憶神經(jīng)網(wǎng)絡的沖擊。正如前面所分析指出,人工智能科學家很好地利用了記憶,發(fā)展出RNN、LSTM和Nested LSTM。但是他們也遇到了一個問題,正如人工智能大師杰弗瑞·亨頓(Geoffrey Hinton,2016)提出了終極之問:將人類心智注入電腦建模的人工神經(jīng)網(wǎng)絡的可能性及其意義。終結(jié)之問就是記憶神經(jīng)網(wǎng)絡發(fā)展的危機所在,這種危機并不是技術層面的危機,而是哲學性的危機;另一制約AI的危機是災難性遺忘。認知心理學研究表明,人類自然認知系統(tǒng)的遺忘并不需要完全抹除先前的信息(McCloskey,M,1989)。但是,對于機器而言,遺忘就是災難性的,即需要抹除先前的信息,這是通用智能形成過程中的一個關鍵障礙。如何處理災難性遺忘成為AI發(fā)展過程中的必須解決的重要問題。所以從這個危機中我們可以看到未來AI發(fā)展可能需要解決的問題。
這種危機在兩種意義上是內(nèi)在的:其一是技術發(fā)展的意義上,災難性遺忘的技術克服以及神經(jīng)網(wǎng)絡技術的未來走向。正如我們已經(jīng)看到的,神經(jīng)網(wǎng)絡是機器學習的核心,如果按照心理學的學習-記憶模式,機器學習之后必然會遭遇機器記憶的問題,此處的記憶并不是信息存儲,而是與回憶問題相關的,但這似乎是技術內(nèi)在的悖論;其二是哲學意義上的,對記憶與遺忘的理解脫離了人類記憶的真諦。事實上,記憶與遺忘決定著人類的行為、情感和認同,這不僅適用于人類,對于未來的后人類機器而言也是如此。確立這樣的原則,可以實現(xiàn)有效實現(xiàn)對AI行為的理性約束,將AI對人類的未來威脅消除在設計階段。
面對災難性遺忘,學術界解決這一問題的三種方式,其一是從記憶/遺忘是信息的存儲與刪除角度看,AI的災難性遺忘其實質(zhì)是為后續(xù)新的內(nèi)容騰出必要的物理空間。從存儲容量角度看,如果存儲容量有限,當存儲器容量滿了后,刪除部分信息就變得緊迫起來。這在通常的輸入-輸出系統(tǒng)中非常常見,即從被動獲得信息、程序輸入等角度理解記憶,這意味著災難性遺忘屬于系統(tǒng)本身的內(nèi)在缺陷。這種路徑適應于低級的機器,忽略了高級AI的學習能力。其二是神經(jīng)網(wǎng)絡的內(nèi)在特征路徑,即神經(jīng)網(wǎng)絡無法進行序列性學習,即完成多種任務,所以必然會出現(xiàn)這種問題,其克服的方法是借助神經(jīng)元固化(synaptic consolidation)的方法來解決這一問題(James Kirkpatrick,2016)。其三是先驗哲學分析的結(jié)果,即人類不存在這種問題,而本質(zhì)上不同于人類的機器則存在這些問題,并且這一缺陷是無法克服的。很顯然,谷歌公司主要從第二種意義來理解和解決這一問題。他們首先發(fā)展了多種模式的學習理論,如深度學習(deep learning)、增強學習(reinforcement learning)和序列學習(sequences learning)等概念,這些概念有效實現(xiàn)了AI的行為決策和任務完成的功能,并且嘗試解決了災難性遺忘。
上述三種方式存在著各自的問題,路徑一由于適應于低級非智能存儲器,如USB、一般性物理存儲設備,所以無法適用于具有學習能力的高級AI。路徑三則是哲學分析推演的結(jié)果,其主要是哲學意義,表達一種哲學立場,并且在哲學論證上具有有效性,但是對于AI的發(fā)展未必有利。路徑二非常適合AI記憶的研究,但是隱含著兩個方面的問題:(1)對記憶的設定是信息鞏固;(2)將遺忘看作是記憶的負面現(xiàn)象。但是,這在哲學上看,都是不通的。記憶并非是信息的鞏固,遺忘是記憶的互補面,不是完全的負面現(xiàn)象。
五、作為記憶主體的人工智能
正如前面所提到的哲學與AI領域當代交往中倫理交往是主導的形式。在這個領域的探索中,哲學家并沒有滿足于后果論的探討,他們將目光指向了道德主體。在這一視野中,智能體作為道德主體是否可能的問題已經(jīng)得到了諸多討論。如段偉文教授指出人工智能體作為擬主體(2016)。從記憶哲學的角度反思人工智能的發(fā)展,也會碰到的同樣的問題:智能體作為記憶或回憶主體是否可能?從科學角度看,智能體具有記憶能力沒有太大的疑問。因為生物學將記憶看成是信息的編碼、存儲和提取,這一規(guī)定直接指向信息的發(fā)送者和接受者——生物體及其基本構成單元神經(jīng)元。神經(jīng)科學角度將記憶看作是神經(jīng)元之間聯(lián)結(jié)從而形成不同的神經(jīng)回路。所以將生物學和神經(jīng)科學作為其自身基礎的人工智能很好地解決了這一問題。讓AI具有記憶能力開始從兩條路徑上表現(xiàn)出來:(1)根據(jù)人類特定記憶神經(jīng)元的標記,而在人工神經(jīng)元做出標記,從而產(chǎn)生特定的記憶行為;(2)搭建特定的神經(jīng)網(wǎng)絡回路。未來AI的發(fā)展某種意義上來說就是搭建不同的、多元記憶神經(jīng)元回路,從而展示出多樣的記憶行為。所以如何構建多元的記憶神經(jīng)回路是未來AI發(fā)展的動向之一。MIT的利根川進(Susumu Tonewaga)利用光遺傳學展開記憶痕跡研究的成果(利根川進,2012,2013,2014,2015,2016,2017)非常重要,關于未來AI機器的社會記憶研究、記憶的抑制和激活都可以在其工作基礎上進行。
但是,科學上的解答并未對上述問題給予滿意的答復。哲學困惑依然存在,智能機器是否是一個主體?但是事實上,“主體”概念已經(jīng)在眾多討論中被“能動者”(agent),所以,相關的問題也就轉(zhuǎn)化為智能體作為能動者來說,意味著什么。這樣一種方式能否解決哲學困惑還有待于檢驗。如果回到我們最初的問題智能體具有記憶能力是否可能?從記憶行為的本質(zhì)看,記憶是關于過去對象的行為,一種明顯的時間性表現(xiàn)出來。那么對智能體而言,是否擁有過去的時間規(guī)定性呢?答案似乎是否定的,智能體的行為更多是基于結(jié)構—功能顯示出來的。它們不能感知時間,尤其是無法構建過去。如果是這樣,我們會看到,盡管智能體可以存儲、提取信息,但是離真正的記憶尚有距離。此外,當面對AI是否可以成為回憶主體?這個問題時,一切更加不那么確定了。事實上,亞里士多德早就切斷了這條道路的希望。他在分析回憶的時候指出,人、動物都可以具有記憶,但是唯獨人才擁有回憶。于是一種觀點開始形成:愈返回哲學原點,我們發(fā)現(xiàn)答案就越讓人失去希望。
這一問題的澄清最終讓可以讓我們重新面對亨頓的終極之問。對于亨頓來說,需要解決的問題是,如何將人類智能注入到人工智能神經(jīng)網(wǎng)絡中。這一問題的解決前提是人類的心智。還原論將智能還原到生物學構成中,“我們所談論的心智,其實就是一個電化學體系的高度集成。”在記憶問題上,我們并沒有看到這種邏輯的必然推論。隨著記憶與回憶關系的澄清,我們已經(jīng)看到,作為記憶主體和作為回憶主體具有完全不同的根據(jù)。隨著這一觀念的確立,機器具有自身的意識這一點變得更加模糊和遙不可及了。
六、結(jié)語
在本文的最后,需要指出的是如何看待AI中遺忘的作用?一般情況下,人們形成了比較流行的遺忘觀念,即將遺忘看作是記憶的負面現(xiàn)象或者失效。災難性遺忘恰恰是在這一觀念下展示出來的問題。但是,遺忘的真實含義以及在AI中的地位卻沒有完全被揭示出來。揭示遺忘的真實含義屬于記憶研究中的問題,這有待于記憶研究的進一步深入。而遺忘在AI中的正面作用卻逐漸被揭示出來。2017年希伯來大學計算機與神經(jīng)科學教授梯絲柏(N·Tishby)提出了信息瓶頸(Information Bottleneck)理論,這一理論指出神經(jīng)網(wǎng)絡就像把信息擠出瓶頸口一樣,只留下與一般概念最為相關的特征,去掉大量無用的噪音數(shù)據(jù)。他的最有名的觀點是“學習最重要的事情實際上是遺忘?!苯诘纳窠?jīng)科學研究成果則將遺忘看作是最優(yōu)化決策的必要條件?!拔覀冋撟C了遺忘(1)通過減少過時信息對于記憶指導的決策的影響來提升了靈活性;(2)阻止了對于特定過去時間的過擬合(overfitting),因此提升了通用性。根據(jù)這個觀點,記憶的目標不是通過時間來傳遞信息,而是最優(yōu)化決策。因此記憶系統(tǒng)中短暫即逝與保持同樣重要?!币庾R到這一點,會讓我們重新看待AI決策過程中記憶與遺忘的辯證關系,但這已經(jīng)超出了本文的范圍。
本課題系國家社會科學基金重大項目“智能革命與人類深度科技化前景的哲學研究”(17ZDA028);教育部重大課題攻關項目“人工智能與哲學思考研究”的階段性成果。
本文轉(zhuǎn)載自《探索與爭鳴》雜志2018年11月刊。作者楊慶峰,系上海大學哲學系主任、教授,上海市自然辯證研究會秘書長。美國達特茅斯學院訪問學者,目前的研究重點是技術哲學、現(xiàn)象學和記憶研究;伍夢秋系上海大學哲學系科學技術哲學碩士。