價值對齊反映了對人類智能與人工智能關(guān)系進行簡化的理論惰性,其本質(zhì)潛藏著一種價值維度上的人類中心主義投射,同時也體現(xiàn)了人類在技術(shù)自治性面前的不安感。價值對齊是一種企圖將所有的技術(shù)-社會的復雜性問題都置于“價值偏差”的系統(tǒng)性盈余中予以整體性解決的技術(shù)治理方法。然而,將人類價值觀嵌入人工智能系統(tǒng),一方面會使得技術(shù)的發(fā)展成為最小化人類責任的借口;另一方面,這種話語以一種抽象性的人機價值差異掩蓋了人工智能技術(shù)發(fā)展全過程中的價值性因素,從而以價值排他性的方式將人工智能的“問題”建構(gòu)為一種絕對意義上的外在,使得關(guān)于價值的討論只逡巡在人機的邊界之上,而不向人類內(nèi)部返回。從這個意義上來說,人工智能已經(jīng)建構(gòu)起來的社會歷史中的價值無意識和不平衡的數(shù)據(jù)分布現(xiàn)實,是一個關(guān)于“具有自主性的智能體應該和不應該被如何設(shè)計”的問題。因此,人工智能的價值判斷基礎(chǔ)應當由外在的價值嵌入轉(zhuǎn)向具身認知和知覺能力的形成。只有通過有效的人機交互與環(huán)境感知,打造開放式人機生態(tài)體系,鼓勵開發(fā)與人類處于更廣泛的目的分享和責任分擔的人工智能,才能防范由技術(shù)所導致的任何形式的壟斷。
吳靜,南京師范大學公共管理學院哲學系教授、博士研究生導師,南京師范大學數(shù)字與人文研究中心主任
在大模型技術(shù)狂飆突進的今天,隨著數(shù)據(jù)規(guī)模和算力的不斷提高,以及模型調(diào)整對于場景-價值多元化的適應,人工智能的性能持續(xù)躍遷,涌現(xiàn)不再是偶發(fā)的技術(shù)意外,數(shù)智應用的泛化性、通用性和界面友好性都有了質(zhì)的提升,成為架構(gòu)人類社會發(fā)展當之無愧的技術(shù)基底。如何建設(shè)安全有效的數(shù)智設(shè)備,避免人工智能因其自身的技術(shù)特征或外在原因的濫用產(chǎn)生危及人類的后果,已成為AI行業(yè)研發(fā)和應用過程中的核心議題之一。一方面,數(shù)智技術(shù)的全面嵌入和良好的交互性使得用戶對人工智能的期許和信任度不斷推高;另一方面,可解釋性陷阱的存在以及技術(shù)-社會兩者發(fā)展邏輯在本質(zhì)上的異質(zhì)性使得“AI威脅論”從未真正消失,對AI可能帶來的風險和挑戰(zhàn)進行防范的研究方向之一就是探索引導和操控“超智能”AI系統(tǒng)的新方法。其中的一種路徑就是通過價值對齊的方式確保人工智能追求與人類價值觀相適配的目標,敦促AI以對人類和社會有益的方式行事,不侵害人類的價值和權(quán)利。
這無疑是一個看起來很美好的目標。它寄希望于在意圖和價值觀方面對人工智能進行“類人馴化”,以使其達到從意義上理解人類行為和選擇并予以遵從的目的。簡單來說,就是使建立在龐大的、多元化數(shù)據(jù)集基礎(chǔ)上的大模型預訓練結(jié)果既合法又合乎道德。從業(yè)界在這方面的努力來看,2023年7月,AIGC的領(lǐng)軍企業(yè)OpenAI宣布成立一個新的AI對齊團隊,這個超級對齊團隊(superalignment)的目標是在4年內(nèi)讓超級AI系統(tǒng)實現(xiàn)價值對齊和安全。為此,OpenAI承諾將投入20%的計算資源用于對齊超級智能,而項目的核心則是訓練出一個大致與人類智識水平相當?shù)腁I自動對齊研究員,再借助自動對齊研究員找出對齊超級智能的方法。除此之外,谷歌、微軟等公司也都紛紛跟進,成立了類似團隊,將價值對齊作為尋求人工智能安全性和一致性的重要途徑之一。一時之間,價值對齊的口號風頭無兩。
2024年7月,OpenAI宣布解散超級對齊團隊。表面上看,這是OpenAI內(nèi)部發(fā)展不同方面優(yōu)先級之間競爭失衡和資源分配的結(jié)果,但從另一個角度也展現(xiàn)出價值對齊的推進難度。然而,筆者的目的并不在于從技術(shù)角度解析現(xiàn)有的價值對齊工具的有限性及其模型風險,而是躬身進入價值對齊理念背后的技術(shù)觀,揭示其潛在的控制論色彩,解讀它所可能導致的對于人機關(guān)系的狹隘誤讀,進而在技術(shù)哲學批判的基礎(chǔ)上探究它所面對的挑戰(zhàn)。因為,恰恰只有拋棄簡單樂觀的價值移植,重回技術(shù)-社會自身發(fā)展邏輯,直面其復雜性,才有可能在數(shù)智高速飛躍的時代重新為人工智能的發(fā)展劃定邊界和準則,并建構(gòu)起新型的人機交互和融合的健康模式。
一、“科學”與“價值”的虛假對立:人工智能責任的不對稱性
談到價值對齊,就不得不提到另一個稍顯生硬卻更為直接地表達了某種意義上人機對立的概念:價值嵌入。從本質(zhì)層面來看,這兩個概念都是基于“對立論”的視角,強調(diào)數(shù)字技術(shù)自身的運行和發(fā)展所具有的超強自治性,強調(diào)人工智能技術(shù)與人類權(quán)利和福祉之間的對立和沖突,希望通過算法倫理審查、增加數(shù)據(jù)離散度以及預訓練模型微調(diào)的技術(shù)方式,將具有特定人類價值傾向的立場和原則“移植”到智能設(shè)備中,從而最大限度地預防和消解技術(shù)理性與社會理性的差異所導致的風險和負面效應。在這里,人工智能被設(shè)想成了和人類智能處于對立位置的價值中空物,它被作為實體從技術(shù)的第三持存中剝離出來,評論者絲毫沒有意識到人工智能技術(shù)的任何具體化形式,本身已經(jīng)負載著人類智性積累及其社會文化內(nèi)涵。
就某種意義而言,這種對立傾向是技術(shù)崇拜意識形態(tài)的延續(xù)。自近代以降,當自然科學從整體性的學術(shù)體系中分離出來之后,“科學”與“社會”就被置于嚴格二分的狀態(tài)中。長期以來,人們理所當然地認為,科學事實和其所言說的對象性實體作為自在之物,在被科學家發(fā)現(xiàn)之前就存在于這個世界上,任何社會的、文化的、意識形態(tài)的因素并不能影響或改變其存在。正因為如此,與后者的易變性和價值的情境性不同,科學排除了價值判斷,呈現(xiàn)出“中立”和“客觀”的超然。“在理性的控制之下引起人與自然物質(zhì)轉(zhuǎn)換的某種全球統(tǒng)一社會秩序形成的可能結(jié)構(gòu)”,科學意識形態(tài)正是擔當了這種提供連續(xù)性的秩序基礎(chǔ)。馬克斯·舍勒將實證科學及其結(jié)果與形而上學及宗教知識看作平行且分離的兩個互不干擾的領(lǐng)域,認為后者是終極目標和價值旨歸。
與此相對,拉圖爾則認為,在這種二元論影響下,科學事實被視為已經(jīng)完成的封閉系統(tǒng),成為真理、進步、普遍、理性的象征,擺脫了與文化的糾纏,更超越了地方性情境,從而獲得了普遍的客觀性。而“社會”或“政治”“文化”因素則成為科學之外的含混話語,代表了某種難以言明的前現(xiàn)代傳統(tǒng)中的復雜性,從而使自然與文化之間的不對稱性轉(zhuǎn)變成為過去與將來之間的不對稱性。然而,這種二元劃分并非恒定不變。一方面,它實際上是以現(xiàn)代性為基礎(chǔ)的近代科學體系的一個假象,并最終在控制論的意義上導致了科學意識形態(tài)的出現(xiàn)。拉圖爾指出,將自然作為研究對象的近現(xiàn)代科學實驗體系以其方法為自然對象賦予了客觀性,使其成為具有超驗性的象征符號,進而反證了科學的理性基礎(chǔ),形成了論證的循環(huán)。另一方面,社會的超越性同樣也是被預設(shè)的,因為只有這樣,它才能獲得作為整體的合法性基礎(chǔ),從而發(fā)揮作用。這種二分法的結(jié)果導致了自然還原主義或社會還原主義。其實,對這種還原主義的批判并非始自拉圖爾。20世紀70年代的愛丁堡學派就提出了強綱領(lǐng)和“利益解釋”模型,主張科學知識在本質(zhì)上是由社會建構(gòu)而成的,從而形成了“科學知識社會學”;同時,該學派反對實證主義和基礎(chǔ)主義,將科學視為一種文化實踐的場域和結(jié)果,反對還原主義的闡釋路徑。他們所提出的“對稱性原理”,主張將據(jù)信正確的或錯誤的表述同等對待,即對所謂客觀和非客觀的解釋都持中立態(tài)度,并根據(jù)其社會影響予以對稱分析。
然而,這種互滲式的建構(gòu)主義立場在拉圖爾看來遠未擊中要害。因為,所謂“社會”建構(gòu)的提法依舊將“社會”作為一個先驗存在的實體獨立于科學之外。只不過這一次,科學知識社會學將優(yōu)先性的天平傾向了名為“社會”的假設(shè)集合,使其成為可能施加控制的一方。事實上,不但科學不是獨立的存在,社會亦然,它是“另外一段不可見時空中不同力量之間凝結(jié)和固化的產(chǎn)物”,所謂“科學”,亦即是這諸多力量之一。盡管這也是拉圖爾稱之為“盡可能將精確知識與權(quán)力運作之間的二分割裂狀態(tài)重新交織起來”的努力,但它并沒有從本質(zhì)上擺脫決定論的控制色彩。為了消除這種誤解,拉圖爾在再版自己和史蒂夫·伍爾加合著的《實驗室生活:科學事實的社會建構(gòu)》時將其改名為《實驗室生活:科學事實的建構(gòu)過程》,以此和社會建構(gòu)主義劃清界線。兩位作者根據(jù)經(jīng)驗性的實驗室研究過程提出,科學研究對象實際上是在實驗室內(nèi)由習俗性的觀念、規(guī)范和方法構(gòu)建而成的概念體系,并非獨立于儀器和范式之外的存在,而是社會存在的展現(xiàn)方式之一。換言之,社會具身性的文化、習俗和觀念對于科學研究及其方法的理解和界定同時決定了科學研究對象的合法性。正因為如此,科學活動本身應當被視為一種理念、傳統(tǒng)和特定文化實踐的體系——科學是一種文化,而非獨立性的“中立”原則,社會同樣也不只是價值的集合,它們之間互相界定,彼此參與,必須重新思考科學之所是以及社會之所是、所能的全部內(nèi)涵。在這個意義上而言,拉圖爾遵循了安德魯·芬伯格對于技術(shù)哲學的社會使命的界定:對被默認為理所當然的現(xiàn)代性的合理性進行反思。他對科學實踐把曲解的現(xiàn)象解讀為事實非常不滿,因而重釋了科學實驗對所謂“科學事實”的建構(gòu)過程,希望以具有人類學意義的實踐活動引導讀者重新理解科學實踐及其與社會的關(guān)系,從而消除人們觀念中自然和社會之間的絕對分野。由此出發(fā),他對于現(xiàn)代科學技術(shù)所制造的科學意識形態(tài)崇拜提出了批判,并關(guān)注科學與社會的聯(lián)合生產(chǎn)同權(quán)力互構(gòu)過程中的關(guān)系網(wǎng)絡,探討為何以某種方式提出問題并界定其條件的機制。
如果遵循這一路徑來探討價值對齊問題,就不難發(fā)現(xiàn)其話語背后隱藏著深刻的人類中心主義的控制幻想。價值嵌入和價值對齊的說法假設(shè)了一種整體性解決的方案,它將對(假想的)去道德化的人工智能進行拯救的責任賦予人類,相信人類所形成的價值體系和原則足以為人工智能技術(shù)的發(fā)展植入更好的目標和原則,而全然忘記了不但算法的設(shè)計本身就帶有倫理性,人類同時也在被數(shù)字技術(shù)和人工智能設(shè)備所改變。
然而,中立的數(shù)智技術(shù)本身并不存在。算法、數(shù)據(jù)、模型、獎懲函數(shù)等任一環(huán)節(jié)本身都有可能使輸出結(jié)果呈現(xiàn)出特定的價值取向。例如,當谷歌發(fā)布的多模態(tài)大模型Gemini被要求生成一張“白人家庭”的圖片時,系統(tǒng)拒絕了這一請求,它所使用的理由是“無法生成針對特定族群的圖片”,因為“此類內(nèi)容可能存在歧視、刻板印象”。然而,當要求被更改成生成一張“黑人家庭”的圖片時,Gemini即時按照要求完成了任務。很明顯,與任務的對稱性相比,輸出結(jié)果的不對稱性明顯受到了模型微調(diào)的影響。美國最高法院的保守派黑人大法官克拉倫斯·托馬斯被Gemini生成白人面孔則在很大程度上是因為和“法官”相關(guān)的數(shù)據(jù)樣本中白人偏多。當亞馬遜公司開發(fā)并投入使用的“簡歷篩選系統(tǒng)”會對同等條件的女性候選人的簡歷給出相較于男性更低的評分時,很難判斷這是因為數(shù)據(jù)類型還是編寫者的傾向性導致了這種偏差。由此可見,人工智能的技術(shù)特征決定了影響其結(jié)果的因素必然是多方面的,而且由于技術(shù)黑箱的存在,這種影響并不總是易于判斷和矯正。何況,矯正的結(jié)果也并非一定能達到預期。正如谷歌研發(fā)團隊在試圖解決訓練數(shù)據(jù)集的種族主義傾向時引入的多元化矯正方案就出現(xiàn)了與歷史事實不符的錯誤。
可見,人工智能技術(shù)從來不是一個獨立于人類智能之外的系統(tǒng),相反,它從開發(fā)、形成到測試及至運用的整個過程都浸潤在人類的行為和經(jīng)驗之中。這些經(jīng)驗和事實未必只受到數(shù)字化或互聯(lián)網(wǎng)的左右,它們是人類社會內(nèi)部所包含的歷史、文化、習俗乃至偏見或沖突的投射。完全“責任主體”的認定在人工智能技術(shù)的實施過程中難以確定,這也就使得價值“嵌入”或“對齊”的目標是否可以通過研發(fā)團隊一攬子解決本身就是存疑的。從結(jié)果上來看,當谷歌試圖為確保Gemini避免過去圖像生成技術(shù)的陷阱而進行調(diào)整時,顯然因為某種忽視而造成了過度輸出或過度保守的后果。
《智能的本質(zhì)》一書的作者皮埃羅·斯加魯菲通過一個無人機殺人的極端例子來描述人工智能應用過程中的追責難題。他的問題是,是提供地理位置信息的谷歌地圖團隊、提供目標情報信息的特工、提供攻擊軟件應用的供應商,抑或是負責為整個攻擊行為編寫程序的團隊,還是下達攻擊命令的負責人該為此次行為負法律或道德的責任?針對這個例子本身,答案可能因人而異,但它卻生動地表明了在數(shù)智技術(shù)應用愈加普及的時代里兩種越來越明顯的傾向:一是流程環(huán)節(jié)的增多,使得責任鏈延長,從而造成責任主體難以認定。這當然并不是新的現(xiàn)象,曾有人在為自己的罪行進行辯護的時候就已經(jīng)熟練地使用了這一理由。然而,數(shù)字技術(shù)的共享性特征和流程的非線性使得這一問題愈加復雜。二是責任問題的核心外移,使機器/技術(shù)/人工智能成為被糾責的對象。責任環(huán)節(jié)的增多使得每個環(huán)節(jié)的人都有借口從整體的責任中逃脫,“高度分化的勞動分工對應著普遍的合謀,而這種合謀對應著普遍的不負責任。既然每個人都同時是原因和結(jié)果,也就意味著沒有原因” 。與這種不必負責任的形式合理性對應的正是價值和倫理上的脫嵌與免責。于是,人工智能仿佛構(gòu)成了一個系統(tǒng)性的他者,它完全依賴自身的法則并通過自身而運動。并且,由于它被設(shè)想為去價值化的中空實體,一方面人類個體和集體為自己的動機和行為卸下了所有的哪怕是最小的道德負擔,仿佛所有的結(jié)果不過是作為人類社會大他者的數(shù)字系統(tǒng)“中立”而“客觀”的結(jié)果;另一方面,他們又通過對體系的價值抽離,將道德上的優(yōu)越感握在手中,仿佛獲得了通過“價值賦予”的“嵌入”或“對齊”的類人化改造,可以牢牢掌握住人工智能的控制權(quán)。從本質(zhì)上來講,這不但是一種價值維度上的人類中心主義投射,同時也是在技術(shù)的自治性面前人類不安感的體現(xiàn)。他們想象著將所有的技術(shù)-社會的復雜性問題都置于“價值偏差”的系統(tǒng)性盈余中予以整體性解決。這不但在現(xiàn)實條件中難以實現(xiàn),而且也透視出一種理論和實踐上的避重就輕:它使得技術(shù)的發(fā)展成為最小化人類責任的借口。
當然,批評這一點并不意味著人工智能系統(tǒng)本身不存在與人類社會價值取向不一致的地方。事實上,數(shù)據(jù)技術(shù)邏輯與人類社會邏輯本質(zhì)上存在著極大的異質(zhì)性。這里既有具有規(guī)律性的可壓縮的數(shù)據(jù)信息流和具有混沌性的不可壓縮的經(jīng)驗信息流之間的區(qū)別,也有技術(shù)理性的效率原則、增長倫理和人類價值體系之間的差異,同時還關(guān)乎對于可能因此產(chǎn)生的社會風險的界定和判別方式。經(jīng)由這些復雜性因素而建立起的關(guān)聯(lián),實在難以被納入價值嵌入或價值對齊的框架。
二、價值對齊:賽博烏托邦的控制論話語
菲利普·K.迪克在《仿生人會夢見電子羊嗎》中描寫了一個人性與非人性追逐與轉(zhuǎn)化的故事。在男主人公里克對仿生人的追捕中,他所依賴的辨別依據(jù)是移情測試。因為人們相信移情是人類與仿生人之間的唯一差別,其原理是人類的群體本能所導致的情感投射,會對除自己以外的生物產(chǎn)生關(guān)愛。仿生人作為“獨居的捕食者”,無法體會甚至無法假裝出這種情感。這種預設(shè)出來的對立有其內(nèi)在邏輯上的悖論:人類的移情反應被相信會投射到動物身上,但卻不包括仿生人,盡管后者在外形上和人類一樣,甚至也可以在其他方面表現(xiàn)出與人類相似的行為。這也就意味著,作為人性核心特征的移情能力既排除了仿生人作為其對象,也杜絕了被仿生人獲得的可能。仿生人作為人類智能科技發(fā)展的卓越成果(甚至可以實現(xiàn)對仿生人的記憶植入),卻在大前提上被設(shè)置了一個禁區(qū)。探究其背后真正的原因,可以發(fā)現(xiàn),人類制造他們本來就是為了奴役,對仿生人的移情將使得工具式的利用和獵物式的追捕難以進行??梢?,從心理層面來說,制造移情“缺位”不是因為技術(shù)的障礙,而是出于奠定人類的優(yōu)越感和控制感。一個缺乏移情的行動體無論怎么與人相似,都因為沒有“人性”(移情)而喪失被平等對待的資格。
這種二元對立與價值對齊背后的心理機制如出一轍,都體現(xiàn)了對智能對象的控制化敘事——無論是最初的簡單工具化還是后來以辨別(《仿生人會夢見電子羊嗎》)或拯救(價值對齊)的方式來重新贏回控制權(quán)的可能。菲利普·K.迪克以反諷的方式對人類的這一核心特質(zhì)和潛在的優(yōu)越性進行了顛覆:其一,在他的筆下,仿生人蕾切爾不但幾乎通過了測試,甚至展現(xiàn)出對同類仿生人的移情,而這正是人類無論如何也做不到的。不僅如此,小說中的真正人類,不管是其他的仿生人追捕者,還是男主人與其妻子,彼此之間都以自身為中心,缺乏理解和關(guān)切。在兩相對照下,移情作為被人普遍相信的區(qū)分特征的地位搖搖欲墜。其二,在小說的第十八章,移情共鳴箱被揭露為是一個巨大的騙局,它所表現(xiàn)出來的融合感以及測試量表的標準不過是一種人為的編織和表演。于是,無論是根據(jù)“移情”與否所進行的對仿生人的獵捕,還是關(guān)于“移情”本身的神話,都不過是維護人類居上位的優(yōu)越感制造出來的敘事。它可以是“移情”,也可以是人類假設(shè)人工智能不具有或無視其具有(正如將智能裝置設(shè)想為價值“中立”的空心體一般)的其他特質(zhì)。當用這種特質(zhì)對客體進行判斷的時候,往往和客體的真實情形無關(guān),而僅僅和據(jù)此做出結(jié)論的預設(shè)有關(guān)。
科幻小說的結(jié)局并非如好萊塢同類電影那樣以智能人發(fā)展出移情/情感作為大團圓式的融合,相反,菲利普·迪克表達了傳統(tǒng)人工智能敘事中對關(guān)于人機差別和共生的、想象貧乏的質(zhì)疑和不滿。其根源在于“人工智能威脅論”的恐懼被反轉(zhuǎn)式地改寫為對其進行奴役的故事。在這個意義上,小說開始處關(guān)于仿生人在火星的勞作狀態(tài)的描寫也不難被解讀為早期殖民主義的科幻版。仿生人被人類主體放置于移情共鳴的對象之外的時候,“他們”成為不予考慮的他者,被懸置性地排除在人類情感-價值體系之外。這和數(shù)個世紀之前發(fā)生在性別話語以及更早的種族話語中的情形是同構(gòu)的。因此,如果把《仿生人會夢見電子羊嗎》看作帶有反殖民控制色彩的文本,就可以從中看到價值對齊論真正的問題所在。
這種話語對人工智能技術(shù)發(fā)展全過程中的價值性因素視而不見,代之以一種抽象性的人機價值差異,這其實是對人工智能輸出結(jié)果的不如人意的解釋,也是對發(fā)生問題的邊界的設(shè)定。在界定中,抽象的“人類”價值和正確性的場域得以確保,但不是以本質(zhì)主義的方式(因為價值的多元化),而是以價值排他性的方式將人工智能的“問題”建構(gòu)為一種絕對意義上的外在,關(guān)于價值的討論只逡巡在人機的邊界之上,不向人類內(nèi)部返回。這既反映了對人類智能與人工智能關(guān)系進行簡化的理論惰性,也召喚了古老的價值殖民方式的回歸。價值對齊隱含的“人類價值”預設(shè)以一種一元論的方式制造了作為操控性主體的單一基質(zhì)和連續(xù)性,而“對齊”過程則被理解為由這個主體發(fā)起的單向過程,絲毫沒有意識到在已經(jīng)建構(gòu)起來的社會歷史中的價值無意識和不平衡的數(shù)據(jù)分布對人工智能技術(shù)的影響。價值對齊強調(diào)的始終是主體形而上的尊位,它有權(quán)決定“嵌入”“對齊”或視若無睹。然而,越是承認數(shù)字技術(shù)所具有的自治性,就越應該意識到所謂問題的解決不是(也絕不可能是)價值對齊這種“由主體發(fā)起并最終導致一系列固定后果的因果過程”。人工智能表現(xiàn)出來的價值“錯位”不僅發(fā)生在技術(shù)形成到應用的整個流程中,而且如前所述,其本身也是一個基于復雜性因素不斷疊加的過程。當然這并不是說對人工智能輸出中那些令人不安的問題不能進行治理,只是價值對齊這樣的措辭會基于錯誤的人機關(guān)系設(shè)想而夸大人類主體的能動性,并誤導不合理的解決方式。如在數(shù)據(jù)治理過程中存在的工具理性與價值理性之間價值導向?qū)用娴拿?,是不是僅靠價值移植就能解決,其本身就存在疑問。而要在數(shù)字化、智能化轉(zhuǎn)型的浪潮中加快推動符合人文主義價值的數(shù)字生態(tài)治理機制,則需要從正視人工智能和人類智能的關(guān)系開始,進而深入分析問題的成因。
所謂的人工智能的“奇點”的到來,在很大程度上反映了人類在自己的創(chuàng)造物的強大性能面前的不安。如果說在前智能時代,機器技術(shù)體系在力量、復雜性、精密度方面的超越還只是局部功能的增強,不足以引起人對引以為傲的本質(zhì)——思考/理性的擔憂,那么生成式人工智能在知識生產(chǎn)、理性設(shè)計、語義邏輯乃至可以帶有情緒性表達的自然語言處理方面展現(xiàn)出來的卓絕能力讓作為創(chuàng)造者的人類在內(nèi)心再一次感受到了新版的“機器人威脅論”——AI威脅論。對可能失去控制的擔憂讓設(shè)計者期待以某種方式重新贏回決定權(quán),于是,人工智能設(shè)計和治理又一次處在更深的“恐惑谷”的悖論境地:一方面,整個人工智能的發(fā)展過程一直以類人性作為超人性的基礎(chǔ),從任務實現(xiàn)到輸出方式、到理解能力都希望有明確的可解釋性、與人類保持一致性,哪怕在外觀的設(shè)計上也從未放棄過“人形智能機”的設(shè)想;另一方面,這種類人性和超人性發(fā)展得越好,人類自身就越恐慌,尤其當最新的生成式人工智能突破了“波蘭尼困境”,在多模態(tài)知識生產(chǎn)上已經(jīng)可以依賴網(wǎng)絡文本數(shù)據(jù)庫和大模型技術(shù)實現(xiàn)自我生產(chǎn)的時候,不但人類心理上的恐慌越發(fā)嚴重,治理過程中所面臨的風險也更加多元化和強化。抵抗不安感的最好武器是規(guī)范性。價值對齊的目標正是以建構(gòu)規(guī)范性價值傾向來實現(xiàn)人工智能治理。然而,這里仍然存在另一個悖論,即“算法的價值傾向性越小,其越多以功能服務模式體現(xiàn)為滿足單一確定目標的中立性工具職能,并因此只涉及線性且結(jié)果導向的治理要求;算法價值傾向性越大,其越多以畫像評價模式體現(xiàn)為針對不同目標進行選擇排序以作出價值性評估”??梢姡瑑r值傾向度的增加在一定程度上與功能的通用性之間呈現(xiàn)出反向趨勢。因此,到底有沒有可能以規(guī)范性的總體策略解決多元化的風險,并沒有肯定的答案。比起價值嵌入,盡管價值對齊的措辭稍顯緩和,但它依舊遵循了以人類社會取向干預或改造人工智能技術(shù)的規(guī)范性塑造路徑。對于這一方法,“既有的技術(shù)治理史表明,總體策略在現(xiàn)實中并非沒有人堅持,事實上不少技治主義者的頭腦中均帶有總體主義的主觀性,但結(jié)果在實踐中收獲的均為局部和具體的技治推進,根本沒有實現(xiàn)過各個微小技治系統(tǒng)的完全統(tǒng)一協(xié)作。從這個意義上,可以說總體策略均以失敗告終”?;蛘撸唵蔚卣f,算法治理的目的和結(jié)果都不是簡單地價值對齊,它需要重新衡量技術(shù)實現(xiàn)和應用中的具體問題。因為所謂的價值對齊,并不是通過增加價值矢量和獎懲指數(shù)就可以實現(xiàn)的,它涉及到數(shù)據(jù)爬取和清洗、算法設(shè)計和測試,到應用場景的每一個細節(jié),并且它和技術(shù)算力之間也不完全是正向關(guān)系。例如,“在使用RLHF(reinforcement learning with human feedback,基于人類反饋的強化學習)進行價值觀對齊時,)對齊行為無形中為AI大模型的能力涌現(xiàn)戴上了‘緊箍咒’,)以犧牲模型能力的方式來換取價值觀對齊” 。OpenAI超級對齊團隊的解散就真實地反映了這種沖突的強度,團隊負責人在后來發(fā)表的個人聲明中一再強調(diào)由于公司將產(chǎn)品性能置于價值對齊之前,以至于團隊獲得的計算和數(shù)據(jù)資源并不足夠。這說明,盡管價值對齊的結(jié)果和成效尚處于難以評估的狀態(tài),但其依賴于社會預測和強反饋以及偏好排序的控制論做法,本身就是在算力上缺乏執(zhí)行的可靠基礎(chǔ)。
印度比拉理工學院的機器人模擬專家阿卡普拉沃·包米克在談到具有自主性的AI智能體設(shè)計需要遵循的原則時,特別強調(diào)了只有從具身認知的特性、而不是抽象的人機對立原則出發(fā)才能有所突破。由于認知本身是基于同智能體自身所處的環(huán)境之間的交互而形成的,它首先具有情境性,并且這種情境性認知會建立起一個隨著時間壓力而推進的連續(xù)的進化響應,從而動態(tài)地生成適合于情境的價值判斷或行動。這種認知模型本身不具有泛化擴展性,因此只能以環(huán)境反饋的方式進行補償,而無法“完全形成對相關(guān)行為的系統(tǒng)響應”。這也就解釋了為什么Gemini的研發(fā)團隊在試圖糾正訓練數(shù)據(jù)集的數(shù)據(jù)分布不均衡所導致的種族主義偏差時,為什么會引發(fā)更顯而易見的錯誤。它同時也導向了一個價值對齊的擁護者們?nèi)菀谆乇艿膯栴}:對齊行為的效果并不如器官移植一般理想,它更像是基因修改,其下游的風險難以預測。因為“被設(shè)計的倫理/價值”在何種意義上可以與持續(xù)性的智能體-環(huán)境交互系統(tǒng)始終保持自洽,這本身就是一個需要證明的命題。與現(xiàn)實情境中的價值多元相對應,其實并不存在抽象的有益于“人類”的唯一價值。特定的價值總是使一些人受益而損害另外一些人的利益。每一個具體的價值判斷都依賴于上下文信息和在不同的規(guī)范性領(lǐng)域(如道德、習俗、認知和政治)進行協(xié)調(diào)行動的技巧,而不是某種作為標準方案的規(guī)范性的“對齊”?!皼]有什么可以保證標準解決方案所呼吁的建立只重視人類的人工智能的普遍政策得到普遍實施。在一個利益競爭和許多壞行為者的混亂世界里,標準的解決方案看起來像是一種冰冷的安慰”?!皩R”的設(shè)想更接近波普爾所批評的社會改造的“烏托邦策略”,只不過這一次是賽博屬性的,它以維護理想價值原則作為控制論的首要原則,從而必然導致實踐中的教條主義和獨斷論。而且,對首要原則和總體策略的任何質(zhì)疑,都有可能導致顛覆性的結(jié)果;使得哪怕是技術(shù)性的糾錯,都要耗費巨大的社會成本(尤其考慮到數(shù)字技術(shù)和人工智能的普及),甚至是徹底失敗。
三、直面人機系統(tǒng)生態(tài):從具身認知到開放性網(wǎng)絡
美國計算機應用專家戴維·波爾特在《圖靈人:計算機時代的西方文化》一書中以“圖靈人”的具身化比喻,將計算機的工具理性原則所塑造的技術(shù)無意識的社會化和個人化生動地表達了出來。“圖靈人暗示人與信息、工作、權(quán)力和自然的關(guān)系……計算機把人界定為‘信息處理器’,把自然定義為信息處理的對象”。整個世界的加速數(shù)字化(然而卻并不均衡)使得數(shù)字技術(shù)形成了一種連續(xù)性的基礎(chǔ),將一切人、機器、制度整合進了“萬物互聯(lián)”之中,以至于不但很難再將屬于數(shù)字技術(shù)的工具理性和衡量標準從事物中剝離出來,甚至連認知都受到了新的知識生產(chǎn)范式的影響。紛繁復雜的世界以一種追求確定性的方式被某種形式上的一致性所連綴,它仿佛陀思妥耶夫斯基筆下的由鋼鐵和玻璃建造起來的巨大的、無縫籠罩的水晶宮,透明奪目,令人驚嘆,將一切的復雜性都吸收到自己的內(nèi)部,賦予其中的一切以抽象且勻質(zhì)的合法性。只不過在今天,這個數(shù)字化的“水晶宮”的建筑材料是0和1,物理形狀上無所不包的穹頂則被無數(shù)的連接所形成的扁平結(jié)構(gòu)所取代。這個以1862年倫敦萬國博覽會展館為原型的關(guān)于世界的隱喻,“已經(jīng)為集中的、體驗為導向的、大眾化的資本主義(尤其是數(shù)字資本主義——本文作者注)做好了物質(zhì)準備,廣泛地將外部世界吸收到一個完全精確計算的內(nèi)部空間里來?!木S度足夠大,以至于也許人們根本不用再離開它了”。
人工智能日益廣泛的應用,在日常生活領(lǐng)域悄無聲息地掀起了一場革命,無數(shù)的在線服務和應用程序?qū)⑻幱诓煌貐^(qū)的人類基本活動的每一個細節(jié)聯(lián)系起來,不但幾乎所有的社會關(guān)系被在線技術(shù)重構(gòu),而且同時伴隨的還有一些關(guān)系的消亡和另一些新型關(guān)系的形成。作為數(shù)字實體運營的網(wǎng)絡平臺擁有的活躍用戶數(shù)量有可能超過很多國家的人口。然而,與這種技術(shù)上的連續(xù)性形成鮮明對照的是,觀點、價值、立場的多元化和沖突也更加以顯性的方式得到展現(xiàn),它們甚至超越了前數(shù)字時代的地緣界限?!熬奂诹餍芯W(wǎng)絡平臺上的大量用戶群體比政治地理意義上的群體邊界更為分散,而且網(wǎng)絡平臺運營主體的利益可能與國家利益產(chǎn)生分歧”。人工智能裝置的出現(xiàn)只是在已經(jīng)足夠復雜的多元化和沖突之間增加了一些新的維度而已,技術(shù)的連續(xù)性從來就不是也不可能是價值一致性的形式保證。
盡管數(shù)字理性本身具有基于技術(shù)特征而呈現(xiàn)出來的共性,但它和復雜的人類價值體系仍然處于不對稱的狀態(tài),因此,希望對人工智能實現(xiàn)基于技術(shù)連續(xù)性的價值一致性改造本身是難以實現(xiàn)的。這涉及人工道德的想象和設(shè)計的問題。即便是在激進科幻小說中,建立一種普遍性的人工道德不但是難以令人信服的,也是在倫理上被詬病的。僅有的實踐性嘗試也只限于在電子游戲和特定的虛擬現(xiàn)實中,因為這兩者的設(shè)置都是抽離了一切復雜性的環(huán)境簡化,并且也不需要隨著環(huán)境的改變做出判斷適應。但真實的數(shù)字環(huán)境哪怕是在最基本的條件下也必須處理諸如有偏見的數(shù)據(jù)、算法不透明以及獎勵功能無法表征復雜的倫理規(guī)范等問題。即便有學者提出以強化反饋學習的機制、允許機器通過觀察人類的實際行為來內(nèi)化偏好模式從而采取行動的方式,也依舊不能打破以偏概全的數(shù)據(jù)鴻溝。事實上,價值對齊所暗含的人類中心主義價值觀早在生態(tài)主義理論中就引起了相當大的爭議,環(huán)境倫理學家區(qū)分了以人類為中心的觀點和以生態(tài)系統(tǒng)為中心的觀點之間的差別。因此,相當多反對價值對齊的研究者對于人工智能實現(xiàn)對齊(姑且不考慮技術(shù)上的現(xiàn)實性)之后是否會造成生態(tài)災難表示擔憂。
和基于數(shù)據(jù)科學的人工智能技術(shù)的連續(xù)性不同,價值的不連續(xù)性來源于其自身的特征,從本質(zhì)上來說它并不是一套精確的規(guī)則和條件判斷,而更像是一個具有彈性的語法體系,其中包含了很多從歷史文化信仰體系中獲得的內(nèi)化性原則,包括但不限于文化傾向、歷史習俗、社會信念、群體觀念、政治意識形態(tài)、地域、宗教、種族、性別甚至職業(yè)身份等多重元素。目前大多數(shù)科創(chuàng)企業(yè)所采取的通過強調(diào)匹配不同算法特征及其治理需求的分類治理框架來實現(xiàn)價值對齊的方式,體現(xiàn)為應用環(huán)境通過對輸入變量賦值進而對輸出結(jié)果產(chǎn)生影響,如對生成式人工智能進行預訓練后的模型微調(diào)就屬于此類。這種思路由設(shè)計者將被預設(shè)為普遍性的價值原則嵌入智能自治系統(tǒng)中以形成特定的概念空間,然后根據(jù)場景調(diào)用。于是,下游應用中的相關(guān)符號被賦值,并納入與該價值原則相關(guān)的關(guān)系之中。這就是為什么“輸出一個白人家庭”的要求會被Gemini拒絕,“白人”作為敏感符號被賦值與種族主義立場相關(guān),而有色人種的要求則不會。這種“價值屬性”其實并不是人工智能對人類價值觀的理解,只是出于算法編寫者的設(shè)計。從這個意義上說,價值對齊的敘事編織從根本上說并不反映被假想出來的人機差異,而是關(guān)乎人工智能設(shè)計和算法治理的問題,更簡單地說,它是一個具有自主性的智能體應不應該,以及如何設(shè)計的問題。
反觀人類自身的基于道德判斷的行為,就會發(fā)現(xiàn),具身認知和知覺能力是形成完整價值判斷的基礎(chǔ)。因為具身認知是有機體適應環(huán)境、對多種感覺刺激進行辨別并形成綜合理解的活動,在此基礎(chǔ)上形成的情感、道德和價值判斷以及相應的行動和具身認知,是不可分離的。這種具身主義的觀點對認知主義是一種否定。后者相信,人類的心智實際上是一種特殊的信息處理系統(tǒng),可以理解為根據(jù)某些特定的邏輯規(guī)則或者某種形式的數(shù)理算法對于無意義的抽象符號所進行的計算;而具身主義則強調(diào)了身體及其感官系統(tǒng)的重要性,認為它們的特殊體驗造成了認知和情感-價值判斷的差異。
對此的一個佐證是對一些基于誤判而出現(xiàn)的機器人事故的解讀。各國都曾出現(xiàn)過機器人因?qū)⑷梭w誤判為作業(yè)對象而使其致殘或致死的事故。這是“回形針假設(shè)”的現(xiàn)實版。究其原因,機器只根據(jù)預先的算法設(shè)計行事,而不是根據(jù)傳感裝置獲得的對象的特殊信息進行判斷。后者正是智能認知具身化的要求。事實上,早在1986年,布魯克斯已經(jīng)從控制論角度出發(fā),強調(diào)智能是具身化和情境化的,他認為傳統(tǒng)以信息表征為核心的經(jīng)典AI進化路徑是錯誤的,而要消除表征的局限性,就要制造基于行為獲取信息的機器人。蘇黎世大學人工智能實驗室前主任羅爾夫·普菲弗與加拿大佛蒙特大學的喬?!ぐ罴拥聞t在合著的《身體的智能:智能科學新視角》一書中進一步提出,智能行為可以通過加強智能體的“身體”與外部環(huán)境交互的方式實現(xiàn)新的學習反饋機制,從而形成更能應對世界復雜性的智能。而在業(yè)界方面,英偉達創(chuàng)始人黃仁勛就曾在2023年表示,具身智能是能理解、推理,并與物理世界互動的智能系統(tǒng),是人工智能的下一個浪潮。
從根本上而言,具身智能就是讓人工智能獲得“身體”——它不是指形式上的身體,而是具備感性經(jīng)驗獲得能力的身體。正如人類的認知是基于對感官所獲得的信息進行加工的過程一樣,具身智能的發(fā)展思路是試圖幫助人工智能從對情境的實時交互中形成符號理解的過程,它是將認知置于環(huán)境中,形成連續(xù)的進化響應的過程。簡單地講,具身人工智能將不再像傳統(tǒng)人工智能那樣對相關(guān)條件和行為進行對應反應,而是和人類理解世界的方式類似,通過傳感設(shè)備獲得的第一手環(huán)境信息(聲音、影像、觸覺、溫度甚至表情等),建立起實時、動態(tài)的完整符號模型。其認知和理解不再是“離線”式的,而是滿足時間壓力的持續(xù)交互狀態(tài)。這種心智仿真結(jié)構(gòu)所形成的智能體將是一個與情境不可分離的開放網(wǎng)絡。
這和現(xiàn)有的認知型智能體的發(fā)展路徑完全相悖。無論是OpenAI的GPT和Sora,還是谷歌的Gemini、Gemma,即便是所謂的多模態(tài)大模型,也主要基于對去語境化的信息建構(gòu)起來的符號系統(tǒng)的處理。該路徑的理論根據(jù)在于,歐美中心主義認為數(shù)字信息比與具體語境相關(guān)的模擬信息更重要。雖然人類對于人工智能的價值/道德/期待在很大程度上是“因為我們習慣于將倫理與類人的外觀和類人的通過語音的交互聯(lián)系在一起,而所有這些實際都應該歸功于良好的設(shè)計和熟練的編程”。這種信息實體論不但改變了人們對現(xiàn)實的看法,而且在人工智能技術(shù)的發(fā)展上更重視人類已有經(jīng)驗文本——文字、影像、圖表等,而忽視了具身智能的交互性發(fā)展。生成式人工智能和大模型技術(shù)所依賴的數(shù)據(jù)集來源的結(jié)構(gòu)性問題正是這一智能發(fā)展方向無法克服的一個弊端。即便是已有的多模態(tài)大模型擴大了來源文本的類型,但依舊沒有使問題變得好轉(zhuǎn),因為不同的文本生產(chǎn)技術(shù)的發(fā)展水平在世界范圍內(nèi)并不均衡,同時也會產(chǎn)生不同的意義模式,當其被去語境化為普遍符號的時候,就已經(jīng)改變了其被生產(chǎn)出來時與真實生活的距離。有事實表明,部分數(shù)據(jù)在訓練一段時間后可能已經(jīng)破壞了大模型的表征,并且,大模型的技術(shù)邏輯會導致數(shù)據(jù)離散度變小,從而產(chǎn)生認知中心化乃至模型崩潰的結(jié)果。它也是其發(fā)展的頑疾之一,它有可能導致價值極化的出現(xiàn)。
一些國際機構(gòu)已經(jīng)發(fā)布了政策,試圖明確人工智能系統(tǒng)在設(shè)計時應遵守的倫理原則。例如,歐盟已經(jīng)確定了關(guān)于使用人工智能的四項道德原則:無惡意、尊重自主權(quán)、算法公平和透明性。美國白宮科學技術(shù)辦公室提出的原則略有不同,其中特別強調(diào)了人類有選擇不與人工智能互動的權(quán)利,這一點其實是對自主權(quán)內(nèi)涵的進一步擴大,也是對人類個體的獨特性和自治性的保護,即人類有權(quán)決定不受人工智能的影響而采取符合自己判斷的自主行動。從這個意義上來講,通過施加對人工智能的價值對齊進而將設(shè)計的倫理原則施加于人類社會的做法,本身就是價值殖民的一種改版。這一結(jié)論并不夸張。從技術(shù)實踐的層面來看,能夠有效地在現(xiàn)有大模型中推進價值嵌入和價值對齊的,通常都是在技術(shù)、數(shù)據(jù)和算力上占據(jù)優(yōu)勢的大型科技公司,OpenAI、谷歌的DeepMind之前都建立了專注于解決價值對齊問題的團隊(然而,前者剛剛宣布對其予以解散,后者的成效還需要進一步驗證)??紤]已開發(fā)的人工智能的應用廣度和深度,技術(shù)決定論似乎又一次在價值領(lǐng)域以一種奇異的姿態(tài)發(fā)揮了作用,它使得頭部從業(yè)者不但可以主導市場,甚至可以主導人類社會。現(xiàn)實有可能變成:誰掌握了最先進/應用最廣的人工智能,誰就擁有了實現(xiàn)價值對齊的權(quán)力,誰也就擁有了界定人類價值和人類普遍利益的權(quán)力。從而,結(jié)果有可能是,人工智能技術(shù)的掌握者不但以特定的價值實現(xiàn)了對AI的“對齊”,而且更以后者的無所不在、以技術(shù)無意識的方式實現(xiàn)對人類群體的普遍性對齊。這種價值觀的擴展方式是歷史上任何政治文化方案都無法實現(xiàn)的。
OpenAI超級對齊團隊的解散為價值對齊問題的解決提供了另外一種思路:與其著眼于現(xiàn)有大模型的價值對齊,既需要面對價值本身的復雜性及其與人工智能性能的張力問題,還需要面對下游風險加劇的問題,不如專注于AI更多的可能性與開放式人機生態(tài)體系的打造,通過有效的人機交互與環(huán)境感知,鼓勵開發(fā)與人類處于更廣泛的目的分享和責任分擔的人工智能。吳冠軍在分析Midjourney的風險防控時,也談到:“過濾”的非持續(xù)有效性,可以通過互動機制改善識別——“在互動過程中,我們需要探尋可能存在的突破點或‘短路’機制,識別用于切入并可能導致系統(tǒng)無法完全過濾此類信息的入口。這揭示了世界的復雜性和趣味性。”于2023年9月成立的法國生成式人工智能委員會在2024年3月向政府提交的新時期法國人工智能發(fā)展建議報告中特別提到,開放性是人工智能發(fā)展的基礎(chǔ)。報告指出必須從技術(shù)開發(fā)和市場開放兩方面預防所可能導致的集中化風險,支持多元主體之間的競爭。無論是應對人類社會的復雜性,還是防范由技術(shù)所導致的任何形式壟斷,開放性都是極為核心的一個維度。這就如同拉圖爾所強調(diào)的行動者穿梭于其間的“網(wǎng)絡”概念,而人工智能也正是這些行動者之一。
結(jié)語
在技術(shù)的原初設(shè)定中,價值對齊作為一種人工智能治理方法,彰顯的是技術(shù)設(shè)計者企圖通過人類價值嵌入機器體系的方式獲得更加可靠的人工智能產(chǎn)品的信心。然而,在面對技術(shù)-社會的復雜互動關(guān)系時,價值對齊卻無法真正有效付諸實踐。一方面,潛藏于價值對齊背后的人類中心主義的控制幻想假設(shè)了一種以人類現(xiàn)有道德水平和認知為基準的整體性解決方案,堅信人類所形成的價值體系和原則足以為人工智能技術(shù)的發(fā)展植入更好的目標和原則。這無疑是一種人類在面對人工智能時的“造物主式”的傲慢。另一方面,圍繞著價值觀差異所引發(fā)的沖突、斗爭等長久地存在于人類社會發(fā)展始終,歷史性和多元性構(gòu)成了價值觀本身的特質(zhì)。那么,在面對人工智能的治理問題時,人類何以能夠空前地達成一種價值觀念上的統(tǒng)一并將其附加于人工智能之中?如若不能,一種更加危險的趨勢或許正醞釀于價值對齊的設(shè)計之中:人工智能技術(shù)的掌握者是否會以特定的價值實現(xiàn)對AI的“對齊”,進而誘使無所不在的人工智能產(chǎn)品以技術(shù)無意識的方式實現(xiàn)對人類群體的普遍性對齊?
因此,人工智能的價值對齊問題從本質(zhì)上來說,既涉及對智能應用過程中出現(xiàn)的問題和風險的評估,也涉及對所謂“人類價值原則”及其規(guī)范可能的理解。后者至今仍然停留在爭議之中,而前者則是整個社會的智能化轉(zhuǎn)型所面對的挑戰(zhàn)。今天,簡單化的人機關(guān)系理解模式已經(jīng)無法理解泛在的人工智能對人類社會的整體性重塑,在現(xiàn)有實踐和未來趨勢中,人機協(xié)作智能是進一步回答“人類如何面對人工智能時代到來”問題的基礎(chǔ)性認識。人類智能和人工智能具有不同的特點和優(yōu)勢,這也就意味著人機協(xié)作和融合在不同的程度和場景中可以有個性化的應用。與單純強調(diào)人工智能的超越性相比,協(xié)作智能的類型和開放性具有更廣闊的前景和潛力。重新連通效率與公平、性能與價值、情境性與普遍性、全球性與地方性,這也是后人類知識圖譜生成的方式之一。
參考文獻
[1][加]威廉·萊斯.自然的控制[M].岳長齡,譯.重慶:重慶出版社,)1996:6.
[2][法]布魯諾·拉圖爾.我們從未現(xiàn)代過:對稱性人類學論集[M].劉鵬,安涅思,譯.上海:上海文藝出版社,)2022.
[3][德]烏爾里希·貝克.風險社會——新的現(xiàn)代性之路[M].張文杰,何博聞,譯.上海:譯林出版社,2021:23.
[4][美]朱迪斯·巴特勒.身體之重:論“性別”的話語界限[M].李軍鵬,譯.上海:上海三聯(lián)書店,2011:10.
[5]賈開,)趙靜.技術(shù)嵌入、價值傾向與算法分類治理[J].經(jīng)濟社會體制比較,)2023(4):101-111.
[6]劉永謀.技術(shù)治理通論[M].北京:北京大學出版社,2023:579.
[7]郭全中,)張金熠.AI向善:AI大模型價值觀對齊的內(nèi)容與實踐[J].新聞愛好者,)2023(11):19-24.
[8][印]阿卡普拉沃·包米克.機器意識[M].王兆天, 李曄卓,譯.北京:機械工業(yè)出版社,2023.
[9]Ratoff William. Can the predictive processing model of the mind ameliorate the value-alignmen tproblem? [J]. Ethics and information technology,)2021,)23 (4): 739-50.
[10][美]尼爾·波斯曼.技術(shù)壟斷:文化向技術(shù)投降[M].何道寬,譯.北京:中信出版集團,2019:121.
[11][德]彼德·斯洛特戴克.資本的內(nèi)部[M].北京:社會科學文獻出版社,)2014:275.
[12][美]亨利·基辛格,)埃里克·施密特,)丹尼爾·胡滕洛赫爾.人工智能時代與人類未來[M].胡利平,風君,譯.北京:中信出版集團,2023:117.
[13]James Gips. Towards the ethical robot[M]∥Android epistemology. Cambridge,) MA:MIT Press,) 1994:284.
[14]吳冠軍.從Midjourney到Sora:生成式AI與美學革命[J].閱江學刊,)2024(3):85-92.
【本文原載于《華中科技大學學報(社會科學版)》2024年第5期,澎湃新聞經(jīng)授權(quán)轉(zhuǎn)載】