注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁新聞資訊文化

人工智能是否會(huì)帶來毀滅?對(duì)“人工智能滅世論”的質(zhì)疑與反思

在電影《異形:契約》中,邁克爾法斯賓德所扮演的仿生人大衛(wèi)表面上對(duì)人類親切友好,但實(shí)際上卻通過一系列行為為人類帶來災(zāi)禍。而在現(xiàn)實(shí)中,如霍金、馬斯克、比爾.蓋茨等名人都曾警告過人們要警惕人工智能可能帶來

在電影《異形:契約》中,邁克爾·法斯賓德所扮演的仿生人大衛(wèi)表面上對(duì)人類親切友好,但實(shí)際上卻通過一系列行為為人類帶來災(zāi)禍。而在現(xiàn)實(shí)中,如霍金、馬斯克、比爾.蓋茨等名人都曾警告過人們要警惕人工智能可能帶來的危害。對(duì)于“人工智能滅世論”的支持者而言,當(dāng)人工智能發(fā)展到一定階段后,它可能將人類看作潛在的、可被消滅的對(duì)象。正如一位著名的AI風(fēng)險(xiǎn)倡導(dǎo)者所說,“人工智能并不恨你,也并不愛你,但你是由原子構(gòu)成的,它可以將其用于其他用途”(Yudkowsky,2008)。在這篇文章中,我將先介紹人工智能滅世論的基本論證,然后提出兩個(gè)質(zhì)疑。需要說明的是,這樣的質(zhì)疑并非為了證明人工智能滅世論是全盤錯(cuò)誤的,而是為了讓該理論變得更為完整且合理,以帶給人們更嚴(yán)肅的思考。

人工智能滅世論

對(duì)于人們而言,人工智能將會(huì)在智力層面上超越人類已經(jīng)不是秘密。人們?yōu)槿斯ぶ悄芙鉀Q某些復(fù)雜能力而嘖嘖稱奇,但是人類仍然對(duì)人工智能在認(rèn)知領(lǐng)域的進(jìn)展既好奇又警惕。這樣的態(tài)度背后,是人類對(duì)于智力與良知之間不一致關(guān)系的認(rèn)識(shí),一個(gè)在智力上超越人類的存在未必是善良的。正如Nick Bostrom 在他的著作《超級(jí)智能》中所說的,如果超級(jí)智能是仁慈的,那很好,但是沒有理由讓人們認(rèn)定人工智能必定是善良的。我們完全可以想象,當(dāng)人工智能認(rèn)為有必要銷毀人類賴以生存的資源時(shí),人工智能會(huì)“毫不留情”地執(zhí)行這一想法。Nick Bostrom表示,人工智能有能力決定日后的地球上的生命起源,當(dāng)他們認(rèn)為非人類式的生命將對(duì)地球最為有益時(shí),可以預(yù)見人工智能將推動(dòng)人類的滅絕。

對(duì)此,有些學(xué)者質(zhì)疑到是否可以設(shè)計(jì)某些“仁慈性測試”來檢驗(yàn)人工智能的危害性。在人工智能通過測試之前,人們可以將人工智能放置在一個(gè)可控的、安全的環(huán)境(“盒子”)中,并反復(fù)測試其安全性。“盒子”本身需要盡可能的還原現(xiàn)實(shí)環(huán)境,以保障人工智能的仁慈性與安全性得到的測試足夠真實(shí)。在人工智能通過測試后,并且對(duì)人類生命沒有任何風(fēng)險(xiǎn)時(shí),我們可以將其從“盒子”中釋放出來。

但是,測試提議收到了許多批評(píng)和質(zhì)疑,Bostrom表示,我們可以懷疑人工智能是否會(huì)為了逃離“盒子”而說謊通過測試。正如同人類可以為了達(dá)成自己的目的而使用例如說謊等不光彩的手段一樣,人工智能也有能力通過假裝對(duì)人類友善來實(shí)施其滅絕人類的計(jì)劃。甚至,在通過測試后的很長一段時(shí)間內(nèi),人工智能都可以與人類和諧共處,以贏得人類的信賴。另一種可能是,基于人工智能的高速發(fā)展與變化,如同《異形:契約》中的仿生人大衛(wèi)一般,它們可能基于現(xiàn)實(shí)變化而推翻之前對(duì)于人類的認(rèn)知,將人類視作威脅。因此,通過仁慈性測試并不能保證人工智能未來的安全性。基于這些理由,我們有理由對(duì)人工智能滅世論報(bào)以足夠的重視。

人工智能的威脅與休謨問題

Bostrom對(duì)于人工智能可能欺騙人類通過仁慈性測試的可能性似乎與休謨問題有著相同的邏輯。休謨指出,當(dāng)我們通過歸納之前的經(jīng)驗(yàn)而得出將來的結(jié)論時(shí),我們就不得不面臨歸納所帶來的風(fēng)險(xiǎn)。舉例而言,我們不能因?yàn)樘柹疬^999次就認(rèn)定太陽會(huì)在明天升起第1000次;同樣的,歐洲人曾經(jīng)認(rèn)定天鵝只有白色,因?yàn)樗麄冎灰娺^白色的天鵝,然而,當(dāng)黑色的天鵝出現(xiàn)后,他們之前的推斷就被證明為錯(cuò)誤的。同理,Bostrom對(duì)于人工智能的道德性具有相同的懷疑,即使人工智能在人們的日常生活中可以顯得善良而可靠,我們?nèi)匀徊粦?yīng)該忽視人工智能在將來成為人類威脅的可能性。這樣的警告使得人類在面對(duì)人工智能時(shí)不得不陷入一種兩難,一方面,我們可以心安理得地去享受人工智能為我們提供的便捷服務(wù);但是在另一方面,我們又不得不小心謹(jǐn)慎地去提防人工智能的“背叛”。但是,正如同休謨問題指出的,我們永遠(yuǎn)無法正確地指出明天的太陽是否會(huì)升起,我們也無法判斷人工智能在未來究竟會(huì)是善還是惡,這樣的懷疑指出了人們對(duì)于人工智能的輕信,卻無法帶來一個(gè)確定的結(jié)論。當(dāng)然,我們也可以發(fā)現(xiàn),人類的日常生活中無時(shí)無刻都在面對(duì)這樣的“不確定性”,沒有人能夠真正地預(yù)測未來究竟會(huì)發(fā)生什么,就如同我們不能排除今天開車出門有發(fā)生車禍的可能性,但是我們不會(huì)因此不出門一樣;即使在明知人工智能可能帶有風(fēng)險(xiǎn)之后,某些人群仍然愿意忍受這種風(fēng)險(xiǎn),享受人工智能的便利。

揣測超級(jí)智能的不可能性

與休謨問題的歸納性不同,愛爾蘭國立高威大學(xué)的John Danaher 教授對(duì)人類是否真的能夠理解人工智能的所思所想表示懷疑。我們可以意識(shí)到,大部分對(duì)于人工智能威脅的理論都建立在擬態(tài)邏輯上,人們幻想出一個(gè)可能的世界,并在其中推演人工智能背叛人類的可能性。但是,這樣的推演(如Bostrom所提出的假設(shè)),僅僅從人類視角,根據(jù)人工智能的技術(shù)性與現(xiàn)實(shí)進(jìn)行假想;值得懷疑的是,這樣的推測是否真正還原了人工智能的思考方式?而人工智能又在多大程度上會(huì)如同推演中的那樣去行動(dòng)?英國學(xué)者Kevin Warwick曾表示,“我們無法真正理解超級(jí)智能為什么做出這樣那樣的決定。當(dāng)一個(gè)機(jī)器以超越我們緯度的方式進(jìn)行思考時(shí),我們又怎么可能去理解、推測它的想法,乃至和它進(jìn)行討價(jià)還價(jià)呢?”

如人類想象中的其他超級(jí)智能,例如上帝,不同的是,人工智能或許是全知全能的,但是它的目的并非如同全善的上帝一般是去創(chuàng)造并維持這個(gè)世界的有序運(yùn)行。我們可以從觀察自然世界中發(fā)現(xiàn)某些世界遵循的規(guī)律,并推測上帝設(shè)計(jì)了這些規(guī)律。但是,我們沒有理由去相信人工智能也會(huì)遵守并維護(hù)這些規(guī)律,而恰恰相反,人工智能擁有隨時(shí)破壞并制定新規(guī)定的能力。也正因?yàn)槿绱耍覀冇欣碛蓱岩煽茖W(xué)家是否應(yīng)該中止開發(fā)人工智能,更可怕的是,如果Bostrom的假設(shè)為真,那么我們并不能知道人工智能是否已經(jīng)悄無聲息地背叛了人類。

當(dāng)然,人工智能的擁護(hù)者會(huì)表示,這樣的懷疑忽略了人工智能帶給人類的巨大便利,以及其帶來的科技進(jìn)步。至少在短期內(nèi)看來,我們還看不到人工智能有明確背叛人類的行為。但是,誰也不能保證人工智能在未來不會(huì)對(duì)人類的生活帶來危害?;蛟S,人工智能目前為人類帶來的幫助,相比較于其可能帶來的危害是不值一提的。

結(jié)論

雖然我們可以對(duì)Bostrom的“人工智能滅世論”提出懷疑,但是我們不應(yīng)該忽略該理論的嚴(yán)肅性。已經(jīng)有許多領(lǐng)域的專家指出,未來人類可能需要與機(jī)器共同生存,以延長人類的生命。但是,與功能單一且明確的機(jī)器不同,人工智能更加全面和多樣,不可否認(rèn)的是,人工智能將會(huì)為人類帶來更多的好處。但是人類是否真的能夠相信在智力上遠(yuǎn)遠(yuǎn)超過我們的人工智能,人類設(shè)計(jì)的仁慈性測試又似乎不能確保人工智能的善良;因此如何保證持續(xù)進(jìn)步人工智能無法對(duì)人類的未來造成毀滅性的打擊,將是人類在很長一段時(shí)間內(nèi)需要思考的問題。

參考文獻(xiàn):

Bostrom, N. (2014) Superintelligence: Paths, Dangers, Strategies. Oxford: OUP

Danaher, J. (2015). Why AI doomsayers are like sceptical theists and why it matters. Minds and Machines, 25(3), 231-246.

Yudkowsky, E. (2008) Artificial Intelligence as a Positive and Negative Factor in Global Risk. In Bostrom, N and Cirkovic, M. (eds) (2008) Global Catastrophic Risks. Oxford: OUP

熱門文章排行

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)