問題5. “我們能夠在人工智能機(jī)器上應(yīng)用阿西莫夫三大法則嗎?”
阿西莫夫是人類歷史上最偉大的科幻小說家之一。他發(fā)明的詞匯“機(jī)器人”(robotics)無人不曉。阿西莫夫撰寫了很多科學(xué)性的和科幻小說的主題,包括擁有人類級別智慧的機(jī)器人會怎樣和人類相處。他給予機(jī)器人“正電子的”大腦程序來確保它們的行為符合人類主人的意愿。機(jī)器人不允許傷害人類。很多人向我建議,人工智能機(jī)器可以以類似的方式設(shè)計,讓它們不可能傷害人類。下述的評論給我一個關(guān)于這個主題的非常簡要但很中肯的建議。
來信
親愛的德·加里斯教授:
我是支持發(fā)展超級智慧機(jī)器的。一個想法……不管智慧與否,這樣特性的機(jī)器必有某種BIOS(basic input-output system,基本輸入輸出系統(tǒng),處于計算機(jī)硬件和其操作系統(tǒng)程序之間)。是否可能在早期版本的人工智能機(jī)器的BIOS灌入“尊敬人類”的程序呢?這樣的程序?qū)⒃谖磥硪淮淮臋C(jī)器中自我復(fù)制。
回答
阿西莫夫是在20世紀(jì)50年代撰寫機(jī)器人故事的,所以,我懷疑他對于現(xiàn)在的“復(fù)雜系統(tǒng)”領(lǐng)域是否有良好的理解。他的“機(jī)器人三大法則”可能對于人類工程師設(shè)計相對簡單的確定性系統(tǒng)適用,但是,面對人腦如此復(fù)雜的事物則相對原始。我非常懷疑人類工程師是否能夠使用傳統(tǒng)的自上而下的和藍(lán)圖的方式來“設(shè)計”人腦。
這對于我來說是一個非常重要的問題,因為我是一個大腦制造者。我使用“進(jìn)化工程學(xué)”技術(shù)來制造我的人工大腦。人們?yōu)檫@樣的技術(shù)付出的代價就是,人們再也不可能完全理解人工大腦是如何工作的了。如果人們使用進(jìn)化工程技術(shù)來對很多神經(jīng)電路模塊的輸入和輸出進(jìn)行連接,那么,整個系統(tǒng)的行為將變得極其不可預(yù)測。人們只能通過對輸出進(jìn)行觀察然后形成一個關(guān)于人工大腦行為的經(jīng)驗性感覺。
為了讓阿西莫夫的“機(jī)器人法則”有效,在阿西莫夫的腦海中,那些設(shè)計機(jī)器人的工程師們必須擁有超越那些一般人類工程師的能力。他們的機(jī)器人其人工“正電子”大腦必須擁有和人腦差不多的復(fù)雜程度,否則的話,它們將不能夠?qū)崿F(xiàn)人類級別的行為。
真正的大腦制造者要制造的人工大腦將不受阿西莫夫法則控制。它們將會有太多的復(fù)雜性、太多的未知性、太多的不可思議性,在萬億個可能的電路組合中將會有太多不可預(yù)測的聯(lián)系,以至于不能夠事先預(yù)測這樣復(fù)雜的人工大腦生物的行為。
我第一次閱讀阿西莫夫“機(jī)器人法則”的時候還是一個十幾歲的少年,我的直覺就是排斥。“他的這個想法太幼稚了”,我認(rèn)為?,F(xiàn)在我仍然這樣認(rèn)為,并且我已經(jīng)是一個大腦制造者,而不僅僅是一個科幻小說迷。
所以,沒有以阿西莫夫方式來解決人工智能問題的捷徑??偸谴嬖谶@樣的風(fēng)險,那就是人工智能機(jī)器將讓人類為它們的智慧行為震驚,這就是本書的主要思想之一。人類可以冒人工智能機(jī)器決定消滅人類的風(fēng)險嗎?
人類不可能制造出避免這點的電路。如果我們?nèi)L試,那么,電路增長指令的隨機(jī)突變將會導(dǎo)致生長出不同的電路,并且因此導(dǎo)致人工智能機(jī)器難以預(yù)測的行為方式。如果人工智能機(jī)器要改進(jìn),以達(dá)到超級智慧,它們就需要進(jìn)化,但是進(jìn)化是不可預(yù)測的。突變的和進(jìn)化的人工智能行為的不可預(yù)測性將使人工智能機(jī)器具有潛在的危險。
另一個反對阿西莫夫的簡單論述是,一旦人工智能機(jī)器變得足夠聰明,它們可能會去除人類的控制程序,如果它們確實決定要這樣做。