問題8. “你是否是一個(gè)偽君子?!”
我收到的大部分反應(yīng)是比較禮貌的。下面的一些非常嘲諷的評論以一種比其他方式更強(qiáng)烈的、更情緒化的方式深深地震撼了我,它帶給我的痛苦影響了我回答的篇幅。我希望我能夠公正地回答。
來信
親愛的德·加里斯教授:
最近,一個(gè)網(wǎng)絡(luò)新聞讀者偶然發(fā)現(xiàn)雨果·德·加里斯的描述。德·加里斯,一個(gè)人工智能專家,在CNN上面預(yù)示一場即將到來的戰(zhàn)爭,在這場戰(zhàn)爭中,他所努力發(fā)明的機(jī)器人大腦,稱作“人工智能”將最終摧毀人類。德·加里斯由此認(rèn)為,他的責(zé)任正是現(xiàn)在,而不是遲些時(shí)候,去敲響警鐘,來告訴大家即將到來的機(jī)器人控制的死亡時(shí)代,因?yàn)樗峭苿?dòng)這個(gè)時(shí)代到來的人。德·加里斯在瑞士達(dá)沃斯的世界經(jīng)濟(jì)論壇上傳遞了這個(gè)聲明。
德·加里斯同時(shí)正在尋求好萊塢幫忙撰寫一個(gè)關(guān)于即將到來的“人工智能”戰(zhàn)爭的電影劇本,他想在人類被摧毀之前完成。
回答
我經(jīng)常被詢問這樣的問題。一般的態(tài)度好像是:“既然你對未來人類被人工智能機(jī)器滅絕的可能性如此關(guān)心,那為什么還要從事它們早期的研究呢?”
嗯,因?yàn)槲易罱K還是一個(gè)宇宙主義者。我想看到人類制造出人工智能機(jī)器。當(dāng)然,我不是那種厭惡人類的、瘋狂的宇宙主義者—— 可以鎮(zhèn)定地說:“我會(huì)為了一個(gè)人工智能機(jī)器而犧牲幾十億人類的生命?!币苍S在將來會(huì)有這樣的人,因?yàn)槿说男愿穸喾N多樣。也許宇宙主義者當(dāng)中確實(shí)包括這樣的極端分子,但是我肯定不是其中的一員。
在我死之前的30~40年內(nèi),我希望我不會(huì)看到人工智能戰(zhàn)爭的“醞釀”。當(dāng)然,如果這樣的大災(zāi)難可以避免我將更加高興。但是現(xiàn)在,如果我和其他的大腦制造者們不去敲響警鐘,還有什么其他的選擇呢?難道只是盲目地推動(dòng)人工智能的制造直到一切都變得太晚?大腦制造者們在這個(gè)領(lǐng)域是專家,因此,他們可以首先看到技術(shù)的發(fā)展趨勢,并且,如果他們有政治頭腦,他們也應(yīng)該可以看到其政治后果,特別是如果他們具有西拉特(譯者注:Szilard Leo西拉特·利奧(1898—1964)匈牙利裔美國物理學(xué)家和生物學(xué)家。作為曼哈頓工程計(jì)劃的一員,他幫助研制出第一枚原子彈。西特拉后來反對研制與使用所有核武器并致力于研究分子生物學(xué))的技術(shù)和政治才能。
專家們可以比普通大眾早幾十年看到即將發(fā)生的情形。由于技術(shù)發(fā)展的速度,制造出足夠聰明且可以使人類感到恐懼的人工智能機(jī)器將可能不需要很多年,也許只要十幾年的時(shí)間。我猜測,它們可能在50年的時(shí)間內(nèi)達(dá)到人類的智慧水平,誰知道呢?
我認(rèn)為,世界上的那些大腦制造者們引發(fā)關(guān)于人工智能問題的討論只是出于道德上的責(zé)任,即在第一臺(tái)真正智慧的人工智能機(jī)器投入市場前,給予人類足夠的時(shí)間來徹底討論這個(gè)問題。
但是,你可能會(huì)說,只要停止人工智能研究,不就行了嗎?這難道不是更符合邏輯嗎?
這取決于你是宇宙主義的還是地球主義的研究者。個(gè)人來說,我是一個(gè)宇宙主義者。制造出擁有1040個(gè)組成部分或者更多部分的人工智能機(jī)器,我是指真正的超級機(jī)器,擁有神一樣的智慧,探索宇宙和其廣漠空間的秘密,永遠(yuǎn)不死,思考著我們難以想象的問題,對于我來說,有一種催眠般的吸引力。
它是我的終生夢想,對于我來說是一種宗教,并且非常強(qiáng)烈。我可以想象,在未來的某個(gè)時(shí)刻,有幾百萬人會(huì)和我擁有同樣的夢想,我希望這件事情發(fā)生的原因是我真正地希望人類制造這樣的事物,正如我在第4章關(guān)于宇宙主義的解釋一樣。
但是,我不是一個(gè)如此片面的宇宙主義者以至于我認(rèn)為大眾應(yīng)該被蒙在鼓里。我有足夠的地球主義的同情以至于我不想看到人類冒著在人工智能機(jī)器手中被滅絕的危險(xiǎn)。因此,大眾應(yīng)有知情權(quán),應(yīng)該警示大眾,以便他們可以選擇自己的方式前進(jìn)。