換一個比方,考慮一下你對一只停在小臂皮膚上的蚊子的感受。當你打死它的時候,你會停下來想,你剛殺死的小生命是納米科技工程的杰作,是20世紀科學家根本沒有辦法制造的嗎?蚊子擁有幾十億個細胞,每一個細胞都可以看作一種大分子城市,細胞里的每一個分子就像城市里的人一樣。大分子相對于細胞的大小就像人相對于城市一樣。
盡管蚊子是經(jīng)過幾十億年進化的極其復雜和不可思議的生物,我們?nèi)祟惛揪筒粫紤]這些而輕易殺死它們,因為我們從來都只是把它們看成是一種有害生物。當我們漫步在森林里踩死一只螞蟻,或者把蜘蛛沖到下水道里的時候,我們都會有同樣的態(tài)度。
誰又會說那些人工智能機器們不會對我們有同樣的看法而消滅我們呢?擁有超級的“人造”智慧,做這些事情對它們來說是小菜一碟。
對于地球主義者,這場辯論中最重要的詞匯是“風險”。地球主義者爭論說,人類從來就不該冒任何風險,比如像制造高級形式的人工智能機器可能會導致人類滅亡這樣的風險。唯一讓風險降為零的保險辦法,就是永遠不要制造人工智能機器。
關鍵時候,如果地球主義者發(fā)現(xiàn)宇宙主義者真的要制造高級人工智能機器時,地球主義者可能會為了保證人類的生存而去消滅宇宙主義者。他們會認為,為了保護整個人類,而殺死幾百萬宇宙主義者是可以接受的。
地球主義者們有理由認為這樣的犧牲是合理的。舉一個歷史上類似的例子—— 在二次世界大戰(zhàn)的末期,斯大林的軍隊為了占領柏林和摧毀殺害了2 000萬俄國人的希特勒納粹政權,為了奪取納粹占領的每一個歐洲城市,付出100 000俄國士兵傷亡的代價。對于斯大林來說,這樣的犧牲是合理的,因為可以得到非常大的好處,那就是讓俄國人從納粹大屠殺的恐懼中解救出來。
你可能會問:“真的會有人頭腦清醒地選擇做一個真正的宇宙主義者,冒著整個人類可能被滅絕的風險嗎?”
相信在未來,幾百萬人將會對這個問題給以肯定答案。我覺得,當更多的人意識到人工智能機器的發(fā)展前景,他們最終會支持人工智能機器的制造。本書將會用一個章節(jié),以宇宙主義者的視角來論述為什么要支持制造人工智能機器。
這些人,即宇宙主義者,將會給這些生命(一個人工智能機器等價于一萬億萬億個人類)的制造以更高的優(yōu)先級別,因為它們是神一樣的、永恒的、無所不能的,反而不會去理會人類可能被人工智能機器滅絕的風險。
讓我重新解釋一下,以便沒有人再對宇宙主義者的理念有疑問。宇宙主義者,定義為支持制造人工智能機器的人。人工智能機器如果被制造出來,它們遲早會發(fā)現(xiàn)人類是如此的低等,像一個有害物,從而決定來滅絕我們,不論以什么樣的理由。因此,宇宙主義者已經(jīng)準備接受人類被滅絕的風險。如果人類被滅絕,那意味著你我的后代也被消滅。那將是人類歷史上最大的災難,因為再也沒有歷史了,再也沒有人類了。人類也將成為地球上曾經(jīng)存在但已滅絕的那99%的物種之一。
因此,對于地球主義者而言,宇宙主義者是魔鬼附身,比希特勒、日本帝國主義或者其他任何殺害億萬人類的政權都壞得多,因為受害的范圍將大得多?,F(xiàn)在我們談論的不是幾百萬人的屠殺,而是整個人類,即幾十億人的滅絕。
但是對于宇宙主義者來說,在這個無關緊要的小行星上談論人類生存與否是微不足道的。因為這個行星圍繞的恒星也只是我們這個星系上約2 000億個恒星中微不足道的一顆,已知宇宙中同樣的星系也有這么多(也是以10億計算的),并且在這個多元宇宙中可能還有很多其他宇宙(根據(jù)一些最近的宇宙理論)。我稱他們?yōu)椤坝钪嬷髁x者”也正是基于他們的看法是宇宙范圍的。他們更注重“大局”,意思就是說,在一個無關緊要的小行星上,滅絕超原始的、非人工智能的物種(也就是人類),對于人工智能機器的“上帝”來說是不重要的。