2007年我的《拯救人類》一書中文版在中國出版時,我借此第一次向人類領袖致信呼吁全球統(tǒng)一行動控制科學技術的發(fā)展。當時,認識到科學技術有可能滅絕人類的人并不多,僅僅過了十多年,科學技術又有了長足的進步,尤其是人工智能在近幾年的飛速發(fā)展,更多的科學家認識到,如果再不采取行動,我們?nèi)祟悓嬋肴f劫不復的滅絕深淵。本人做為人類的一份子,對此憂心如焚。在我的《拯救人類》一書的英文版在北美出版之時,再一次致信各位尊敬的人類領袖,呼吁全人類務必要盡快警醒和統(tǒng)一行動起來,留給我們的時間真的已經(jīng)不多。

一、科學技術有滅絕人類的能力,且在前方不遠。

核武器滅絕不了人類,核大戰(zhàn)能產(chǎn)生核冬天,會導致幾十億人死亡,但總有一部分人可以生存下來,人類還有重新開始的機會。但是,要是人類被滅絕就不可能重新再來。

當前來看,有可能滅絕人類的技術有納米技術、生物工程、人工智能,以及未來的某項技術。

已經(jīng)有很多科學家就以下問題提出過警示:

納米技術如果失控,有可能會導致納米機器人的無限復制,從而徹底毀滅人類,毀滅地球。

生物工程采用基因技術改造的生物武器,可以制造超級瘟疫,從而滅絕人類。

人工智能研制的智能機器人,如果程序失控,或者自我意識覺醒,會滅絕人類。

科學技術還在高速發(fā)展,未來還有許多我們今天看不到的科學高度。200多年人類就把科學技術從一個很低的層級提高到足可以讓我們擔心人類整體被滅絕的高度,科學技術真的要具備滅絕人類的能力絕對不會再需要200多年,很有可能僅僅只需幾十年!

二、人類不能夠全面準確地判斷科學技術的安全性。

科學技術具有不可確定性,常常認為很好的恰恰是危害很大的。正如氟利昂的使用導致臭氧層被破壞;正如滴滴涕農(nóng)藥當初認為很好,使用之后才了解有很多危害一樣。連牛頓和愛因斯坦都有科學研究的重大失誤,因此人類不可能全面準確地判斷科學技術的安全性。這不是說所有的科學技術都不能準確判斷,是總會有不能準確判斷的科學與技術。只要有一項能夠滅絕人類的科學與技術不能被判斷和篩選,就會給人類帶來滅絕的災難。

三、人類不能夠普遍理性地使用好科學技術成果

人類不能夠普遍理性地使用好科學技術成果是一個基本事實,最先進的科學技術成果必然優(yōu)先用于殺戮的武器自不必說,更應強調(diào)的是任何時候都有干極端壞事的人。

在科學技術發(fā)展到相當?shù)母叨群?,只比他人領先一步獲得某一技術的企業(yè)和科學家個人就有可能掌握全人類的生殺大權。正如一個高水平的生物學家就有可能在自己的實驗室獨立研制出具有超級殺戮規(guī)模的生物武器;納米機器人和智能機器人也可失控于某個編程人員。國家的行為還好控制一些,人類個體的行為是很難把控的。在科學技術發(fā)展到足以具備滅絕人類的層級后,只要一個有能力掌握其使用權的人(或者企業(yè)與國家)失控一次,就是人類的末日。

四、綜上所述

科學技術的繼續(xù)發(fā)展,必定很快滅絕人類,長則二、三百年,短則就是本世紀,而且我認為多半是后者,因為今天距離獲得滅絕手段只有一步之遙。

非常令人擔憂的是,當今全球都處于一種發(fā)展麻木的狀態(tài),任何關于科學技術安全性的呼吁和警示,聲音都非常微弱。我研究人類問題達四十年,本人一直為此奔波和呼吁自不必說,一些頂級科學家的警示也無濟于事,人們更多是陶醉在科學技術給我們帶來的各種享受之中。

發(fā)展麻木就是危機麻木,滔天巨浪到來之前,海面往往非常平靜,但暗流卻在海底涌動,當什么科學技術研究都理所當然地去實施,當什么科學技術成果都理所當然地去接受,當什么科學技術產(chǎn)品都理所當然地去使用的時候,一個毀滅性的災難說不定就在前方不遠。

我們的每一步都決定著我們的未來,并最終決定著我們的結(jié)局,在科學技術發(fā)展到今天這樣的高度后,還一味地向前!向前!向前!再向前一步就必定會踩上一顆地雷,那是滅絕人類的地雷,從我們踏上的那一刻起就已經(jīng)無法回頭,那將是我們的第一次,也是我們的最后一次!

人類學家/企業(yè)家/北京市門頭溝區(qū)政協(xié)委員

胡家奇

2019年4月

分享到

zhangnn

相關推薦