-
胡家奇:第十一次致人類領袖的公開信
2021/8/18 14:05:40 來源:財訊網 【字體:大 中 小】【收藏本頁】【打印】【關閉】
核心提示:回望剛剛過去的2024年,我深感,我們又一次站在了歷史的十字路口。科技進步帶來了巨大的希望,也帶來了同樣深刻的危機。致:
各國領導人、聯合國秘書長、世界頂級科學家與學者、知名企業家、知名媒體人。
尊敬的各位領袖:
回望剛剛過去的2024年,我深感,我們又一次站在了歷史的十字路口。科技進步帶來了巨大的希望,也帶來了同樣深刻的危機。作為“拯救人類行動組織(人類會)”的創始人,我懷著極大的焦慮與責任,再次寫信給您們。今天,我們面臨的不僅僅是科技發展的挑戰,更是人類生死存亡的危機。
自工業革命以來,科學技術一直在飛速的發展。尤其是過去的幾十年里,科技更是令人驚嘆的改變著我們的生活。從信息革命到生物科技的飛躍,再到人工智能的迅速崛起,我們的智慧與力量日益強大。然而,令人憂慮的是,正是這種力量,也正在加速我們物種的終結。
當我們站在今天的技術巔峰上,回望過去,無數科學家和智者曾警告過我們:“科學技術是一把雙刃劍。”它能夠帶來極大的福利,但同時也隱含著巨大的毀滅。如今,這一警告變得愈加確切與真實。多個前沿科技領域,隨著技術不斷突破,都在推動我們不斷邁向未知的邊界。特別是人工智能(AI),它的快速發展已經讓我們無法忽視其中的巨大風險。
諾貝爾物理學獎在2024年被授予了兩位在人工智能領域作出杰出貢獻的科學家,而諾貝爾化學獎的一半,也授予了兩位在人工智能領域作出杰出貢獻的科學家。這一獎項代表了科技發展的最高榮譽,而人工智能,無疑是這個時代最具革命性的科技之一。問題在于,人工智能帶來的不僅僅是變革,它還伴隨著無法預見的危險——AI一旦走向失控,可能直接威脅到我們整個物種的存續。
這里我想特別舉例,正是因在人工智能領域作出杰出的貢獻獲得了2024年諾貝爾物理學獎的科學家杰弗里·辛頓,他就曾警告人工智能失控的危險。他明確指出,人工智能的發展存在著無法預測的風險,而這一風險,極有可能在未來幾十年內加速人類滅絕的進程。辛頓的警告是令人震驚的,他估計未來30年內,人工智能導致人類滅絕的概率高達10%到20%。然而,面對這一科學家的警告,整個社會卻沒有真正的警覺。相反,這一獎項反而成為進一步推動人工智能發展的動力。
這一切都折射出當今社會的極度不理性。諾貝爾獎,作為世界科技界的最高榮譽,原本應該成為對科學發展的審慎引導。但如今,人工智能技術的獲獎者,不僅自己發出了關于“失控”的警告,社會卻依然在追求更加極端的科技突破,似乎完全無視其中蘊含的災難性后果。這種現象,正是今天人類面臨的最大困境:當貪婪與短期利益壓倒了理性與長遠的生存思考時,我們便開始走向自我毀滅。
自1979年起,我就開始從事這方面的研究,至今已經有46個年頭,18年前的2007年,我出版了《拯救人類》一書,提出了科學技術的繼續發展必定很快滅絕人類的警告,我在書中明確指出,如果我們不對科技發展進行嚴格限制,不對科技的發展設定明確的框架,那么人類這一物種將會很快被滅絕,長則二三百年,短則就在本世紀。并借這一書出版的機會,第一次致信人類領袖,呼吁務必重視這一問題。
2018年,我在美國注冊了“拯救人類行動組織(人類會)”,就是想通過一個更有力的平臺,推動這一全球性問題的解決。然而,迄今為止,盡管有不少科學家和學者提出警告,全球范圍內關于科技管控的討論仍然停留在表面。科技的無節制發展已經成為不可忽視的隱患,科學家們不斷提出問題,但整個世界似乎沒有真正的覺醒。
作為“拯救人類行動組織(人類會)”的創始人,今天,我再次寫信給您們——那些能夠影響人類未來命運的領袖們。懇請您們能夠正視這樣的一個思考:科學技術的迅猛發展,是否已經超出了我們文明能夠承受的范圍?它將是我們通往輝煌未來的橋梁,還是人類自我滅絕的導火索?
在此,我要再一次呼吁,面對這場即將到來的災難,我們必須采取果斷的行動。
我要強調的是,單靠某一國家、某一地區的力量無法應對這一問題。科技帶來的威脅是全球性的,我們需要全球范圍的協調與合作。而這一切的前提,是我們必須意識到,科學技術的發展必須受到嚴格的限制,必須有全球性的統一治理機制來管控。
為此,我在《拯救人類》一書中提出了我的解決方案:人類必須走向大統一,建立全球統一的政權,并以這一政權為基礎,全面掌控科技發展,嚴格限制科技的進步速度與方向。這一解決方案并非空洞的理想,而是避免人類滅絕的唯一出路。
尊敬的各位領袖,我們已經沒有時間再猶豫。當前的科技突破,雖然可能會帶來無盡的利潤與短期的效益,但它們也在不斷加速我們的滅絕進程。人類的生存問題,已不再是未來某個時代的課題,而是一個迫切的現實。我們必須以全球共同體的身份,立即采取行動,防止科技失控帶來的災難。
為了避免滅絕,首先,必須要認識到科技發展與人類存續之間的緊密聯系,科技不能脫離人類倫理和生存底線。其次,必須建立全球科技管控框架,確保每一項技術都能經過嚴格的審查與限制,確保不會超出我們能夠掌控的范圍。最終,必須促使全球各國走向大統一,創建全球統一政權,以確保科技管控不受地區性、政治性利益的干擾。
人類已經走到了這個岔路口,未來的道路將由我們每一個人的選擇決定。我們只有一次機會,再不采取斷然措施,錯過了,便是萬劫不復。作為全球的領導者,您們肩負著改變人類命運的責任。現在是時候覺醒了,是時候采取行動,必須要走出一條不以科技毀滅我們自己的道路。
讓我們攜手合作,共同建立一個更為安全、更加負責任的科技發展體系,捍衛我們共同的未來。
拯救人類行動組織(人類會)創始人
胡家奇
2025年1月1日
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如有侵權行為,請第一時間聯系我們修改或刪除,多謝。