長期主義對人類構成真正威脅

,

威廉.麥卡斯基爾(William MacAskill)的烏托邦願景可能會以暴力動亂告終。

我曾經是一個長期主義者(Lonternism)。這並不像你想的那樣:長期主義不等於長期思維。我們的世界需要更多的長期思維,原因很單純,根據預測人類造成的氣候變化還將持續一萬年左右。如果平均每 25 年就有一代人誕生,這意味著氣候變化將對未來 400 代人產生負面影響。從這個角度來看,這幾乎是幾千年前人類文明誕生以來世代數量的兩倍。

我們應該關心這些後代嗎?當然應該-他們的痛苦與我們的痛苦同樣重要。雖然他們還不存在,但這並不表示他們的生命不重要,或者比當代人的生命更不重要。這就是為什麽我們需要長遠思考-擴大我們的世界觀,不僅包括現在活著的 80 億人,還包括未來的氣候變化受害者,他們的生活將因我們的行為而陷入混亂。

長期主義遠不止於此。過去二十年來,牛津大學的哲學家們,包括尼克.博斯特羅姆(Nick Bostrom)、托比.奧德(Toby Ord)和威廉.麥卡斯基爾(William MacAskill),提出了這一觀點。博斯特羅姆是先進人工智能將殺死地球上所有人這一觀點的主要倡導者之一,今年初他在一封舊郵件中聲稱黑人比白人更愚蠢,因此遭到了嚴厲的批評。麥卡斯基爾的過去也不光彩,他曾是山姆.班克曼-弗里德(Sam Bankman-Fried)的道德顧問,而班克曼.弗里德是一名加密貨幣富翁,也是一名頑固的長期主義者。他被控犯下了美國檢察官稱為美國歷史上最大的金融欺詐案之一。長期主義是這些人的心血結晶–他們是一群擁有高度特權的白人,以精英大學為基地,相信自己知道什麽對全人類最好。

長遠論者要求我們想像未來景象,跨越幾百萬年、幾十億年甚至幾萬億年,在這期間,我們的後代離開地球,到其他恒星系統、星系甚至更遠的地方殖民。雖然地球可能只能再生存 10 億年左右,到那時太陽的光度會越來越大,我們將無法生存,但宇宙本身估計在 10*100次方年內不會熄滅生命之火–這是一個 1 後面加上 100 個 0,一個難以想象的漫長時間。

正因為如此,未來的人類人口可能遠遠不止 400 代。從整體上看,400 代人並不算什麽。據估計,假設這些未來的人是 “數位人 “而不是 “生物人”,那麽整個宇宙中可能存在 1058代人。

為什麽要數位化?原因之一是,對於像我們這樣的生物來說,殖民太空幾乎肯定是不可能的。太空的條件–DNA突變輻射、無重力、幽閉的太空船–都很惡劣,更不用說到達其他恒星或星系所需的時間了。距離我們最近的仙女座星系大約有 250 萬光年。但是,即使接近光速的旅行也是完全不可行的。按照目前最快的速度,到達仙女座星系大約需要 456 億年。這對生物來說是不可能的。但如果我們是數位人,那就可以了。

在長遠論者看來,這些不僅僅是關於「可能」,更是關於「應該」的說法。這就是為什麽長期主義遠遠超出了長期思考的範疇:它意味著我們有某種道德責任去殖民太空、掠奪宇宙、創造盡可能多的數位人,並在這樣做的過程中,最大限度地增加宇宙中的價值總量。這就是為什麽長期主義者癡迷於估算未來可能有多少人的原因:有人說,僅銀河系就可能存在至少 1045 個 “1”,即一個 “1 “後面有 45 個 “0”;還有人計算出整個宇宙的下限為 1058 個 “1”,如上所述。

假設這些未來人該過著「有價值」的生活,那麽他們可能存在這一事實就意味著他們應該存在。正如麥卡斯基爾寫道:我們應該……希望未來的文明是巨大的。如果未來的人們足夠富裕,那麽兩倍長或兩倍大的文明就是兩倍好的文明”。這立刻產生了太空定居的道德理由。也許你能理解為什麽 SpaceX 公司的首席執行官埃隆-馬斯克稱長期主義「與我的哲學非常吻合」。

關於人類未來的宏大願景充滿誘惑。我在一個宗教團體中長大,那裡經常談論世界末日。我對 1992 年比爾-克林頓當選的情景記憶猶新:當時我還是個孩子,被恐懼感籠罩著,因為我周圍的大多數成年人都認為他是反基督者。

我的宗教信仰非常深厚,每次讀完《啟示錄》,我都會確保合上《聖經》,因為我害怕撒旦會讀到末世預言,看到上帝計劃如何打敗他,然後利用這些信息欺騙全能神,扭轉局面。

這些想法埋下了我對我們在宇宙中最終命運好奇的種子–用學術語言來說,它們讓我對「世界末世論」或「末世界」研究產生了興趣。回到本世紀初,我已經失去了基督教信仰,但僅僅幾年後,我就發現了長期主義哲學,它似乎為一些深奧的問題提供了基於科學的答案,比如:我們將何去何從?我們的長遠未來是什麽樣的?我們是注定要滅絕,還是人類的未來會超乎想象地美好?

長期主義也提供了自己的世俗版烏托邦:通過重新設計我們自己,你和我都可能成為不朽的超級生命,通過在宇宙中傳播,我們可以建造一個多銀河系的烏托邦天堂,富足無比、壽命無限、幸福無窮–一些主要的長期主義者把這個項目稱為 “天堂工程”。

然而,我的成長經歷也讓我意識到,烏托邦思想也有其可怕的弊端。對烏托邦的信仰導致人們做出激進和極端的行為。如果一個人相信,目的決定了手段的正當性,而目的就是充滿無限價值的天堂,那麽實現這些目的究竟有什麽是不可能的呢?

長期主義之父博斯特羅姆曾寫道,如果有必要,我們不應該回避先發制人的暴力,以保護我們「後人類」的未來,他還在2019年提出,政策制定者應該認真考慮實施全球監控系統,以防止「文明的毀滅」。最近,博斯特羅姆的同事埃利澤-尤德科夫斯基(Eliezer Yudkowsky)認為,地球上幾乎所有人都應該「被允許死亡」,如果這意味著我們仍有可能在某一天到達恒星的話。他還在《時代》雜誌上聲稱,軍隊應該對資料中心進行定點打擊,以阻止先進人工智能的發展,甚至不惜冒著引發核戰爭的風險。

當我還是一個長期主義者時,我並沒有多想這種意識形態的潛在危險。然而,當我越研究那些變得暴力的烏托邦運動時,我就越被這些運動的兩個核心要素所震撼。第一種當然是烏托邦式的未來願景,信徒們認為未來蘊含著無限的價值,或者至少是天文數字的價值。其次是一種廣泛的功利主義道德推理模式,也就是上文提到的那種手段-目的推理。借用博斯特羅姆 2020 年的烏托邦來信,目的有時可以證明手段的正當性,尤其是當目的是一個充滿不朽生命的神奇世界,充滿超乎尋常的幸福和快樂時。

我恍然大悟,這些正是長期主義意識形態的核心要素。如果人類倖存下來並在宇宙中殖民,未來可能會有 1058 個幸福的人。這些人將是生活在虛擬現實世界中的後人,在那裡,痛苦已被消除,可能性的極限將是他們頭頂上的虛擬天空。長遠論者談論的是天文數字般的未來價值。

長期主義者深受功利主義的影響,功利主義是一種以目的為手段的倫理理論。如果撒謊能使宇宙中的價值最大化,那麽你就應該撒謊。你能想到的其他行為也是如此,包括謀殺。大多數功利主義者會急於宣稱,幾乎在所有情況下,謀殺事實上都會產生更糟糕的總體結果。儘管如此,在功利主義者看來,謀殺本質上並沒有什麽錯,而且當一個人真正相信巨大的價值岌岌可危時,也許謀殺真的是最好的選擇。

亨利.西奇威克(Henry Sidgwick)是 19 世紀一位頗具影響力的功利主義者,他以功利主義為由為英國殖民主義辯護;當代最著名的功利主義者彼得-辛格(Peter Singer)在 1985 年與同事合著的《嬰兒應該活著嗎? 一書中認為,在某些殘疾嬰兒的情況下,殺嬰在道德上是可以的。用他們的話說:我們認為有些嚴重殘疾的嬰兒應該被殺死。同樣的功利主義態度使得已故的德里克.帕菲特(Derek Parfit)在觀看了希特勒在 1940 年 6 月慶祝法國向德國投降時跳吉格舞的鏡頭後,說至少德國的勝利帶來了一些好的東西。正如一位觀察家在推特上寫道的那樣,帕菲特是一個關於過於認真對待功利主義的風險的警示故事

長期主義將這種道德推理與對天堂中,所謂技術烏托邦的幻想,雙重構想結合在一起。這是非常危險的,博斯特羅姆、尤德科夫斯基和其他長期主義者的言論都支持這一結論。我們不應該希望掌權者接受這種意識形態,甚至不應該同情這種意識形態。然而,長期主義已經產生了深遠的影響。如前所述,有馬斯克;《聯合國觀察》的一篇文章報道說,整個外交政策界,尤其是聯合國,開始接受長期主義。

人工智能研究人員蒂姆尼特-格布魯(Timnit Gebru)確認,長期主義在矽谷無處不在。目前,OpenAI 和 DeepMind 等公司競相創造先進的人工智能,其部分驅動力就是長期主義思想。長期主義者認為,如果我們創造出一個友好的人工智能,它將解決我們所有的問題,並迎來烏托邦。但如果人工智能錯位,它將毀滅人類,並在這一過程中,借用托比.奧德(Toby Ord)的一句話,抹殺我們廣闊而輝煌的未來。OpenAI 首席執行官山姆.奧特曼(Sam Altman)同意尤德科夫斯基的觀點,認為在正確處理人工智能問題上,「太陽星系確實面臨風險」。

我曾參與過長期主義者運動。我是一個真正的信徒。長期主義是我放棄基督教後的宗教信仰–它符合所有相同的條件,只是對長期主義者來說,我們必須依靠自己來設計天堂,而不是超自然的神靈。現在,我清楚地認識到,長期主義對我們的未來提出了一種極度貧乏的看法,如果當權者按照字面意思來理解,它可能會帶來災難性的後果:先發制人的暴力、大規模監控、熱核戰爭–這一切都是為了保護保存我們在宇宙中所謂的長期潛力,再次引用奧德的話。

我關心未來的人們,關心因氣候變化而受苦的 400 代人。你們也應該如此。我們需要強有力的長期思維來應對我們正在制造的這些新的、跨代的問題。但長期主義並不是答案。在我看來,長期主義思想是當今人類面臨的最陰險的威脅之一。

Longtermism poses a real threat to humanity

如果你喜歡這篇文章,或許可以請我喝杯咖啡

再生式企業特集