
人工智能或許是現代歷史上應用最廣泛的技術,卻也是最不被信任的技術之一。
風險投資家、特朗普總統的顧問大衛·薩克斯堅稱,這種脫節并非因為AI威脅就業、隱私安全或經濟前景。相反,這背后是由他所說的“末日論產業復合體”投入10億美元,精心策劃的一場陰謀。這個“暗影網絡”由一批“有效利他主義”派系的億萬富翁組成,其資金來源包括已被定罪的FTX創始人山姆·班克曼-弗里德和Facebook聯合創始人達斯汀·莫斯科維茨。
薩克斯本周在社交平臺X上發文稱,公眾對AI的不信任并非自然形成,而是人為制造的結果。他援引了科技文化學者尼里特·魏斯-布拉特的研究。后者長期繪制所謂“AI末日論”生態的版圖,涵蓋了智庫、非營利組織及未來學家。
魏斯-布拉特的研究記錄了數百個主張對先進AI實施嚴格監管、甚至暫停研發的組織。她指出,這些機構背后的資金大多來自“有效利他主義”運動中的少數幾位金主,包括Facebook聯合創始人達斯汀·莫斯科維茨、Skype創始人亞恩·塔林、以太坊(Ethereum)創始人維塔利克·布特林,以及已被定罪的FTX創始人山姆·班克曼-弗里德。
據魏斯-布拉特統計,這些慈善家已累計投入超過10億美元,用于研究或減緩AI帶來的“生存風險”。其中,莫斯科維茨創立的開放慈善項目(Open Philanthropy)是“迄今為止”的最大資助方。
該機構強烈反駁了外界的指責,否認其渲染科幻小說般的“末日場景”。
開放慈善項目的一位發言人向《財富》雜志表示:“我們相信,技術發展與科學進步極大地改善了人類福祉——這也是我們長期聚焦這些領域的原因。AI擁有巨大的潛力,可以加速科學發展、推動經濟增長、拓展人類知識,但它同樣帶來前所未有的風險,這一觀點在不同政治陣營的領導者中已成為共識。我們支持以超黨派的審慎方式進行研究,以管理這些風險,并釋放AI的巨大紅利?!?/p>
但與硅谷風投圈關系密切、早年曾任PayPal高管的大衛·薩克斯則聲稱,開放慈善項目的資助不僅僅是在警示風險,更推動了一場全球公關戰,渲染所謂“神一般的AI”威脅。他援引民調數據指出,中國有83%的受訪者認為AI利大于弊,而美國這一比例僅為39%。他認為這正說明所謂的“宣傳資金”已改變了美國的AI輿論走向。
薩克斯長期主張在AI及更廣泛的科技領域,采取“產業友好、不設監管”的政策立場,并將這種立場包裝在“與中國競爭”的敘事框架之下。
薩克斯旗下的風險投資公司Craft Ventures尚未回應《財富》雜志的置評請求。
什么是“有效利他主義”?
薩克斯所稱的“宣傳資金”,主要來自“有效利他主義”(EA)群體。這個群體由理想主義者、哲學家與科技億萬富翁組成。他們相信,人類肩負的最大道德使命是防止未來災難,包括“失控的AI”。
有效利他主義運動由牛津大學(Oxford)哲學家威廉·麥卡斯基爾與托比·奧德在十多年前發起,倡導捐贈者運用數據與理性,以實現“最大的善舉”。
在此理念框架下,部分成員將重心轉向“長期主義”,即認為防止諸如全球疫情、核戰爭或失控AI等“生存風險”,應優先于短期社會議題。
部分堅持有效利他主義理念的組織主張對AI實施嚴格監管,甚至暫緩大模型開發;而另一些機構(如開放慈善項目)則采取更技術化的路徑,資助OpenAI、Anthropic等公司的“AI對齊”研究。在FTX于2022年倒閉之前,該運動的影響力曾急劇擴大,FTX的創始人山姆·班克曼-弗里德一度是該運動最大的資助者之一。
21歲的大學生馬修·阿德爾斯坦在Substack平臺上開設了主頁,專門介紹“有效利他主義”,在該領域頗具影響力。他指出,該運動的格局遠非薩克斯所描述的那種“單一化機器”。魏斯-布拉特繪制的“AI生存風險生態版圖”中包含數百個獨立實體,其中有大學實驗室、非營利機構,還有個人博客,它們雖然使用類似的語言,但并非協調一致。然而,魏斯-布拉特認為,這一“膨脹的生態系統”并非“草根運動,而是有其自上而下的結構”。
阿德爾斯坦對此并不認同,他認為現實情況“更加分散”,也遠沒有魏斯-布拉特和薩克斯所描繪的“那么陰暗”。
阿德爾斯坦在接受《財富》雜志采訪時表示:“公眾對AI的擔憂,大多與億萬富翁所談論的問題并不相同。公眾更關心的是作弊、偏見、失業等眼前的危害,而不是所謂的生存風險。”
他認為,把焦點放在富豪捐贈者身上完全偏離了重點。
他表示:“人工智能確實存在非常嚴重的風險。就連AI開發者都認為,AI導致人類滅絕的可能性有幾個百分點。部分富人認同風險的嚴重性,這本身并不能成為反對AI的理由?!?/p>
在阿德爾斯坦看來,所謂“長期主義”并非對遙遠未來的狂熱迷信,而是一種務實的全球風險分級框架。
他表示:“我們正在研發極其先進的AI,同時還面臨嚴重的核風險和生物風險,而世界對此幾乎毫無準備。‘長期主義’只是提醒我們——應該投入更多力量去防止這些威脅?!?/p>
阿德爾斯坦否認有效利他主義已演變成“準宗教運動”的說法。
他笑稱:“如果真有某種‘邪教’,以有效踐行利他主義為宗旨,能每年拯救五萬人的生命,那這樣的‘邪教’有存在的價值。”(財富中文網)
譯者:劉進龍
審校:汪皓
人工智能或許是現代歷史上應用最廣泛的技術,卻也是最不被信任的技術之一。
風險投資家、特朗普總統的顧問大衛·薩克斯堅稱,這種脫節并非因為AI威脅就業、隱私安全或經濟前景。相反,這背后是由他所說的“末日論產業復合體”投入10億美元,精心策劃的一場陰謀。這個“暗影網絡”由一批“有效利他主義”派系的億萬富翁組成,其資金來源包括已被定罪的FTX創始人山姆·班克曼-弗里德和Facebook聯合創始人達斯汀·莫斯科維茨。
薩克斯本周在社交平臺X上發文稱,公眾對AI的不信任并非自然形成,而是人為制造的結果。他援引了科技文化學者尼里特·魏斯-布拉特的研究。后者長期繪制所謂“AI末日論”生態的版圖,涵蓋了智庫、非營利組織及未來學家。
魏斯-布拉特的研究記錄了數百個主張對先進AI實施嚴格監管、甚至暫停研發的組織。她指出,這些機構背后的資金大多來自“有效利他主義”運動中的少數幾位金主,包括Facebook聯合創始人達斯汀·莫斯科維茨、Skype創始人亞恩·塔林、以太坊(Ethereum)創始人維塔利克·布特林,以及已被定罪的FTX創始人山姆·班克曼-弗里德。
據魏斯-布拉特統計,這些慈善家已累計投入超過10億美元,用于研究或減緩AI帶來的“生存風險”。其中,莫斯科維茨創立的開放慈善項目(Open Philanthropy)是“迄今為止”的最大資助方。
該機構強烈反駁了外界的指責,否認其渲染科幻小說般的“末日場景”。
開放慈善項目的一位發言人向《財富》雜志表示:“我們相信,技術發展與科學進步極大地改善了人類福祉——這也是我們長期聚焦這些領域的原因。AI擁有巨大的潛力,可以加速科學發展、推動經濟增長、拓展人類知識,但它同樣帶來前所未有的風險,這一觀點在不同政治陣營的領導者中已成為共識。我們支持以超黨派的審慎方式進行研究,以管理這些風險,并釋放AI的巨大紅利?!?/p>
但與硅谷風投圈關系密切、早年曾任PayPal高管的大衛·薩克斯則聲稱,開放慈善項目的資助不僅僅是在警示風險,更推動了一場全球公關戰,渲染所謂“神一般的AI”威脅。他援引民調數據指出,中國有83%的受訪者認為AI利大于弊,而美國這一比例僅為39%。他認為這正說明所謂的“宣傳資金”已改變了美國的AI輿論走向。
薩克斯長期主張在AI及更廣泛的科技領域,采取“產業友好、不設監管”的政策立場,并將這種立場包裝在“與中國競爭”的敘事框架之下。
薩克斯旗下的風險投資公司Craft Ventures尚未回應《財富》雜志的置評請求。
什么是“有效利他主義”?
薩克斯所稱的“宣傳資金”,主要來自“有效利他主義”(EA)群體。這個群體由理想主義者、哲學家與科技億萬富翁組成。他們相信,人類肩負的最大道德使命是防止未來災難,包括“失控的AI”。
有效利他主義運動由牛津大學(Oxford)哲學家威廉·麥卡斯基爾與托比·奧德在十多年前發起,倡導捐贈者運用數據與理性,以實現“最大的善舉”。
在此理念框架下,部分成員將重心轉向“長期主義”,即認為防止諸如全球疫情、核戰爭或失控AI等“生存風險”,應優先于短期社會議題。
部分堅持有效利他主義理念的組織主張對AI實施嚴格監管,甚至暫緩大模型開發;而另一些機構(如開放慈善項目)則采取更技術化的路徑,資助OpenAI、Anthropic等公司的“AI對齊”研究。在FTX于2022年倒閉之前,該運動的影響力曾急劇擴大,FTX的創始人山姆·班克曼-弗里德一度是該運動最大的資助者之一。
21歲的大學生馬修·阿德爾斯坦在Substack平臺上開設了主頁,專門介紹“有效利他主義”,在該領域頗具影響力。他指出,該運動的格局遠非薩克斯所描述的那種“單一化機器”。魏斯-布拉特繪制的“AI生存風險生態版圖”中包含數百個獨立實體,其中有大學實驗室、非營利機構,還有個人博客,它們雖然使用類似的語言,但并非協調一致。然而,魏斯-布拉特認為,這一“膨脹的生態系統”并非“草根運動,而是有其自上而下的結構”。
阿德爾斯坦對此并不認同,他認為現實情況“更加分散”,也遠沒有魏斯-布拉特和薩克斯所描繪的“那么陰暗”。
阿德爾斯坦在接受《財富》雜志采訪時表示:“公眾對AI的擔憂,大多與億萬富翁所談論的問題并不相同。公眾更關心的是作弊、偏見、失業等眼前的危害,而不是所謂的生存風險?!?/p>
他認為,把焦點放在富豪捐贈者身上完全偏離了重點。
他表示:“人工智能確實存在非常嚴重的風險。就連AI開發者都認為,AI導致人類滅絕的可能性有幾個百分點。部分富人認同風險的嚴重性,這本身并不能成為反對AI的理由?!?/p>
在阿德爾斯坦看來,所謂“長期主義”并非對遙遠未來的狂熱迷信,而是一種務實的全球風險分級框架。
他表示:“我們正在研發極其先進的AI,同時還面臨嚴重的核風險和生物風險,而世界對此幾乎毫無準備。‘長期主義’只是提醒我們——應該投入更多力量去防止這些威脅?!?/p>
阿德爾斯坦否認有效利他主義已演變成“準宗教運動”的說法。
他笑稱:“如果真有某種‘邪教’,以有效踐行利他主義為宗旨,能每年拯救五萬人的生命,那這樣的‘邪教’有存在的價值。”(財富中文網)
譯者:劉進龍
審校:汪皓
Artificial intelligence may be the most widely adopted technology in modern history, but it’s also one of the least trusted.
That disconnect, David Sacks insists, isn’t because AI threatens your job, privacy and the future of the economy itself. No – according to the venture-capitalist-turned-Trump-advisor, it’s all part of a $1 billion plot by what he calls the “Doomer Industrial Complex,” a shadow network of Effective Altruist billionaires bankrolled by the likes of convicted FTX founder Sam Bankman Fried and Facebook co-founder Dustin Moskovitz.
In an X post this week, Sacks argued that public distrust of AI isn’t organic at all — it’s manufactured. He pointed to research by tech-culture scholar Nirit Weiss-Blatt, who has spent years mapping the “AI doom” ecosystem of think tanks, nonprofits, and futurists.
Weiss-Blatt documents hundreds of groups that promote strict regulation or even moratoriums on advanced AI systems. She argues that much of the money behind those organizations can be traced to a small circle of donors in the Effective Altruism movement, including Facebook co-founder Dustin Moskovitz, Skype’s Jaan Tallinn, Ethereum creator Vitalik Buterin, and convicted FTX founder Sam Bankman-Fried.
According to Weiss-Blatt, those philanthropists have collectively poured more than $1 billion into efforts to study or mitigate “existential risk” from AI. However, she pointed at Moskovitz’s organization, Open Philanthropy, as “by far” the largest donors.
The organization pushed back strongly on the idea that they were projecting sci-fi-esque doom and gloom scenarios.
“We believe that technology and scientific progress have drastically improved human well-being, which is why so much of our work focuses on these areas,” an Open Philanthropy spokesperson told Fortune. “AI has enormous potential to accelerate science, fuel economic growth, and expand human knowledge, but it also poses some unprecedented risks — a view shared by leaders across the political spectrum. We support thoughtful nonpartisan work to help manage those risks and realize the huge potential upsides of AI.”
But Sacks, who has close ties to Silicon Valley’s venture community and served as an early executive at PayPal, claims that funding from Open Philanthropy has done more than just warn of the risks– it’s bought a global PR campaign warning of “Godlike” AI. He cited polling showing that 83% of respondents in China view AI’s benefits as outweighing its harms — compared with just 39% in the United States — as evidence that what he calls “propaganda money” has reshaped the American debate.
Sacks has long pushed for an industry-friendly, no regulation approach to AI –and technology broadly—framed in the race to beat China.
Sacks’ venture capital firm, Craft Ventures, did not immediately respond to a request for comment.
What is Effective Altruism?
The “propaganda money” Sacks refers to comes largely from the Effective Altruism (EA) community, a wonky group of idealists, philosophers, and tech billionaires who believe humanity’s biggest moral duty is to prevent future catastrophes, including rogue AI.
The EA movement, founded a decade ago by Oxford philosophers William MacAskill and Toby Ord, encourages donors to use data and reason to do the most good possible.
That framework led some members to focus on “longtermism,” the idea that preventing existential risks such as pandemics, nuclear war, or rogue AI should take priority over short-term causes.
While some EA-aligned organizations advocate heavy AI regulation or even “pauses” in model development, others – like Open Philanthropy– take a more technical approach, funding alignment research at companies like OpenAI and Anthropic. The movement’s influence grew rapidly before the 2022 collapse of FTX, whose founder Bankman-Fried had been one of EA’s biggest benefactors.
Matthew Adelstein, a 21-year-old college student who has a prominent Substack on EA, notes that the landscape is far from the monolithic machine that Sacks describes. Weiss-Blatt’s own map of the “AI existential risk ecosystem” includes hundreds of separate entities — from university labs to nonprofits and blogs — that share similar language but not necessarily coordination. Yet, Weiss-Blatt deduces that though the “inflated ecosystem” is not “a grassroots movement. It’s a top down one.”
Adelstein disagrees, noting that the reality is “more fragmented and less sinister” than Weiss-Blatt and Sacks portrays.
“Most of the fears people have about AI are not the ones the billionaires talk about,” Adelstein told Fortune. “People are worried about cheating, bias, job loss — immediate harms — rather than existential risk.”
He argues that pointing to wealthy donors misses the point entirely.
“There are very serious risks from artificial intelligence,” he said. “Even AI developers think there’s a few-percent chance it could cause human extinction. The fact that some wealthy people agree that’s a serious risk isn’t an argument against it.”
To Adelstein, longtermism isn’t a cultish obsession with far-off futures but a pragmatic framework for triaging global risks.
“We’re developing very advanced AI, facing serious nuclear and bio-risks, and the world isn’t prepared,” he said. “Longtermism just says we should do more to prevent those.”
He also brushed off accusations that EA has turned into a quasi-religious movement.
“I’d like to see the cult that’s dedicated to doing altruism effectively and saving 50,000 lives a year,” he said with a laugh. “That would be some cult.”