
想象一下紐約市酷熱夏夜的景象:每臺空調都在全力運轉,地鐵車廂在地下轟鳴,摩天大樓燈火通明。再想象一下圣迭戈遭遇破紀錄熱浪的巔峰時刻——電力需求飆升至5000兆瓦以上,電網幾近崩潰。
薩姆·奧爾特曼(Sam Altman)及其合作伙伴表示,下一代人工智能數據中心的耗電量,接近上述場景耗電量之和。這意味著,單個企業項目每日耗電量,竟超過兩座美國城市在極限負荷下的耗電量之和。
芝加哥大學計算機科學教授安德魯·錢(Andrew Chien)稱,這一消息的公布標志著他期待已久的“里程碑時刻”終成現實。
“我從事計算機科學研究已有40年之久,在大部分時間里,計算領域的能耗在整體經濟能耗中占比微乎其微,”安德魯·錢向《財富》雜志表示,“如今,它在整體經濟能耗中的占比已相當可觀。”
他認為這一轉變既令人興奮,也讓人警惕。
“令人擔憂的是……到2030年,計算領域耗電量可能占全球總耗電量的10%至12%。我們正迎來關鍵節點,需要重新審視人工智能及其社會影響。”
近日,OpenAI宣布與英偉達(Nvidia)合作建設耗電量高達10吉瓦的人工智能數據中心,另有總規模達17吉瓦的項目已正式啟動。這一耗電量大致相當于紐約市夏季總用電量(10吉瓦)與2024年圣迭戈遭遇極端熱浪時的用電量(超5吉瓦)之和。正如一位專家所言,這接近瑞士和葡萄牙兩國用電量之和。
“這相當驚人,”安德魯·錢表示,“一年半前,他們還在討論5吉瓦規模的項目,如今已將目標提高到10吉瓦、15吉瓦,甚至17吉瓦,呈現持續升級態勢。”
康奈爾大學能源系統工程教授、人工智能研究專家尤峰崎(Fengqi You)對此表示認同。
他向《財富》雜志表示:“10吉瓦的耗電量超過了瑞士或葡萄牙的峰值電力需求,而17吉瓦相當于同時滿足上述兩國電力需求。”
奧爾特曼的其中一個項目已在得克薩斯州破土動工,而該州電網的常規運行負荷約為80吉瓦。
安德魯·錢指出:“這相當于得克薩斯州整個電網負荷的20%,也相當于其他所有行業的耗電量之和——煉油廠、工廠及家庭用戶,簡直是天文數字。”
奧爾特曼將擴建計劃定位為滿足人工智能迅猛發展需求的必要舉措。
“這是支撐人工智能發展所需的基礎設施,”他在得克薩斯州表示,并指出ChatGPT的使用量在過去18個月內增長了十倍。
人工智能需要哪種能源?
奧爾特曼毫不掩飾自己最青睞的能源類型:核能。他同時支持核裂變和核聚變初創企業,押注唯有核反應堆能提供穩定、集中的能源輸出,從而滿足人工智能無止境的需求。
“計算基礎設施將是未來經濟的基石。”他表示,并將核能定位為支撐未來發展的核心能源。
安德魯·錢對核能在短期內應用的局限性直言不諱。
“據我所知,2030年前能接入電網的核電總量還不到1吉瓦,”他說道,“所以當你聽到17吉瓦的需求量時,會發現這些數據根本無法匹配。”
安德魯·錢指出,對于OpenAI這類需要10至17吉瓦能源的項目,核能“距離滿足其需求還相差甚遠,即便未來能夠滿足需求,推進過程也必然十分緩慢”。相反,他認為風能、太陽能、天然氣以及新型儲能技術將成為主流能源。
康奈爾大學的能源系統專家尤峰崎則持中間立場。他表示,若人工智能持續擴張,從長期來看,核能或許不可或缺,但警示道:“短期內根本不存在如此龐大的備用產能”——無論是化石能源、可再生能源還是核能。“如何在短期內提升產能?目前尚無明確方案。”
他還警告稱該時間表可能不切實際。
“常規核電站的審批和建設需耗時數年,”他說道,“短期內,只能依賴可再生能源、天然氣,或許還可以改造老舊電廠。核能的供應速度根本無法跟上需求的增長步伐。”
環境代價
這些專家同樣擔憂大規模能源消耗帶來的環境代價。
“我們必須面對現實:企業曾承諾實現清潔生產與凈零排放,然而由于人工智能不斷增長的需求,這些承諾恐難兌現。”安德魯·錢表示。
康奈爾大學的尤峰崎指出,生態系統可能會因此承受壓力。
“如果數據中心耗盡當地水資源或破壞生物多樣性,會引發意想不到的后果。”他表示。
相關投資規模同樣令人震驚。OpenAI每個數據中心項目的估值約為500億美元,計劃總投資額達8500億美元。僅英偉達一家就承諾投入1000億美元支持這一擴張計劃,并將提供數百萬枚新款Vera Rubin圖形處理器(GPU)。
安德魯·錢補充道,我們需要圍繞人工智能消耗如此大量電能所引發的環境代價展開更廣泛的社會討論。他指出,除碳排放外,大型數據中心還對水資源、生物多樣性及周邊社區造成隱性壓力。僅冷卻系統一項,就可能在水資源本已匱乏的地區消耗大量淡水。由于硬件更新換代速度極快,英偉達每年都會推出新款處理器,舊芯片不斷被淘汰,進而形成含有有毒化學物質的廢棄物。
“他們曾告訴我們,這些數據中心會是清潔環保的,”安德魯·錢說道,“然而由于人工智能不斷增長的需求,我認為這一目標無法達成。現在是時候向他們施壓、要求兌現承諾了。”(財富中文網)
譯者:中慧言-王芳
想象一下紐約市酷熱夏夜的景象:每臺空調都在全力運轉,地鐵車廂在地下轟鳴,摩天大樓燈火通明。再想象一下圣迭戈遭遇破紀錄熱浪的巔峰時刻——電力需求飆升至5000兆瓦以上,電網幾近崩潰。
薩姆·奧爾特曼(Sam Altman)及其合作伙伴表示,下一代人工智能數據中心的耗電量,接近上述場景耗電量之和。這意味著,單個企業項目每日耗電量,竟超過兩座美國城市在極限負荷下的耗電量之和。
芝加哥大學計算機科學教授安德魯·錢(Andrew Chien)稱,這一消息的公布標志著他期待已久的“里程碑時刻”終成現實。
“我從事計算機科學研究已有40年之久,在大部分時間里,計算領域的能耗在整體經濟能耗中占比微乎其微,”安德魯·錢向《財富》雜志表示,“如今,它在整體經濟能耗中的占比已相當可觀。”
他認為這一轉變既令人興奮,也讓人警惕。
“令人擔憂的是……到2030年,計算領域耗電量可能占全球總耗電量的10%至12%。我們正迎來關鍵節點,需要重新審視人工智能及其社會影響。”
近日,OpenAI宣布與英偉達(Nvidia)合作建設耗電量高達10吉瓦的人工智能數據中心,另有總規模達17吉瓦的項目已正式啟動。這一耗電量大致相當于紐約市夏季總用電量(10吉瓦)與2024年圣迭戈遭遇極端熱浪時的用電量(超5吉瓦)之和。正如一位專家所言,這接近瑞士和葡萄牙兩國用電量之和。
“這相當驚人,”安德魯·錢表示,“一年半前,他們還在討論5吉瓦規模的項目,如今已將目標提高到10吉瓦、15吉瓦,甚至17吉瓦,呈現持續升級態勢。”
康奈爾大學能源系統工程教授、人工智能研究專家尤峰崎(Fengqi You)對此表示認同。
他向《財富》雜志表示:“10吉瓦的耗電量超過了瑞士或葡萄牙的峰值電力需求,而17吉瓦相當于同時滿足上述兩國電力需求。”
奧爾特曼的其中一個項目已在得克薩斯州破土動工,而該州電網的常規運行負荷約為80吉瓦。
安德魯·錢指出:“這相當于得克薩斯州整個電網負荷的20%,也相當于其他所有行業的耗電量之和——煉油廠、工廠及家庭用戶,簡直是天文數字。”
奧爾特曼將擴建計劃定位為滿足人工智能迅猛發展需求的必要舉措。
“這是支撐人工智能發展所需的基礎設施,”他在得克薩斯州表示,并指出ChatGPT的使用量在過去18個月內增長了十倍。
人工智能需要哪種能源?
奧爾特曼毫不掩飾自己最青睞的能源類型:核能。他同時支持核裂變和核聚變初創企業,押注唯有核反應堆能提供穩定、集中的能源輸出,從而滿足人工智能無止境的需求。
“計算基礎設施將是未來經濟的基石。”他表示,并將核能定位為支撐未來發展的核心能源。
安德魯·錢對核能在短期內應用的局限性直言不諱。
“據我所知,2030年前能接入電網的核電總量還不到1吉瓦,”他說道,“所以當你聽到17吉瓦的需求量時,會發現這些數據根本無法匹配。”
安德魯·錢指出,對于OpenAI這類需要10至17吉瓦能源的項目,核能“距離滿足其需求還相差甚遠,即便未來能夠滿足需求,推進過程也必然十分緩慢”。相反,他認為風能、太陽能、天然氣以及新型儲能技術將成為主流能源。
康奈爾大學的能源系統專家尤峰崎則持中間立場。他表示,若人工智能持續擴張,從長期來看,核能或許不可或缺,但警示道:“短期內根本不存在如此龐大的備用產能”——無論是化石能源、可再生能源還是核能。“如何在短期內提升產能?目前尚無明確方案。”
他還警告稱該時間表可能不切實際。
“常規核電站的審批和建設需耗時數年,”他說道,“短期內,只能依賴可再生能源、天然氣,或許還可以改造老舊電廠。核能的供應速度根本無法跟上需求的增長步伐。”
環境代價
這些專家同樣擔憂大規模能源消耗帶來的環境代價。
“我們必須面對現實:企業曾承諾實現清潔生產與凈零排放,然而由于人工智能不斷增長的需求,這些承諾恐難兌現。”安德魯·錢表示。
康奈爾大學的尤峰崎指出,生態系統可能會因此承受壓力。
“如果數據中心耗盡當地水資源或破壞生物多樣性,會引發意想不到的后果。”他表示。
相關投資規模同樣令人震驚。OpenAI每個數據中心項目的估值約為500億美元,計劃總投資額達8500億美元。僅英偉達一家就承諾投入1000億美元支持這一擴張計劃,并將提供數百萬枚新款Vera Rubin圖形處理器(GPU)。
安德魯·錢補充道,我們需要圍繞人工智能消耗如此大量電能所引發的環境代價展開更廣泛的社會討論。他指出,除碳排放外,大型數據中心還對水資源、生物多樣性及周邊社區造成隱性壓力。僅冷卻系統一項,就可能在水資源本已匱乏的地區消耗大量淡水。由于硬件更新換代速度極快,英偉達每年都會推出新款處理器,舊芯片不斷被淘汰,進而形成含有有毒化學物質的廢棄物。
“他們曾告訴我們,這些數據中心會是清潔環保的,”安德魯·錢說道,“然而由于人工智能不斷增長的需求,我認為這一目標無法達成。現在是時候向他們施壓、要求兌現承諾了。”(財富中文網)
譯者:中慧言-王芳
Picture New York City on a sweltering summer night: every air conditioner straining, subway cars humming underground, towers blazing with light. Now add San Diego at the peak of a record-breaking heat wave, when demand shot past 5,000 megawatts and the grid nearly buckled.
That’s almost the scale of electricity that Sam Altman and his partners say will be devoured by their next wave of AI data centers—a single corporate project consuming more power, every single day, than two American cities pushed to their breaking point.
The announcement is a “seminal moment” that Andrew Chien, a professor of computer science at the University of Chicago, says he has been waiting a long time to see coming to fruition.
“I’ve been a computer scientist for 40 years, and for most of that time computing was the tiniest piece of our economy’s power use,” Chien told Fortune. “Now, it’s becoming a large share of what the whole economy consumes.”
He called the shift both exciting and alarming.
“It’s scary because … now [computing] could be 10% or 12% of the world’s power by 2030. We’re coming to some seminal moments for how we think about AI and its impact on society.”
This week, OpenAI announced a plan with Nvidia to build AI data centers consuming up to 10 gigawatts of power, with additional projects totaling 17 gigawatts already in motion. That’s roughly equivalent to powering New York City—which uses 10 gigawatts in the summer—and San Diego during the intense heat wave of 2024, when more than five gigawatts were used. Or, as one expert put it, it’s close to the total electricity demand of Switzerland and Portugal combined.
“It’s pretty amazing,” Chien said. “A year and a half ago they were talking about five gigawatts. Now they’ve upped the ante to 10, 15, even 17. There’s an ongoing escalation.”
Fengqi You, an energy-systems engineering professor at Cornell University, who also studies AI, agreed.
“Ten gigawatts is more than the peak power demand in Switzerland or Portugal,” he told Fortune. “Seventeen gigawatts is like powering both countries together.”
The Texas grid, where Altman broke ground on one of the projects this week, typically runs around 80 gigawatts.
“So you’re talking about an amount of power that’s comparable to 20% of the whole Texas grid,” Chien said. “That’s for all the other industries—refineries, factories, households. It’s a crazy large amount of power.”
Altman has framed the build-out as necessary to keep up with AI’s runaway demand.
“This is what it takes to deliver AI,” he said in Texas. Usage of ChatGPT, he noted, has jumped 10-fold in the past 18 months.
Which energy source does AI need?
Altman has made no secret of his favorite source: nuclear. He has backed both fission and fusion startups, betting that only reactors can provide the kind of steady, concentrated output needed to keep AI’s insatiable demand fed.
“Compute infrastructure will be the basis for the economy of the future,” he said, framing nuclear as the backbone of that future.
Chien, however, is blunt about the near-term limits.
“As far as I know, the amount of nuclear power that could be brought on the grid before 2030 is less than a gigawatt,” he said. “So when you hear 17 gigawatts, the numbers just don’t match up.”
With projects like OpenAI’s demanding 10 to 17 gigawatts, nuclear is “a ways off, and a slow ramp, even when you get there,” Chien said. Instead, he expects wind, solar, natural gas, and new storage technologies to dominate.
You, the energy-systems expert at Cornell, struck a middle ground. He said nuclear may be unavoidable in the long run if AI keeps expanding, but cautioned that “in the short term, there’s just not that much spare capacity”—whether fossil, renewable, or nuclear. “How can we expand this capacity in the short term? That’s not clear,” he said.
He also warned that timeline may be unrealistic.
“A typical nuclear plant takes years to permit and build,” he said. “In the short term, they’ll have to rely on renewables, natural gas, and maybe retrofitting older plants. Nuclear won’t arrive fast enough.”
Environmental costs
The environmental costs loom large for these experts, too.
“We have to face the reality that companies promised they’d be clean and net zero, and in the face of AI growth, they probably can’t be,” Chien said.
Ecosystems could come under stress, Cornell’s You said.
“If data centers consume all the local water or disrupt biodiversity, that creates unintended consequences,” he said.
The investment figures are staggering. Each OpenAI site is valued at roughly $50 billion, adding up to $850 billion in planned spending. Nvidia alone has pledged up to $100 billion to back the expansion, providing millions of its new Vera Rubin GPUs.
Chien added that we need a broader societal conversation about the looming environmental costs of using that much electricity for AI. Beyond carbon emissions, he pointed to hidden strains on water supplies, biodiversity, and local communities near massive data centers. Cooling alone, he noted, can consume vast amounts of fresh water in regions already facing scarcity. And because the hardware churns so quickly—with new Nvidia processors rolling out every year—old chips are constantly discarded, creating waste streams laced with toxic chemicals.
“They told us these data centers were going to be clean and green,” Chien said. “But in the face of AI growth, I don’t think they can be. Now is the time to hold their feet to the fire.”