舊金山新創 SPAN 宣布推出「分散式資料中心」方案 XFRA,計畫將搭載 Nvidia RTX Pro 6000 Blackwell GPU 的液冷節點安裝於美國住宅旁,以補貼電費與網路作為回饋。
(前情提要:GPU算力短缺重演:OpenAI、Anthropic等大廠吃掉供給,AI新創排到年底)
(背景補充:放棄千萬美金期權離職,Riot 高層跑路揭開礦企轉型 AI 算力戰痛點)
本文目錄
- 算力從集中走向分散,背後是土地與水資源的壓力
- 成本試算:同等算力,五分之一的錢
- XFRA 擴充目標
- 分散式算力的隱憂:效率、安全與監管
資料中心不一定要建在郊區荒地上?舊金山新創公司 SPAN 給出了另一種答案:把它分拆成數萬個小盒子,裝進美國住宅的院子或車道旁。
這個方案叫 XFRA,本質是一種液冷邊緣運算節點(edge compute node),內建 Nvidia RTX Pro 6000 Blackwell Server Edition GPU。安裝它的屋主,可以換到補貼電費與高速網路,外加一組備用電池。
SPAN 已完成初步試點,預計今年啟動 100 戶規模的試驗。
算力從集中走向分散,背後是土地與水資源的壓力
傳統大型資料中心的建設邏輯很清楚:規模越大,單位算力成本越低。但這套邏輯正在遭遇幾道硬牆。
首先是土地。一座 100 MW 資料中心需要數十公頃土地,且必須靠近穩定電力來源。美國多個州已出現社群居民反對資料中心進駐的聲浪,理由包括噪音、電費上漲、用水量過大。
其次是水。資料中心普遍使用蒸發冷卻系統,一座中型設施一天可消耗數百萬公升的水,在乾旱地區尤其引發爭議。
最後是時間。從選址、審批到基礎設施施工,一座新資料中心往往需要三至五年才能上線,而 AI 算力需求根本等不了這麼久。
SPAN 的方案試圖繞開這三道牆。XFRA 節點安裝在住宅旁,不需要獨立用地;液冷系統比風冷效率更高,且不依賴大量水源;節點可以隨住宅建設同步部署,擴充套件速度理論上遠快於傳統資料中心。
成本試算:同等算力,五分之一的錢
數字是 SPAN 方案最有力的說辭。
根據公司接受 CNBC 訪談中的說法,部署 8,000 個 XFRA 節點的成本,僅相當於興建一座提供同等算力的 100 MW 傳統資料中心費用的五分之一。
節點本身搭載 Nvidia RTX Pro 6000 Blackwell,這是 Nvidia 專為伺服器工作負載設計的專業顯示卡,支援大規模平行運算,適合 AI 推論任務。液冷設計則讓噪音壓在住宅可接受的範圍內。
XFRA 擴充目標
SPAN 的擴充套件計畫相當激進:2027 年起將 XFRA 節點規模推進至 8 萬個,在美國境內建立超過 1 GW 的分散式算力網路。1 GW 是什麼概念?約等於一座中型核電廠的輸出功率。
不過,SPAN 也清楚界定了這套網路的適用邊界。XFRA 瞄準的是 AI 推論(inference)、雲端遊戲與內容串流,而非 AI 模型訓練。訓練大型語言模型需要數千張 H100 或 B200 等高階 GPU 長時間協同運作,那是 Google、Microsoft 等超大規模雲端業者的領域。
XFRA 填補的是「訓練之後」的算力需求:把訓練好的模型拿來跑,回應真實世界的請求。
分散式算力的隱憂:效率、安全與監管
當然,這套模式並非沒有挑戰。
第一是網路穩定性。分散在住宅區的節點,面對的是消費級網路環境,頻寬與延遲的一致性遠不如資料中心的骨幹網路。對於部分需要低延遲的 AI 推論應用,這是明確的技術瓶頸。
第二是資安。企業級資料在住宅旁邊的節點上處理,涉及的物理安全、資料主權與合規要求都比傳統資料中心複雜。SPAN 尚未公開說明如何應對這些風險。
第三是屋主參與意願的持續性。補貼電費與網路是有吸引力的誘因,但若節點出現故障、噪音超出預期,或補貼條件改變,退出機制是否足夠清楚,將直接影響整個網路的可靠性。
這類分散式算力方案,邏輯上的吸引力毋庸置疑。但從試點到 8 萬節點之間,有一段很長的路。算力的戰爭,從來不只是技術問題,也是一場部署速度、資本結構與屋主信任的三方賭局。誰能在這三者之間找到平衡,才算真的勝出。
📍相關報導📍
Core Scientific財報Q1虧虧3.47億鎂,出清2385枚BTC籌資AI資料中心
清倉輝達狂買燃料電池:24歲天才操盤手55億美元AI基金邏輯
被OpenAI開除的25歲研究員,一年把2.25億投成55億美元
黃仁勳發全員信擁抱 OpenAI Codex:1 萬多名 NVIDIA 員工已上手,GPT-5.5 跑在 GB200 上
加州大學研究「AI 腦霧」現象:14% 上班族被Agent、自動化搞瘋,離職意願高四成







