下一座AI数据中心,可能就挂在你家墙上
5 月 5 日,加州创业公司 Span 和英伟达(Nvidia)公布了一项合作:把一个名叫 XFRA 的白色金属箱挂在美国普通住宅外墙上,紧挨着空调外机和电表。每个箱子里塞着 16 块 Nvidia Blackwell GPU、4 个 AMD EPYC CPU 和 3TB 内存,是企业级 AI 推理服务器的标准配置。
Span 计划把分散在数千户美国家庭外墙的这种盒子连成一张网络,作为“分布式数据中心”卖给云厂商和 AI 公司,提供和传统数据中心一样的算力服务。
Nvidia 这次给 XFRA 配的是首次商用的液冷 RTX PRO 6000 Blackwell Server Edition GPU。液冷意味着无需风扇,挂在房子外面也不会发出嗡嗡声。
“这是一笔基础设施生意。”Span 创始人兼 CEO Arch Rao 对 CNBC 说,“我们的位置很独特,能以低得多的成本满足显然填不满的算力需求,同时让普通业主受益。”
Span 2018 年起家时做的是智能电板,卖给业主帮他们省电费。它的电板能识别每户人家电网接入端的实际可用容量。美国住宅一般标配 200 安培的服务等级,日常负载远低于此。空出来的那部分电力过去没被任何人定价,Span 现在打算把它用来跑 AI 推理。
XFRA 是这个思路的产物:一套由 Span 智能电板、计算节点、备用电池和可选光伏组件组成的封装系统。智能电板实时测算每户的瞬时负载,动态调度计算节点的功率使用,理论上不影响住户用电。云厂商看到的是和普通数据中心没什么两样的接口:把推理任务发过来,由分布在全美各地的 XFRA 节点池协同响应。
这些设施主要部署在住宅而非商业楼。原因是,美国独栋住宅存量超过 8,000 万套,新建住宅普遍标配 200 安培电力服务等级,有独立电表和大量未用满的电网接入容量,这种基数和电力底子是商业地产端找不到的。新建住宅在管线和电力部署上又是从零开始,Span 可以把硬件预装到建筑工序里,等于把分发问题前置到了开发商端。

图丨XFRA(来源:Span)
PulteGroup 战略采购副总裁 Brian Jamison 在合作公告里站台说,“装 SPAN 面板、XFRA 和备用电池能降低建房成本,还能让住宅未充分利用的电力基础设施反过来服务电网。”
这笔生意的商业模式也相当反常规。装 XFRA 的房屋业主在购房时不需要额外付费,硬件由 Span 出,由 PulteGroup 在建造过程中嵌入。装好后业主每月给 Span 付一笔固定费用覆盖电力和家庭 Wi-Fi,作为交换 Span 把 XFRA 节点占用的电力和网络流量按使用量返还给业主。Span 发言人对 Realtor.com 表示,“在某些情况下可能完全没有费用”。
不过细细来看,对于涉及到的四方而言,这的确是一门很合理的生意。业主拿到的是降低后的水电网费,外加一份不需要管理的被动收入流;建筑商拿到了一个营销卖点(“装 Span 的房子能帮你抵消水电费”)以及材料采购上的成本优惠;Span 当中介,向云厂商收算力费、向业主转付分成、自己留一道差价;Nvidia 是 GPU 供应商,把 Blackwell 推到了一个传统超大规模厂商之外的新销售渠道。
对于云客户来说,这也是一笔划算的买卖:在传统数据中心找不到电、找不到地、社区还在反对的时候,从 Span 买分布式算力是一条可绕过现有瓶颈的捷径。
而这条捷径之所以有人买单,是因为 2026 年美国数据中心行业最显著的趋势:电力成了比 GPU 更稀缺的资源。

Sightline Climate 的数据显示,美国 2026 年原计划上线约 12 GW 的数据中心容量,目前真正进入施工阶段的只有 5 GW 左右,剩下三分之二卡在土地、电力或社区审批环节。覆盖 13 个州、服务 6,500 万人的美国最大电网运营商 PJM Interconnection 预测 2027 年其可靠性容量将短缺 6 GW。高压变压器的交付周期从 12-18 个月被拉长到 36-48 个月。
据彭博社报道,OpenAI 和软银的 Stargate 项目至今没有显著的物理建设进展。不是因为没钱,是因为电力、变压器、电网容量这些钱无法立刻解决的事。
Nvidia 全球能源行业高级董事总经理 Marc Spieler 向 CNBC 坦言:要在单一地点搞出大型数据中心需要的负载,已经“很难”。XFRA 选择的反方向是利用每户住宅“已经接入电网但没用满的那部分容量”。美国住宅 200 安培的服务等级,日常实际占用可能只有三分之一到一半。
把每户分散的几千瓦闲置容量乘以数千户,加起来就是一个中型数据中心。Span 自报的数字是装 8,000 个 XFRA 单元相当于一座 100 兆瓦数据中心,部署速度快 6 倍、成本低 5 倍。这些数字目前没有第三方验证,但方向上的吸引力对买电求不得的云厂商来说足够明确。
其实“分布式算力”不是什么新概念。过去几年加密行业孵化出了一整套 DePIN(Decentralized Physical Infrastructure Networks,去中心化物理基础设施网络)方向的项目,包括 Akash Network、io.net、Render Network、Prime Intellect、Gensyn 等。
它们的思路是把世界各地散户和小型机房手里的 GPU 通过代币激励聚拢起来,组成共享算力池。Akash 网络目前管理约 736 块 GPU,io.net 整合数据中心、加密矿工和社区贡献者的多种来源算力,Prime Intellect 早在 2024 年用分布式 GPU 完成了 100 亿参数模型 INTELLECT-1 的训练。
但 DePIN 路线的痛点也非常明显:硬件高度异构(消费级 RTX 3090 到企业级 H100 都有)、可靠性参差、依赖代币经济模型保持流动性、企业级 SLA(服务等级协议)难以承诺。它适合对成本极度敏感、对延迟和稳定性容忍度高的工作负载,比如批处理任务、模型训练、渲染,而不是需要稳定低延迟的实时推理。
Span 加 Nvidia 的方案在几个维度上做了相反的选择:一是硬件标准化,统一是液冷 Blackwell;二是分发渠道机构化,绑定大型住宅建筑商;三是客户对象明确瞄准 hyperscalers 和企业级 AI 云厂商;最好,它也不依赖任何代币激励层。它真正利用的也不是“个人闲置 GPU”,而是“住宅电网接入端的未用满容量”,再加自家硬件去消费这部分容量。
这是过去 DePIN 项目从未真正涉及的资源。Span 的智能电板提供定位和调度这类资源的工具,Nvidia 提供把它转化为 AI 算力的硬件。两边凑在一起,像是给“边缘推理”这个概念配上了第一个标准化的物理形态。
但能不能跑通仍是未知的问题。
和其他分布式算力一样,XFRA 节点之间通过普通住宅宽带互联,要让分散在数千户家庭的算力池稳定支撑企业级 SLA 的推理服务,调度和容错的工程量远超 Span 此前做智能电板的范畴。从单户实测到 100 户概念验证再到 8,000 户的中型数据中心当量,每跨一个数量级,实现难度也会不断上升。
而更根本的问题是这条路的吸引力建立在“传统数据中心找不到电”的前提上。如果电网扩容提速、SMR(小型模块化反应堆)和现有核电重启给集中式方案提供新的电源选项,分布式方案的相对优势会被稀释。Span 押的是电力短缺会持续到 2030 年代。
Marc Spieler 在接受采访时点到了这件事的核心诉求:低延迟、靠近终端用户、能快速规模化。前两点确实是 XFRA 方案的优势,最后一点目前还只是 Span 的承诺。
PulteGroup 计划年内完成的 100 户概念验证,是这套设想能不能从 PPT 走出来的第一个真实测试。在那之前,挂在美国新建住宅外墙上的那些白盒子,对眼下的算力紧缺还帮不上什么忙。
