硬件优化 关键字列表
这些AI工作站看似PC,实则性能更强劲

这些AI工作站看似PC,实则性能更强劲

生成式AI的兴起推动了本地AI工作站的需求,但传统PC难以胜任。Tenstorrent的QuietBox 2配备四个定制Blackhole AI加速器和384GB内存,可运行OpenAI GPT-OSS-120B等大模型,处理速度达每秒500个令牌。该设备功耗仅1400瓦,售价9999美元,计划2026年二季度发布。英伟达DGX Station提供更大内存容量但价格高达85000美元。

英伟达投资20亿美元于AI云服务商Nebius

英伟达投资20亿美元于AI云服务商Nebius

英伟达宣布向荷兰AI云服务提供商Nebius集团投资20亿美元,用于扩展其数据中心基础设施。Nebius将部署配备英伟达最新Rubin GPU和Vera CPU的服务器,以及BlueField芯片系列。新一代Rubin GPU的推理工作负载成本效率比前代提升10倍,而配备Rubin和Vera的系统每瓦性能提升10倍。Nebius在美国、英国、法国等地运营数据中心,并提供托管GPU和AI模型开发管理服务。

OpenAI首次在Cerebras芯片上部署AI模型

OpenAI首次在Cerebras芯片上部署AI模型

OpenAI推出GPT-5.3-Codex-Spark模型,这是首个运行在Cerebras Systems AI加速器上的模型。该轻量级模型利用Cerebras的SRAM芯片内存技术,响应速度超过每秒1000个token,为Codex代码助手提供更互动的体验。OpenAI上月与Cerebras签署100亿美元合同,部署最多750兆瓦定制AI芯片。尽管Cerebras芯片速度极快,但内存容量仅44GB,因此GPU仍是大模型运行的主要选择。

d-Matrix押注内存计算技术突破AI推理瓶颈

d-Matrix押注内存计算技术突破AI推理瓶颈

d-Matrix通过其数字内存计算技术解决AI推理中的内存瓶颈问题,将矩阵乘法运算直接在内存单元内执行。该公司最近完成2.75亿美元融资,其Corsair平台采用异构架构,利用芯片组方法实现可扩展性。与传统GPU分离计算和内存不同,d-Matrix让内存块本身成为计算块,通过嵌入式加法器树完成求和运算,为AI推理提供更高效的硬件解决方案。

微软为美国Azure客户推出全新AI加速器Maia 200

微软为美国Azure客户推出全新AI加速器Maia 200

微软宣布其美国中央数据中心率先部署新型AI推理加速器Maia 200。该产品采用台积电3nm工艺,配备FP8/FP4张量核心和216GB HBM3e高速内存,数据传输速度达7TB/秒。相比竞品,Maia 200的FP4性能是亚马逊Trainium三代的3倍,成本效率提升30%。微软计划在美国西部3区继续部署该技术。

树莓派推出8GB RAM扩展板,专为本地运行生成式AI模型设计

树莓派推出8GB RAM扩展板,专为本地运行生成式AI模型设计

树莓派发布售价130美元的AI HAT+ 2扩展板,配备8GB内存和Hailo 10H芯片,可提供40 TOPS AI性能。该扩展板专为树莓派5设计,能够本地运行Llama 3.2等小型生成式AI模型,处理AI工作负载的同时释放主板CPU资源。尽管功能强大,但测试显示其性能受限于3W功耗限制,整体表现不如16GB版树莓派5。

Red Hat为英伟达Vera Rubin AI平台定制RHEL操作系统

Red Hat为英伟达Vera Rubin AI平台定制RHEL操作系统

基于与英伟达的持续合作,红帽承诺为英伟达新发布的Vera Rubin平台提供"零日"支持。该企业开源软件公司旨在缩小英伟达硬件平台发布与其支持软件堆栈正式发布之间的时间差。Vera Rubin平台专为降低AI推理成本而设计,基于新的CPU、GPU和数字处理单元构建。红帽将发布定制版RHEL操作系统,支持英伟达GPU驱动和CUDA工具包,预计2026年下半年推出。

苹果TV急需PoE支持以释放企业应用潜力

苹果TV急需PoE支持以释放企业应用潜力

Apple TV在企业和零售环境中被严重低估。虽然它易于远程管理、稳定性强,能完美融入现有的设备管理流程,但仍未发挥全部潜力。主要障碍是缺少以太网供电(PoE)功能,导致大规模部署复杂化。目前需要两根线缆连接,增加了安装成本和故障风险。如果Apple TV支持PoE并采用更紧凑的设计,将成为数字标牌、会议室显示等企业应用的理想选择。

Positron推出专业AI推理芯片,挑战英伟达市场地位

Positron推出专业AI推理芯片,挑战英伟达市场地位

初创公司Positron获得5160万美元A轮融资,推出专门针对AI推理的Atlas芯片。该公司声称其芯片在性能功耗比和成本效益方面比英伟达H100高出2-5倍,并已获得Cloudflare等企业客户采用。Positron专注于内存优化设计,无需液体冷却,可直接部署在现有数据中心。公司计划2026年推出支持16万亿参数模型的下一代Titan平台。

量子计算、摩尔定律与AI的未来发展

量子计算、摩尔定律与AI的未来发展

专家小组讨论了AI加速发展的关键要素,包括硬件芯片设计、量子计算作用和技术扩展。Cerebras展示了餐盘大小的WSE超级芯片,被称为"推理界的鱼子酱"。专家们探讨了从单原子量子比特到高精度计算的创新方法,预测量子计算将首先在研究领域产生影响。讨论还涉及软件开发、开源模型和摩尔定律的未来十年效率提升前景。

联想推出新一代AI优化数据中心系统

联想推出新一代AI优化数据中心系统

联想集团推出专为人工智能工作负载优化的数据中心系统产品组合。主打产品ThinkSystem SR680a V4计算设备集成近二十个处理器,推理工作负载运行速度比上一代硬件快11倍。该系统配备8块英伟达Blackwell B200显卡、6个英特尔至强6处理器,以及8个英伟达SuperNIC和BlueField-3 DPU。同时发布基于SR675服务器的两个系统和四个混合AI优势产品包,涵盖制造、酒店、安全和零售等应用场景。

量子硬件可能是 AI 的最佳搭档

量子硬件可能是 AI 的最佳搭档

人工智能能耗问题引发关注,量子计算或成解决方案。量子硬件在某些方面更适合AI底层数学运算,但目前错误率仍偏高。研究人员正着手准备,以便在硬件就绪时运行AI模型。本文探讨了量子AI的潜力,包括量子电路在机器学习中的应用、将经典图像数据输入量子处理器的方法,以及在真实量子硬件上运行AI算法的初步尝试。

硬件质量问题和服务器供应链瓶颈放缓亚马逊 1000 亿美元 AI 建设

硬件质量问题和服务器供应链瓶颈放缓亚马逊 1000 亿美元 AI 建设

亚马逊云服务在获取高质量服务器以构建 AI 基础设施方面面临挑战。公司缩短了部分服务器和网络设备的使用寿命,以腾出空间部署加速计算机。这些问题影响了亚马逊近 1000 亿美元的 AI 基础设施投资计划。尽管如此,亚马逊仍看好 AI 前景,认为这是一个"一生难遇的商业机会"。