GPU加速 关键字列表
Nvidia SCADA技术将存储控制路径转移至GPU

Nvidia SCADA技术将存储控制路径转移至GPU

英伟达SCADA技术是一种新型存储数据IO方案,GPU可直接启动和控制存储IO操作。与现有GPUDirect协议不同,SCADA不仅接管数据路径,还控制IO控制路径。该技术特别适用于AI推理工作负载中小于4KB的小块数据传输,能显著提升处理速度。英伟达正与Marvell、美光等存储生态合作伙伴开发SCADA兼容的SSD和控制器产品。

Pure Storage推出Data Stream:AI数据管道加速器

Pure Storage推出Data Stream:AI数据管道加速器

Pure Storage发布Data Stream,这是一个以GPU为中心的AI数据管道集成硬件软件堆栈。该解决方案运行在FlashBlade//S和英伟达Blackwell GPU硬件上,可自动化加速企业AI管道的数据摄取、转换和优化。Data Stream具备自动化实时数据摄取、英伟达NeMo集成、GPU优化管道加速等功能,支持多协议访问,可处理数十亿文件,通过在存储层执行并行转换大幅降低推理延迟,为企业AI应用提供即时访问优化数据的能力。

英伟达DGX Spark:小巧超算处理大模型的新选择

英伟达DGX Spark:小巧超算处理大模型的新选择

英伟达推出售价3000-4000美元的DGX Spark,号称"全球最小AI超算"。该设备搭载128GB内存,基于Blackwell架构的GB10芯片,虽然速度不及RTX 5090,但能运行消费级显卡无法处理的大模型。支持2000亿参数模型推理和700亿参数模型微调,在AI开发领域具有独特优势,但软件生态仍需完善。

OpenSearch 借助 GPU 加速向量搜索 助力 AI 工作负载提升

OpenSearch 借助 GPU 加速向量搜索 助力 AI 工作负载提升

OpenSearch 3.0发布,性能提升9.5倍,新增GPU加速向量搜索、生成式AI等功能,并优化数据传输和索引构建,助力AI应用发展。

VAST 的 VUA 闪存缓存几乎扩展 GPU 服务器内存以供 AI token 生成

VAST 的 VUA 闪存缓存几乎扩展 GPU 服务器内存以供 AI token 生成

VAST Data 开源其 VUA KVCache 软件,通过在 NVMe SSD 上存储 AI 模型推理过程中生成的令牌,避免重复计算,加快多步生成和对话续接。

Supermicro多节点、多 GPU 的平台 为视频直播、云端游戏和社交网络应用提供高效能和弹性

Supermicro 执行长暨总裁 Charles Liang 表示:“我们的全新 2U 2 节点多 GPU 服务器是适用于视频直播、高阶云端游戏和无数社交网络应用的理想平台。