在当下的AI竞争格局下,没什么能比一场AI浓度爆表的大会,更能快速彰显自身实力了,AMD的这场「Advancing AI大会」,就是印证。
不少解决方案提供商看好AWS投入巨资打造专门针对AWS基础设施优化芯片的计划,该计划将使合作伙伴在AI市场竞争中占据优势,因为电力成本更低,供应链优势更大。
因此,英特尔在Computex简报会上公布了产品的定价与基准测试性能,以期展示Gaudi 3与当前“Hopper”H100 GPU的直接比较结果。
曾几何时,或者说就在短短几年之前,数据中心芯片市场还是个资金门槛极高但却相对简单的市场。CPU战团主要有英特尔、AMD和Arm,GPU阵营则是英伟达、AMD和英特尔等厂商的舞台。尽管AI初创公司数量可观,但普遍并未在数据中心领域建立起真正的话语权。
英特尔将推出两款专供中国市场的Gaudi 3 AI加速器,根据美国出台的制裁政策对性能做出大幅“阉割”。
Precedence Research近期发布的报告也显示,预计到2032年,涵盖CPU、GPU、ASIC以及FPGA等类型的AI芯片市场规模将从2023年的约219亿美元大幅增长至2274.8亿美元。
尽管AI芯片种类繁多,GPU因其适应性和强大的并行计算能力,仍是AI模型训练的主流硬件。英伟达在GPU领域的技术积累和生态建设使其处于领先地位,而国内GPU厂商虽在追赶,但仍存在差距。AI应用向云、边、端全维度发展,模型小型化技术成熟,数据传输需求增加,Chiplet技术降低设计复杂度和成本。
Nvidia在2023年投资者会议上展示了其GPU发展蓝图,计划在2024年推出H200和B100 GPU,2025年推出X100 GPU。其AI芯片更新周期从两年一次缩短至一年一次,体现产品开发速度加快。Nvidia的“One Architecture”统一架构支持不同环境下的模型训练和部署,适用于数据中心和边缘计算。同时,Nvidia的技术路线图包括HBM3E高速存储器、PCIE 6.0/7.0、NVLink、224G SerDes、1.6T接口等先进技术。
HBM技术通过提升I/O口数量和速率,突破内存限制,成为AI芯片的强大辅助。HBM3和HBM3e将成为AI服务器主流配置,预计HBM4将于2026年发布。全球HBM市场预计在2024年超百亿美元。HBM采用TSV+Bumping和TCB键合方式,但散热效率低下,海力士引入MR-MUF工艺改善。预计HBM4将采用混合键合Hybrid Bonding技术,3D封装的核心是混合键合与TSV。
今天Nvidia公布了第四季度财务业绩,结果再次超出华尔街预期,使其股价在盘后交易中走高。
19 位学界、业界人士忧心忡忡、把酒言欢的搞了一篇论文,把 AI 治理聚焦到了“硬件”和“算力”上。
AI专用硬件的全面普及还需要不短的时间,在此之前,唯一办法就是充分挖掘现有硬件终端本身的计算能力。
3月6日,央视新闻直播间播出“我们的十四五”两会特别报道,云天励飞的AI无感测温设备和AI芯片DeepEye1000作为深圳高新技术发展成果的代表亮相。
在走出隐形模式仅两年之后,人工智能芯片初创公司Habana Labs就被英特尔以20亿美元的价格收购。
在 2019 英特尔人工智能峰会现场,英特尔宣布——新推出的 Nervana 神经网络处理器(NNP)现已投入生产并完成客户交付。
来自ABI Research的两份新报告详细分析了当今人工智能芯片组市场的发展状况。其中,ABI Research首席分析师Lian Jye Su谈到了正在进入这个潜在利润丰厚市场的公司和技术。