更高效、更安全、更灵活的AI PC产品组合及创新解决方案,深化人与工作、员工与企业的关系。
在Create 2024百度AI开发者大会上,李彦宏宣布推出三款AI开发工具:AgentBuilder、AppBuilder、ModelBuilder,并强调自然语言将成为新的编程语言。文心大模型用户数突破2亿,百度在AI原生应用开发方面提出MoE、小模型和智能体三大思路。
联想万全异构智算平台是AI 2.0时代联想中国基础设施战略框架的核心,融合了联想的五大创新技术,是AI 2.0时代大模型训练和推理的基础设施底座。
AMD 锐龙PRO 8040系列和AMD 锐龙PRO 8000系列为商业用户带来先进的x86处理器驱动AI PC。
近日,Arm宣布推出Arm Ethos-U85神经网络处理器(NPU),以及全新物联网参考设计平台——Arm Corstone-320,以加速实现语音、音频和视觉系统的部署,促进未来多模态智能应用的全方位部署。
曾几何时,或者说就在短短几年之前,数据中心芯片市场还是个资金门槛极高但却相对简单的市场。CPU战团主要有英特尔、AMD和Arm,GPU阵营则是英伟达、AMD和英特尔等厂商的舞台。尽管AI初创公司数量可观,但普遍并未在数据中心领域建立起真正的话语权。
英特尔将推出两款专供中国市场的Gaudi 3 AI加速器,根据美国出台的制裁政策对性能做出大幅“阉割”。
联想AI PC个人智能体即将于4月18日联想创新科技大会(2024 Lenovo Tech World)上正式亮相。
Precedence Research近期发布的报告也显示,预计到2032年,涵盖CPU、GPU、ASIC以及FPGA等类型的AI芯片市场规模将从2023年的约219亿美元大幅增长至2274.8亿美元。
尽管AI芯片种类繁多,GPU因其适应性和强大的并行计算能力,仍是AI模型训练的主流硬件。英伟达在GPU领域的技术积累和生态建设使其处于领先地位,而国内GPU厂商虽在追赶,但仍存在差距。AI应用向云、边、端全维度发展,模型小型化技术成熟,数据传输需求增加,Chiplet技术降低设计复杂度和成本。
Nvidia在2023年投资者会议上展示了其GPU发展蓝图,计划在2024年推出H200和B100 GPU,2025年推出X100 GPU。其AI芯片更新周期从两年一次缩短至一年一次,体现产品开发速度加快。Nvidia的“One Architecture”统一架构支持不同环境下的模型训练和部署,适用于数据中心和边缘计算。同时,Nvidia的技术路线图包括HBM3E高速存储器、PCIE 6.0/7.0、NVLink、224G SerDes、1.6T接口等先进技术。
HBM技术通过提升I/O口数量和速率,突破内存限制,成为AI芯片的强大辅助。HBM3和HBM3e将成为AI服务器主流配置,预计HBM4将于2026年发布。全球HBM市场预计在2024年超百亿美元。HBM采用TSV+Bumping和TCB键合方式,但散热效率低下,海力士引入MR-MUF工艺改善。预计HBM4将采用混合键合Hybrid Bonding技术,3D封装的核心是混合键合与TSV。
根据Gartner公司的最新预测,到2024年底,人工智能(AI)个人电脑(PC)和生成式人工智能(生成式AI)智能手机的全球出货量预计将从2023年的2900万台增长至2.95亿台。
今天Nvidia公布了第四季度财务业绩,结果再次超出华尔街预期,使其股价在盘后交易中走高。
19 位学界、业界人士忧心忡忡、把酒言欢的搞了一篇论文,把 AI 治理聚焦到了“硬件”和“算力”上。