Google Assistant 正在向 Gemini 演进,带来强大的 AI 新功能,但同时也将停用一些用户喜爱的功能。如果你正在使用 Google Assistant 设置定时器、播放音乐或控制智能家居设备,那么你需要为一些重大变化做好准备,因为 Google 正在用更强大的 AI 驱动的 Gemini 聊天机器人取代已有九年历史的 Assistant。
OpenAI 发布三款全新专有语音模型,包括 gpt-4o-transcribe、gpt-4o-mini-transcribe 和 gpt-4o-mini-tts。这些模型基于 GPT-4o 开发,提供更准确的转录和语音合成能力,支持 100 多种语言,可通过 API 集成到第三方应用中。新模型在英语转录准确率方面表现出色,错误率仅为 2.46%,并支持语音定制和情感表达。
Nvidia 推出 DGX Cloud 基准测试工具包,帮助企业和开发者评估其基础设施运行先进 AI 模型的能力。该工具包提供性能测试容器和脚本,可在不同配置下测试 AI 模型性能,支持企业在大规模部署 AI 工作负载前做出明智决策,优化基础设施效能。
Nvidia 宣布与电力行业研发机构 EPRI 合作,利用 AI 技术解决电网面临的挑战。讽刺的是,这些问题主要源于 AI 本身带来的用电需求激增。Open Power AI 联盟将开源特定领域的 AI 模型,以应对电力行业未来的挑战,包括数据中心用电激增、可再生能源整合等问题。
NVIDIA 正全力打造从硬件到软件再到开发者工具的全栈式 AI 解决方案。在 2025 年 GPU 技术大会上,CEO 黄仁勋详细介绍了新一代 Blackwell B300 GPU、企业级 AI 超级计算机以及 AI 推理模型等创新产品,展现了 NVIDIA 在云计算、企业 IT、制造业和机器人等领域的全方位布局,致力于将 AI 技术推广到更广泛的应用场景。
LexisNexis 在开发其 AI 法律助手 Protégé 时,采用了创新的多模型方案。通过精简大语言模型并结合小型模型,他们成功打造出一款能够适应律所工作流程、支持法律文件撰写和校对的智能助手。这种方案不仅提高了响应速度,还降低了运营成本,展现了 AI 在法律科技领域的实用价值。
AI 正在深刻影响数据中心的各个方面,从建设设计到电力和计算。最新的全球调查显示,AI 正以前所未有的规模重塑数据中心网络基础设施。预计 43% 的新数据中心设施将专门用于 AI 工作负载,数据中心互联带宽需求预计在未来五年内增加 6 倍以上。可插拔光学模块被视为减少功耗和物理占用空间的重要技术。
在GTC大会上,英伟达CEO黄仁勋宣布了新一代Blackwell Ultra GPU平台和网络系统,旨在构建"AI工厂"。英伟达的战略是先扩大规模(提升单一设备性能),再扩展规模(增加服务器数量),以推动工业级AI生产,为企业客户创造价值。
在网络攻击事件中,攻击归因是一个复杂的过程。虽然确定攻击来源很重要,但首要任务是修复漏洞并确保系统安全。文章探讨了攻击归因的重要性、实施方法以及信息共享对整个安全社区的价值,为 CIO 和 CISO 提供了应对网络攻击后果的实用指导。
随着AI基础设施市场的爆发式增长,数据管理和存储对企业实现AI投资价值变得至关重要。企业面临的挑战包括数据分散、传统架构限制和混合云环境的复杂性,需要灵活、可扩展的存储解决方案来有效管理和提取数据价值。
Nvidia 宣布与多家行业领袖合作,共同研发 6G 人工智能原生无线网络。这种下一代网络将深度集成 AI 技术,实现数百亿设备的无缝连接,提供卓越的频谱效率和性能。合作伙伴包括 T-Mobile、Mitre、Cisco 等知名企业,旨在推动 AI 驱动的 6G 技术创新,为未来通信奠定基础。
亚马逊宣布从3月28日起取消 Echo 设备阻止语音命令录音发送至亚马逊的选项,这引发了用户对隐私的担忧。此举是为了升级 Alexa Plus,但也意味着亚马逊将能访问更多用户语音数据。虽然亚马逊声称数据处理后会被删除,但用户对 AI 语音助手的隐私顾虑仍在增加。本文将探讨这一变化的影响及用户可采取的应对措施。
一款名为 "Touch Grass" 的 iOS 应用采用独特方式限制用户使用手机:用户必须走到户外拍摄真实的草地照片,才能解锁受限应用。该应用使用计算机视觉 AI 技术识别真实草地,防止用户使用室内植物作弊。这个既幽默又实用的应用程序,旨在帮助人们减少屏幕使用时间,培养更健康的生活方式。
根据IDC最新研究报告显示,边缘计算正在重新定义企业如何利用实时数据和人工智能工作负载。预计到2028年,全球边缘计算支出将达到3800亿美元,年复合增长率为13.8%。这一增长主要由AI加速处理器、多接入边缘计算 (MEC)、内容分发网络 (CDN) 和虚拟网络功能 (VNF) 等技术推动。
最新研究显示,全球超大规模数据中心数量已达 1,136 个,是五年前的两倍。在 AI 工作负载需求推动下,运营商倾向于建设规模更大的设施,而不是增加设施数量。AWS、微软和谷歌占据全球超大规模数据中心容量的 59%,美国仍是最大市场,占据全球容量的 54%。未来四年内,预计总容量将再次翻倍。
DDN 在 Nvidia 的 GTC 2025 大会上发布了 Inferno 高速对象存储设备和 xFusionAI 混合文件+对象技术。Inferno 通过整合 Nvidia Spectrum-X 交换机,性能显著优于 AWS S3。xFusionAI 则结合了 EXAScaler 高速文件存储和 Infinia 对象存储,为 AI 工作流提供平衡的存储解决方案。这两项技术旨在消除 AI 瓶颈,加速工作流程,并实现复杂模型的扩展。
IBM 为其长期存在的并行文件系统 Storage Scale 添加了内容感知功能,增强了其检索增强生成(RAG)能力。这一升级支持 Nvidia 的 AI-Q 蓝图和 NeMo Retriever 微服务,可以从多种数据源中提取信息,并自动更新向量数据库。这项技术将嵌入到 IBM Fusion 的下一次更新中,预计在第二季度正式发布。
在 NVIDIA GTC 大会上,多家汽车和自动驾驶公司宣布采用 NVIDIA 技术推进自动驾驶发展。通用汽车将扩大与 NVIDIA 的合作,涉及工厂、机器人和自动驾驶汽车等多个领域。自动驾驶卡车公司 Gatik、Plus 和 Torc 也将采用 NVIDIA 的多项技术方案,推动 L4 级自动驾驶商业化。同时,沃尔沃利用 NVIDIA GPU 进行空气动力学模拟,优化电动汽车设计。
Deepmind创始人Demis Hassabis表示,人工智能的许多能力可能需要10年才能充分显现。他预计AI将演变为具有人类认知能力的通用人工智能。Google推出了新的音频生成模型Chirp 3,并扩展了AI代理服务Agentspace。Hassabis强调了AI代理系统的发展,包括多代理协作和专业化代理的应用,但也指出了AI规划算法中错误累积的挑战。
OpenAI 的 AI 推理研究主管 Noam Brown 表示,如果研究人员早知道正确方法和算法,类似 OpenAI 的 o1 这样的"推理"AI 模型本可以在 20 年前就出现。Brown 强调了测试时推理技术的重要性,同时指出预训练仍然重要。他还讨论了学术界与前沿实验室合作的机会,以及 AI 基准测试的改进空间。