AI实验室不再与企业签署昂贵的数据合同,而是通过Mercor平台招募前员工获取行业知识。Mercor为投资银行、咨询公司和律所的前员工与OpenAI、Anthropic等AI实验室搭建桥梁,向行业专家支付高达每小时200美元来训练AI模型。该公司年化经常性收入达5亿美元,估值100亿美元,每天向承包商支付超150万美元。
作为AI热潮的最大受益者,英伟达成为首家市值突破5万亿美元里程碑的上市公司。受特朗普总统表示将与习近平主席讨论该公司Blackwell芯片消息推动,公司股价周三上涨超过5.6%。英伟达CEO黄仁勋预计AI芯片销售额将达5000亿美元,并为美国建设七台新超级计算机。该公司还投资10亿美元于诺基亚,用于AI原生5G和6G网络开发。这一里程碑距离突破4万亿美元仅三个月。
亚马逊云服务宣布雷尼尔项目正式投入运营,该AI超级集群配备近50万块Trainium2芯片,分布在多个数据中心。AWS称这是全球最大的AI计算集群之一,从宣布到全面运营仅用不到一年时间。合作伙伴Anthropic计划年底前扩展到超过100万块芯片。该项目与OpenAI星门计划展开激烈竞争,AWS凭借自主硬件开发优势能够控制从芯片到数据中心的完整技术栈。
谷歌开始推出Fitbit应用的重大更新,采用全新设计并集成由Gemini AI驱动的个人教练功能。该更新于10月28日首先面向美国地区的Fitbit Premium用户开放,后续将逐步扩大覆盖范围。新版本围绕今日、健身、睡眠和健康四个主要标签重新设计,强调周趋势数据分析。AI教练功能可根据用户的实时和历史数据提供个性化建议和训练计划,支持语音或文字交互。用户可选择是否使用AI功能,预览期间可在新旧界面间切换。
Zoom与英伟达合作,利用Nvidia Nemotron开放技术升级AI Companion 3.0,采用混合语言模型架构,智能路由查询处理。该方案结合小语言模型和大语言模型优势,支持跨平台集成,包括微软365、Teams、谷歌工作空间等。新架构动态选择最优AI模型,在金融、医疗、政府等行业提供更私密、强大和个性化的AI体验,实现成本效率、质量和延迟的最佳平衡。
全球通信基础设施提供商Zayo宣布计划部署下一代互联网协议网络架构,以增强网络连接性。通过部署诺基亚网络技术,Zayo客户将获得云访问和数据中心连接的安全高速链路。该架构采用基于FP5的7750服务路由器和诺基亚7250互连路由器,支持400G和800G服务,能够快速部署新市场连接,提高可靠性并简化运营。首阶段部署已在纽约和新泽西启动。
IBM今日发布Granite 4 Nano系列超小型生成式AI模型,专为边缘设备、终端和浏览器运行而设计。该系列包含参数量从3.5亿到15亿不等的四个指令模型及其基础版本。与大型模型相比,小型模型计算需求更低,可在笔记本、PC和移动设备上运行,提供更好的隐私安全性和离线访问能力。模型采用IBM开发的混合架构,在多项基准测试中表现优于同规模竞品。
企业数据质量监控平台Anomalo发布AIDA智能数据分析系统,用户可通过自然语言查询和控制数据。该平台运用机器学习技术替代传统规则系统,自动检测结构化和非结构化数据中的异常问题。AIDA结合生成式AI能力与企业数据深度理解,让用户能够"与数据对话"。系统与Google Cloud、Databricks、Snowflake等主要数据平台集成,支持17种数据源连接,目前已向所有客户提供预览版本。
思科宣布推进安全可扩展的人工智能技术,并与AI领导者英伟达建立合作伙伴关系。双方推出基于英伟达Spectrum-X以太网芯片的思科N9100数据中心交换机,为新云和主权云部署提供合规的参考架构。此外,还发布了思科安全AI工厂解决方案,为企业AI基础设施提供安全保护。两家公司还联合开发了业界首个面向6G的AI原生无线技术栈。
欧洲最大能源公司之一E.ON宣布将安装新的通信基础设施,以提高安全性和韧性,符合关键基础设施要求。该公司与诺基亚签署五年战略协议,在德国启动基于诺基亚技术的网络更新项目。新网络将为配电系统运营商创建优化的高度自动化电信网络,与现有IP和光纤基础设施相比,能耗可降低50%,同时改善可扩展性和运营灵活性,为未来量子安全网络奠定基础。
本期《众智有为 致敬同路人》系列报道,深度解码众诚科技,如何在一个又一个技术周期中完成自我革命,并与华为携手,成为河南“数字基建”与“数实融合”之路上最坚定的同路人。
Stellantis、Lucid 和梅赛德斯-奔驰加入 L4 级自动驾驶生态系统领导者行列,基于 NVIDIA DRIVE 辅助驾驶平台和 DRIVE AGX Hyperion 10 架构,加速推进自动驾驶技术发展
这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。
企业要走出认知偏差,必须从整体上重构安全观——将安全视为动态体系的一部分,将防御与恢复并重,将技术创新与人工治理并行。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。
UCL研究团队通过分析16万场AI对战数据发现,传统认为"平局代表AI实力相当"的观念完全错误。研究表明平局主要反映问题难度和客观性,而非AI能力对比。当忽略平局进行评分时,四种主流评分系统的预测准确率均提升1-3%。这项发现颠覆了现有AI评估理论,建议未来评分系统应考虑问题特征而非简单的平局语义。
北卡罗来纳大学研究团队开发的TRAAC方法,首次让AI学会根据问题难易程度自适应调整思考深度。通过智能识别关键推理步骤和动态压缩冗余内容,TRAAC在提升8.4%准确率的同时缩短36.8%推理长度,解决了AI"过度思考"和"思考不足"的双重问题,为构建更智能高效的AI系统提供了新思路。
上海交大团队开发的LongCodeZip是首个专门针对长代码上下文的AI压缩框架,通过分层压缩策略解决了AI处理大型代码项目时的记忆超载问题。该技术能实现5.6倍压缩比,同时保持AI理解准确性,显著降低处理成本77%,提升响应速度60%。经过三种代码任务验证,证明在代码补全、摘要生成和问答方面均优于传统方法,为软件开发中的AI应用提供了重要突破。
UCLA与字节跳动联合突破视频生成时长限制,提出Self-Forcing++方法,通过让模型学习修复自己生成的长视频中的错误,成功实现4分钟超长高质量视频生成,比传统方法提升50倍,为AI视频创作开辟新纪元。