近年来,东软致力于构建数据价值化的中国方案,这一次东软要携手福州,共同探索数据要素价值化的实践路径,打造独具特色的“福州模式”。
MiroMind AI等机构联合研究团队提出了UniME-V2多模态嵌入学习新方法,通过让大型多模态语言模型充当"智能法官"来评估训练样本质量,解决了传统方法在负样本多样性和语义理解精度方面的问题。该方法引入软标签训练框架和困难负样本挖掘技术,在MMEB基准测试中取得显著性能提升,特别在组合式检索任务上表现出色,为多模态AI应用的准确性和用户体验改进提供了重要技术支撑。
萨提亚回忆起90年代在微软评审会上听到的场景。Gates当时说:"软件只有一个品类--信息管理。
依托前沿的连接技术,TE为数据、电力、信号的高效可靠流动提供核心保障,既推动各行业技术突破,更为智能化、绿色化的未来筑牢互联根基。
Anthropic周一发布了旗舰模型Opus 4.5,这是4.5系列的最后一个模型。新版本在编程、工具使用和问题解决等基准测试中表现出色,是首个在SWE-Bench验证测试中得分超过80%的模型。同时推出Claude for Chrome和Claude for Excel产品,分别面向不同用户群体。Opus 4.5还改进了长文本处理的内存管理,支持付费用户的"无限聊天"功能,并针对智能体应用场景进行了优化,将与OpenAI的GPT 5.1和谷歌的Gemini 3展开竞争。
总部位于圣地亚哥的AI公司耐能发布新一代KL1140芯片,这是首款能在边缘端运行完整变换器网络的神经处理单元。该芯片可将大语言模型从云数据中心转移到便携式本地设备中,四颗芯片组合可实现类似GPU的性能,支持1200亿参数模型运行,功耗降低三分之一至一半,硬件成本减少十倍。
CXL 4.0规范发布,采用PCIe 7.0技术将链路带宽提升至128GT/s,相比前代翻倍。新增原生x2宽度概念、捆绑端口和4个重定时器支持,可将链路距离扩展至多机架配置。该技术针对多机架AI服务器需求,通过PCIe总线实现内存池共享连接。支持GPU高带宽内存作为Type 2设备与主机处理器共享内存空间,预计2026-2027年实现商用部署。
越来越多组织转向混合云架构,但遗留应用云迁移仍面临挑战。三位IT专家建议:首先评估迁移必要性,避免不必要的安全和集成问题;重构代码是关键,简单的提升和转移无法获得云的性能优势;需要充分了解应用依赖关系、性能配置文件和成本结构;确保适当的安全设置和监控;考虑多云环境下的数据传输费用。成功迁移需要充分准备、测试和架构重新设计。
随着AI技术快速发展,企业正将工作负载从云端拉回本地。工程师再次专注于速度问题,通过边缘计算减少延迟。边缘计算将数据处理靠近数据源,显著降低延迟。混合云成为新趋势,不再是云端与边缘的优劣之争,而是针对特定工作负载选择合适方案。在国防等关键任务领域,边缘AI尤为重要,能够在网络中断时保持系统正常运行。
澳大利亚电信巨头Telstra宣布向Aduna Global发布澳大利亚首个Camara应用编程接口,让获批企业能将可信的网络级API嵌入应用中。此次发布的号码验证和SIM卡交换两个API旨在帮助企业提升客户体验,防范账户接管和诈骗。号码验证API可自动检查手机号码与设备账户匹配性,比短信验证码更安全便捷;SIM卡交换API则能检测手机号码的SIM卡变更,及早发现威胁并阻止风险操作。
IBM与思科宣布建立合作伙伴关系,共同构建大规模容错量子计算机网络,为分布式量子计算奠定基础,预计在2030年代初实现。两家公司计划在五年内展示首个概念验证,将多台独立的大规模容错量子计算机连接起来,协同运行数万至数十万量子比特的计算任务。该网络有望支持数万亿量子门操作,解决大规模优化问题和复杂材料药物设计等变革性应用。
英国政府承诺投资1亿英镑购买英国公司的新兴芯片技术,以支持人工智能产业发展。科学大臣肯德尔表示,政府将向生产AI硬件的英国初创企业提供保证付款,帮助生命科学和金融服务等行业。该计划采用"首位客户"模式,政府将提前承诺购买符合性能标准的AI推理芯片。尽管投资规模相比美中两国较小,但英国希望在其优势领域实现世界领先地位。
Wasabi公司推出Fire高性能存储服务,专门针对AI工作负载设计。该服务采用NVMe SSD技术,提供个位数毫秒响应时间,比常规S3存储快5倍。定价为每TB每月19.99美元,无出口费用,成本仅为AWS S3 Express的六分之一。Fire服务支持AI训练、实时推理和高频数据记录等计算密集型应用,并在硅谷新开设存储区域为AI初创企业提供服务。
AI驱动的软件测试平台Momentic宣布完成1500万美元A轮融资,Standard Capital领投。该平台通过自然语言描述生成自动化测试用例,解决传统QA流程耗时费力的问题。平台能自动修复因UI结构变化导致的测试失效,已获得Notion、Quora等知名企业信任。上月执行超2亿次测试步骤,阻止39万个漏洞进入生产环境。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。
香港大学和清华大学研究团队发现,通过最简单的模型插值方法融合"深思型"和"快答型"AI模型,能够创造出比复杂融合算法更优秀的推理系统。研究揭示了融合过程遵循三阶段进化规律,通过精确调节混合比例可以实现推理深度和效率的完美平衡。实验显示这种方法在数学推理、指令跟随等任务上显著超越传统方法,为AI技术的民主化和普及提供了实用方案。
上海AI实验室提出InternVLA-M1框架,通过空间引导的视觉-语言-动作训练,让机器人先学会"在哪里行动"再学"如何行动"。系统采用双阶段训练策略,构建了300万个多模态样本数据集。在多项测试中表现优异,相比基线方法提升10-20%成功率,在真实世界未见物体任务中提升20.6%,为通用智能机器人发展提供了新思路。
UC圣塔芭芭拉分校研究团队开发出直接多词解码技术(DMTD),通过重用大语言模型的后期层实现一次性生成多个词汇。该技术无需添加额外参数,仅通过重新组织内部处理流程就实现了2倍速度提升,同时保持96%以上的准确性。实验证明技术在大型模型上效果更佳,为AI交互效率提升开辟了新路径。
清华大学研究团队开发的NOSA技术通过创新的双重选择机制和智能存储管理,解决了大语言模型在处理长文本时的效率瓶颈。该技术将信息选择分为查询感知和查询无关两个组件,显著提高了相邻处理步骤间的信息重叠度,实现了高达2.3倍的处理速度提升,同时保持了近乎无损的模型准确性,为AI系统的高效部署提供了新的解决方案。