技术博客

Rust 语言重构 Cloudflare FL 系统:性能大幅提升与安全加固

Cloudflare 公司通过使用 Rust 语言对其核心系统 FL 进行重构,显著提升了系统性能。重构后,其 CDN 性能提高了 25%,响应时间减少了 10 毫秒,有效优化了全球内容分发效率。此外,Rust 语言的内存安全特性增强了系统的安全性与稳定性,降低了潜在漏洞风险。此次技术升级不仅体现了 Cloudflare 对高性能架构的持续追求,也展示了 Rust 在现代基础设施开发中的强大优势。

Rust性能提升CDN安全重构
2025-11-09
人工智能领域的光辉时刻:伊丽莎白女王工程奖揭晓

近日,被誉为“工程界诺贝尔奖”的伊丽莎白女王工程奖揭晓,七位人工智能领域的杰出专家荣获殊荣,分别是黄仁勋、Yoshua Bengio、Geoffrey Hinton、John Hopfield、李飞飞、Yann LeCun和Bill Dally。该奖项是全球工程领域最具声望的国际奖项之一,旨在表彰对社会产生深远影响的重大工程创新。此次获奖者在推动人工智能基础理论与技术应用方面作出了卓越贡献。黄仁勋指出,将AI与人类智能直接比较是一个错误的命题,强调AI应作为增强人类能力的工具;李飞飞则认为,尽管AI发展迅速,但在情感理解与伦理判断等方面仍无法超越人类。

AI获奖工程奖黄仁勋李飞飞人工智能
2025-11-09
AI推理新篇章:突破现有评测框架的探索与实践

加州大学河滨分校的研究团队发现,当前AI在组合推理任务中表现欠佳,主要归因于评测指标过于严格,限制了模型潜力的展现。为此,团队提出新型评测指标GroupMatch及Test-Time Matching算法,有效提升模型在复杂推理任务中的表现。实验结果显示,在Winoground测试中,GPT-4.1首次超越人类基准;更引人注目的是,参数量仅0.2B的SigLIP-B16模型在MMVP-VLM基准测试中不仅超越GPT-4.1,还创下新纪录。研究表明,AI模型已具备一定的组合推理能力,关键在于通过合适的测试方法解锁其潜能。

AI推理评测指标组合能力模型潜力测试算法
2025-11-09
银河通用全新模型推动具身导航技术通用化:NavFoM模型的创新与突破

银河通用联合北京大学、阿德莱德大学、浙江大学等机构,推出具身导航基座模型NavFoM,致力于实现机器人导航技术从专用向通用的跨越。该模型具备7B参数规模,支持跨任务与跨载体的统一导航能力,可在多种复杂环境中实现高效实时部署。NavFoM通过构建统一的导航框架,显著提升机器人在未知场景中的泛化能力与适应性,为具身智能的发展提供了关键技术支撑。

银河通用NavFoM具身导航基座模型实时部署
2025-11-09
人工智能的隐秘困境:大型模型中的幻觉问题探究

近期《Science》杂志发表的一项研究揭示,大型人工智能模型存在难以根除的“幻觉”问题,即模型在缺乏准确信息时仍倾向于生成看似合理但错误的内容。尽管开发者尝试通过让模型在面对不确定性时回应“我不知道”来缓解该问题,但这一策略可能降低用户互动频率与满意度,进而影响用户留存率和平台活跃度,对商业运营构成挑战。研究指出,在提升模型可靠性与维持用户体验之间寻求平衡,是当前AI开发面临的核心难题之一。

AI幻觉大型模型不确定性用户留存商业影响
2025-11-09
多智能体强化学习框架PettingLLMs:开启LLM训练新篇章

近日,UCSD与英特尔的研究人员联合提出了一种全新的多智能体强化学习框架——PettingLLMs,旨在解决现有大型语言模型(LLM)训练框架主要局限于单智能体训练的问题。该框架首次实现了支持任意组合的多个LLM协同训练,构建了一个通用化的多智能体训练环境,推动群体强化学习的发展。通过引入高效的协同机制,PettingLLMs显著提升了LLM在工具调用任务中的表现,性能最高提升达5.8倍,有效克服了多智能体系统中的协作瓶颈。这一创新为复杂场景下LLM的协同进化提供了可行路径。

多智能体强化学习LLM训练群体协同工具调用
2025-11-09
迈向模块化智能:DistServe解耦推理引领AI新时代

2024年,加州大学圣地亚哥分校的Hao AI Lab提出了一种名为DistServe的先进推理理念,主张通过解耦推理过程中的不同组件来提升AI系统的效率与灵活性。经过18个月的快速发展,DistServe已从实验室概念演变为行业标准,被英伟达(NVIDIA)、vLLM等主流大模型推理框架广泛采纳。这一技术突破标志着人工智能正迈入模块化智能的新时代,推动AI系统在应对复杂、动态需求时具备更强的适应能力与可扩展性,为未来高效、智能的AI部署奠定了技术基础。

DistServe解耦推理模块化AI效率智能时代
2025-11-09
机器人训练:北京大学生的创新搭档现象解析

近年来,机器人训练在北京的高校中逐渐兴起,形成了一种大学生与机器人搭档的新趋势。部分大学生开始将机器人引入日常生活与实践场景,展现出独特的协作模式与创新能力。在网络传播的一段视频中,一名北京的大学生与其机器人伙伴在超市协同完成购物任务,机器人不仅能够识别装好的物品,还主动推车、上下楼梯,表现出高度的人机互动性。这种依赖人类指令又具备基础自主能力的机器人,正通过实际场景训练不断优化响应机制。该现象反映出人工智能与青年群体深度融合的趋势,也体现了北京在智能科技应用领域的前沿探索。

机器人大学生搭档训练北京
2025-11-09
蚂蚁集团技术创新之旅:国产算力的安全风控实践

2025年11月8日,在乌镇峰会的人工智能模型论坛上,蚂蚁集团平台技术事业群总裁骆骥发表主题演讲,系统介绍了蚂蚁集团在大规模模型领域的技术创新与应用实践。他表示,蚂蚁集团已部署万卡规模的国产算力集群,并将其全面投入安全与风险控制领域,显著提升了系统的实时响应能力与防御水平。通过自研模型与国产硬件的深度协同,蚂蚁在金融安全、欺诈识别和数据隐私保护等方面实现了关键技术突破,展现了科技企业以自主创新支撑安全发展的路径。

乌镇峰会蚂蚁集团骆骥演讲国产算力安全风控
2025-11-09
微信与清华大学联手打造:CALM模型的创新与突破

微信与清华大学联合研发的连续自回归语言模型CALM,标志着语言模型从传统离散词元向连续向量表达的重要转变。不同于主流大型语言模型(LLM)依赖离散词元预测下一个单位以维持生成连贯性,CALM通过将词元转换为连续向量空间中的表示,重构了自回归机制。这一创新有效降低了因逐项解码带来的高计算开销与响应延迟,为提升生成效率提供了新范式。CALM模型不仅保留了自回归结构的优势,还在生成速度和资源消耗之间实现了更优平衡,展现出在实际应用中的巨大潜力。

CALM模型连续向量词元转换语言模型自回归
2025-11-09
嵌套学习:AI持续进化之路

谷歌近期推出了一种名为“嵌套学习”的创新机器学习技术,旨在突破长期学习中的记忆瓶颈问题。该方法摒弃传统的静态训练模式,通过在不同层级以不同速度更新模型参数,模拟人脑多层次、异速的学习机制。嵌套学习使AI系统在掌握新技能的同时有效保留旧知识,显著提升模型在持续学习环境下的稳定性与适应性,推动模型进化迈向更接近人类学习能力的新阶段。

嵌套学习机器学习记忆瓶颈模型进化持续学习
2025-11-09
多模态模型的革新:迈向预测未来的超感知范式

去年,谢赛宁(Saining Xie)领导的团队推出Cambrian-1,开启图像多模态模型的开放性研究。然而,团队并未延续传统迭代路径开发后续版本,而是暂停项目,深入探讨真正多模态模型的本质。在此过程中,谢赛宁与杨立昆、李飞飞等专家共同提出一种新型空间超感知范式,主张以“预测未来”替代传统的暴力记忆方法。该范式旨在解决大模型在长视频处理中面临的“失明问题”,即因信息过载而导致的关键动态丢失。通过预测技术,模型可超越当前视觉输入的限制,主动推演未来帧的内容变化,增强对复杂视频场景的理解力与连续性建模能力,为多模态系统提供更高效、更具前瞻性的处理机制。

多模态预测未来超感知视频处理失明问题
2025-11-09
OPPO算法专家宋阳AICon北京站演讲解读:VideoAgent的设计与实践

OPPO算法专家宋阳将出席2024年AICon北京站活动,分享其在Citywalk场景下VideoAgent的设计与实践。他将系统阐述CityWalk Agent的完整交互流程,深入解析各子模块的技术架构与设计逻辑,涵盖视觉感知、语义理解与动态决策等关键环节。作为OPPO在智能视频交互领域的前沿探索,该Agent致力于提升用户在城市漫步场景中的智能化体验。此次演讲将为开发者与研究人员提供宝贵的实践经验与技术洞察。

AICon宋阳OPPOVideoAgentCitywalk
2025-11-09
SimKO算法:破解强化学习中的概率过度集中难题

本文介绍了一种名为SimKO(Simple Pass@K Optimization)的算法,旨在解决强化学习中策略生成时出现的概率过度集中问题。该算法通过直接优化pass@K性能,显著提升了在K=1及K>1场景下的表现效果。研究指出,传统方法常依赖熵来衡量输出分布的多样性,但存在明显缺陷:相同熵值的分布可能具有截然不同的形态,例如一个均匀分布在多个候选上,另一个则极度集中于单一选项。SimKO通过规避对熵的依赖,转而聚焦于提升多候选解的覆盖能力,有效缓解了集中效应,增强了生成结果的多样性与实用性。

SimKO强化学习概率集中pass@K熵缺陷
2025-11-08
OpenHands框架重构:开源智能体技术的新篇章

近日,OpenHands开发团队在机器之心的报道中宣布,已发布一篇新论文,正式对广受欢迎的开源智能体框架OpenHands进行全面重构。该框架在GitHub上已获得超过6.4万星标,此次升级将重点优化其智能体组件,显著提升性能与扩展性。此举标志着OpenHands将更加积极地参与全球人工智能框架的竞争,直接对标OpenAI和谷歌等科技巨头,推动开源智能体技术的发展与普及。

OpenHands开源框架智能体重构竞争
2025-11-08
大型语言模型LLM的突破:迈向与人类语言专家的比肩

大型语言模型(LLM)在语言处理能力上实现了重要突破,OpenAI的o1模型首次展现出与人类语言专家相媲美的元语言能力。该模型在句法解析、语言歧义识别及音律推理等任务中表现卓越,表明其不仅能够生成语言,还能对语言结构进行深层次分析与思考。尽管LLM基于预测下一个词的机制运行,与人类的语言理解机制存在本质差异,部分语言学家因此质疑其是否真正“理解”语言,但o1的表现仍标志着模型能力的重大进步,为语言智能的发展提供了新的视角。

LLM突破元语言句法解析语言理解模型能力
2025-11-08