近年来,机器人训练在北京的高校中逐渐兴起,形成了一种大学生与机器人搭档的新趋势。部分大学生开始将机器人引入日常生活与实践场景,展现出独特的协作模式与创新能力。在网络传播的一段视频中,一名北京的大学生与其机器人伙伴在超市协同完成购物任务,机器人不仅能够识别装好的物品,还主动推车、上下楼梯,表现出高度的人机互动性。这种依赖人类指令又具备基础自主能力的机器人,正通过实际场景训练不断优化响应机制。该现象反映出人工智能与青年群体深度融合的趋势,也体现了北京在智能科技应用领域的前沿探索。
2025年11月8日,在乌镇峰会的人工智能模型论坛上,蚂蚁集团平台技术事业群总裁骆骥发表主题演讲,系统介绍了蚂蚁集团在大规模模型领域的技术创新与应用实践。他表示,蚂蚁集团已部署万卡规模的国产算力集群,并将其全面投入安全与风险控制领域,显著提升了系统的实时响应能力与防御水平。通过自研模型与国产硬件的深度协同,蚂蚁在金融安全、欺诈识别和数据隐私保护等方面实现了关键技术突破,展现了科技企业以自主创新支撑安全发展的路径。
微信与清华大学联合研发的连续自回归语言模型CALM,标志着语言模型从传统离散词元向连续向量表达的重要转变。不同于主流大型语言模型(LLM)依赖离散词元预测下一个单位以维持生成连贯性,CALM通过将词元转换为连续向量空间中的表示,重构了自回归机制。这一创新有效降低了因逐项解码带来的高计算开销与响应延迟,为提升生成效率提供了新范式。CALM模型不仅保留了自回归结构的优势,还在生成速度和资源消耗之间实现了更优平衡,展现出在实际应用中的巨大潜力。
谷歌近期推出了一种名为“嵌套学习”的创新机器学习技术,旨在突破长期学习中的记忆瓶颈问题。该方法摒弃传统的静态训练模式,通过在不同层级以不同速度更新模型参数,模拟人脑多层次、异速的学习机制。嵌套学习使AI系统在掌握新技能的同时有效保留旧知识,显著提升模型在持续学习环境下的稳定性与适应性,推动模型进化迈向更接近人类学习能力的新阶段。
去年,谢赛宁(Saining Xie)领导的团队推出Cambrian-1,开启图像多模态模型的开放性研究。然而,团队并未延续传统迭代路径开发后续版本,而是暂停项目,深入探讨真正多模态模型的本质。在此过程中,谢赛宁与杨立昆、李飞飞等专家共同提出一种新型空间超感知范式,主张以“预测未来”替代传统的暴力记忆方法。该范式旨在解决大模型在长视频处理中面临的“失明问题”,即因信息过载而导致的关键动态丢失。通过预测技术,模型可超越当前视觉输入的限制,主动推演未来帧的内容变化,增强对复杂视频场景的理解力与连续性建模能力,为多模态系统提供更高效、更具前瞻性的处理机制。
OPPO算法专家宋阳将出席2024年AICon北京站活动,分享其在Citywalk场景下VideoAgent的设计与实践。他将系统阐述CityWalk Agent的完整交互流程,深入解析各子模块的技术架构与设计逻辑,涵盖视觉感知、语义理解与动态决策等关键环节。作为OPPO在智能视频交互领域的前沿探索,该Agent致力于提升用户在城市漫步场景中的智能化体验。此次演讲将为开发者与研究人员提供宝贵的实践经验与技术洞察。
本文介绍了一种名为SimKO(Simple Pass@K Optimization)的算法,旨在解决强化学习中策略生成时出现的概率过度集中问题。该算法通过直接优化pass@K性能,显著提升了在K=1及K>1场景下的表现效果。研究指出,传统方法常依赖熵来衡量输出分布的多样性,但存在明显缺陷:相同熵值的分布可能具有截然不同的形态,例如一个均匀分布在多个候选上,另一个则极度集中于单一选项。SimKO通过规避对熵的依赖,转而聚焦于提升多候选解的覆盖能力,有效缓解了集中效应,增强了生成结果的多样性与实用性。
近日,OpenHands开发团队在机器之心的报道中宣布,已发布一篇新论文,正式对广受欢迎的开源智能体框架OpenHands进行全面重构。该框架在GitHub上已获得超过6.4万星标,此次升级将重点优化其智能体组件,显著提升性能与扩展性。此举标志着OpenHands将更加积极地参与全球人工智能框架的竞争,直接对标OpenAI和谷歌等科技巨头,推动开源智能体技术的发展与普及。
大型语言模型(LLM)在语言处理能力上实现了重要突破,OpenAI的o1模型首次展现出与人类语言专家相媲美的元语言能力。该模型在句法解析、语言歧义识别及音律推理等任务中表现卓越,表明其不仅能够生成语言,还能对语言结构进行深层次分析与思考。尽管LLM基于预测下一个词的机制运行,与人类的语言理解机制存在本质差异,部分语言学家因此质疑其是否真正“理解”语言,但o1的表现仍标志着模型能力的重大进步,为语言智能的发展提供了新的视角。
快手算法专家吴翔宇将出席AICon北京站,分享快手在直播领域中AI技术的前沿实践。他将重点探讨如何融合大模型与用户行为数据,构建精准的兴趣模型,以提升直播内容的个性化推荐效果与用户体验。通过深度学习与大规模行为分析,快手实现了对用户兴趣的动态捕捉与实时响应,推动直播互动效率显著提升。此次演讲将为业界提供AI在内容推荐系统中落地应用的重要参考。
随着建筑行业迈入数字化转型的关键阶段,AI技术与虚拟孪生正成为打破数据孤岛、提升协同效率的核心驱动力。据相关研究显示,超过60%的建筑项目因信息割裂导致进度延误与成本超支。通过构建全生命周期的虚拟孪生模型,结合AI对设计、施工与运维数据的智能分析,企业可实现跨部门、跨平台的高效协同。例如,某大型基建项目应用虚拟孪生技术后,协同效率提升达40%,变更返工率下降35%。数字化不仅重塑了建筑项目的管理方式,更推动建筑制造向精细化、智能化迈进,为行业可持续发展提供技术支撑。
vivo AI Lab与香港中文大学MMLab联合推出了一种名为UI-Genie的自进化移动图形用户界面(GUI)智能体,该技术无需依赖人工标注数据,即可通过持续交互实现性能自主提升。UI-Genie融合多模态大模型与智能体学习框架,标志着在无监督环境下智能交互系统的重要进展。研究由专注于多模态大模型与智能体学习的肖涵担任主要作者,王国志等合作作者在Agent强化学习方向提供了关键技术支撑。该方法为移动端AI自动化操作开辟了新路径。
智源研究院(BAAI)、Spin Matrix、乐聚机器人与新加坡南洋理工大学联合研发了RoboBrain-Memory,一种面向全双工、全模态模型的终身记忆系统。该系统专为具身智能体在复杂现实环境中的交互挑战而设计,具备实时音视频多用户身份识别与社会关系理解能力,可动态更新个体档案与社会关系图谱。通过整合全模态感知与持续学习机制,RoboBrain-Memory实现了机器人对人类用户的长期个性化记忆,使其能够像熟人一般进行自然、连贯的互动,推动服务机器人向真正智能化、人性化方向迈进。
一项由香港中文大学、北京大学和东北大学联合开展的研究,提出了一项名为MME-CoF的新基准,旨在系统评估视频生成模型的推理能力。该研究构建了包含12个推理维度的测试体系,用于考察如Veo-3等先进视频模型在复杂情境下的理解与推断水平。研究发现,尽管当前模型能够生成高度逼真的视频内容,但在涉及因果关系、逻辑推演等深层推理任务时表现有限,主要局限于模仿表面视觉模式,缺乏对事件内在机制的理解。该研究为视频模型的认知能力评估提供了标准化框架,并指明了未来在提升模型语义理解与因果推理方面的发展方向。
11月7日,Xsignal(奇异因子)与中欧国际工商学院(CEIBS)AI与营销创新实验室联合举办“AI驱动营销新范式:GEO白皮书发布暨AI搜索时代的品牌竞争力”论坛,并发布行业内首份《AI搜索时代:从GEO到AIBE的品牌新蓝图|GEO白皮书|2026》。该白皮书旨在定义AI时代下品牌建设的全新标准,重构营销底层逻辑,推动品牌在AI搜索环境中的战略升级。此次合作标志着学术研究与技术实践的深度融合,为品牌应对AI驱动的市场变革提供系统性框架与实证指导。
新华网财经观察栏目专题报道《“全勤生”的进博之约》,聚焦中国国际进口博览会(进博会)的持续吸引力。文章以“全勤生”为喻,生动展现全球企业对进博会的高度认可与积极参与。作为推动国际贸易的重要平台,进博会已连续举办六届,累计吸引145个国家和地区的超3,000家企业参展,其中近90家世界500强企业连续六年参展,彰显其在深化国际合作、促进全球供应链融合中的关键作用。通过高水平开放,进博会不仅助力中国经济高质量发展,也为全球经济复苏注入新动能。




