在OpenAI 2025开发者大会上,奥特曼公司宣布了四项重大更新,展现了其在人工智能领域的深远布局。首先推出Apps SDK,旨在将ChatGPT打造为“操作系统的终极入口”;其次发布AgentKit,支持用户通过拖拽方式构建智能体,大幅降低开发门槛;第三项是全新无代码开发平台Codex,使非技术人员也能轻松创建应用;最后,公司发布了Sora 2,并连同其他两项服务共同构成三大API,进一步拓展AI能力边界。这些更新不仅强化了OpenAI的技术生态,也标志着人工智能向普及化与平台化迈出关键一步。
香港科技大学、清华大学与滑铁卢大学等机构的联合研究揭示,强化学习(RL)中的大型语言模型(LLM)可通过GRPO算法实现类似人类的“顿悟”机制。研究发现,在训练过程中,模型的推理能力会自然分层:先强化基础执行能力,再发展高阶规划能力,从而实现集体顿悟。这一过程为AI模仿人类思考提供了统一解释,并催生了更高效的算法HICRA,显著提升模型在复杂任务中的表现。该成果标志着AI认知模拟的重要进展。
就在不到9小时前,谷歌CEO桑达尔·皮查伊在社交媒体上发布置顶推文,难掩激动之情。他宣布,谷歌量子人工智能实验室的两位科学家荣获诺贝尔物理学奖,这一成就标志着谷歌在量子与AI领域的重大突破。作为全球科技前沿的引领者,谷歌近年来持续投入量子计算研发,此次诺奖加冕不仅是对科研人员的高度认可,也彰显了公司在推动基础科学进步方面的深远影响。皮查伊表示,这是“量子计算新时代的开端”,并强调谷歌将继续致力于融合AI与量子技术,开拓人类认知边界。
三年磨一剑,剑桥天才少年在Minecraft中重现ChatGPT的辉煌。这位以在MC中手工打造CPU闻名的硬核玩家,历经三年沉寂后,于上周推出其最新力作——在Minecraft中复现的语言模型CraftGPT。尽管该模型参数规模有限,但已具备与用户进行多轮有意义对话的能力,展现了惊人的计算逻辑与创造力。该项目不仅延续了他在虚拟世界中构建复杂系统的传统,更再次证明了Minecraft作为教育与工程模拟平台的无限潜力。这一创举引发广泛关注,也让人们重新审视游戏与人工智能结合的可能性。
由乔纳森·艾维(Jony Ive)领衔的设计团队以其极简美学著称,此次与OpenAI合作开发的掌上AI设备在外观设计上延续了“艾维设计”的一贯风格,吸引了广泛关注。然而,尽管硬件外形极具吸引力,该设备在实际运行中却面临显著的算力瓶颈。OpenAI依赖的大规模语言模型对实时推理的算力需求极高,而掌上设备受限于体积与散热,难以承载如此庞大的计算负荷。如何在有限的硬件空间内实现高效能运算,成为技术突围的关键挑战。目前,团队正探索定制化芯片与边缘计算协同方案,以期在性能与便携性之间取得平衡。
微软公司推出了一项创新的代码生成技术——RPG(Research Project Generator),能够通过自然语言指令直接生成多达36K行代码,显著提升大规模软件开发效率。该技术采用图谱结构替代传统纯文本方式,以节点表示功能与文件,边标注依赖关系与接口,有效解决了自然语言规划中的模糊性问题,提高了代码仓库生成的准确性。基准测试显示,RPG的功能创新率达11-13%,代码通过率高达69.7%,表现优于Claude Code。这一突破为AI驱动的大规模软件开发提供了坚实技术支持,推动AI在编程领域的深度应用。
亚马逊近日展示了一款名为“盲眼”的机器人,仅用30秒便完成高难度跑酷表演,引发广泛关注。该技术由华人学者领衔的团队研发,命名为OmniRetarget,基于强化学习策略,使机器人在复杂环境中自主学习并掌握“移动与操作一体化”(loco-manipulation)技能。尤为突出的是,该系统实现了从仿真到实体人形机器人的零样本迁移,无需额外数据即可部署,大幅提升了应用效率与适应性。这一突破标志着机器人运动控制领域的重要进展。
尽管Sora2算法在视频生成领域表现优异,但其处理单个视频仍需约5秒时间。相比之下,字节跳动与加州大学洛杉矶分校(UCLA)合作提出的新方法Self-Forcing++实现了显著突破,能够在4分钟内生成高质量的分钟级长视频。该技术无需修改模型结构或重新收集长视频数据集,有效解决了传统AI视频生成中常见的画质下降与画面卡顿问题,提升了生成效率与视觉连贯性,为AI视频创作在实际应用中的扩展提供了可行路径。
苹果公司近期发布了一篇关于大型语言模型(LLM)中幻觉问题的学术论文,引发广泛关注。研究指出,尽管GPT-5和o3等先进模型在多项任务中表现卓越,但仍无法彻底解决生成内容中的虚构或错误信息问题。该论文系统分析了幻觉产生的机制,并提出评估与缓解策略,强调其在实际应用中的关键影响。研究成果在学术界与工业界激起深入讨论,凸显AI发展过程中仍面临的核心挑战之一。
随着AI技术在软件开发中的深入应用,多智能体并行编码是否会导致系统混乱成为热议话题。海外开发者对此高度关注,其中Simon Willison在其博客中分享了同时运行多个编码AI的实际经验,引发了广泛讨论。他的相关推文在X平台上的阅读量已突破10万,显示出该议题的热度。Willison指出,尽管多智能体协同工作能提升效率,但若缺乏有效调度机制,可能引发任务冲突与输出不一致等问题。这一观点为AI辅助编程的发展提供了重要反思。
在EMNLP 2025会议上,由MetaGPT、蒙特利尔大学、Mila研究所、麦吉尔大学和耶鲁大学等机构组成的研究团队联合提出了一种创新的原生检索增强推理框架——CARE。该框架专为大型语言模型(LLM)设计,能够在推理过程中无缝整合上下文事实与模型自身的检索能力,显著提升生成内容的准确性和上下文高保真度。与依赖外部工具的传统方法不同,CARE通过内部机制实现信息检索与推理的协同,无需额外系统支持,有效降低了复杂性与延迟。这一进展标志着检索增强技术在语言模型中的应用迈入新阶段,为提升模型可解释性与知识一致性提供了全新路径。
2025年,田渊栋与Russell团队合作的研究《Reasoning by superposition: A theoretical perspective on chain of continuous thought》提出,Transformer模型在训练过程中能够自然地掌握叠加推理能力。该理论指出,连续思维链的核心优势在于允许模型在面对多个潜在推理路径且难以确定正确方向时,于连续空间中并行保留所有可能路径,从而提升推理的灵活性与鲁棒性。这一发现为理解大模型内部推理机制提供了新的理论视角,进一步揭示了思维链技术在复杂任务中的潜力。
清华大学朱军教授团队联合NVIDIA Deep Imagination研究组及斯坦福大学Stefano Ermon团队,提出了一种名为Diffusion Negative-aware FineTuning(DiffusionNFT)的创新强化学习方法。该方法突破传统扩散模型依赖反向去噪过程的范式,首次在前向加噪过程中直接进行优化,显著提升了训练效率。实验表明,DiffusionNFT的训练速度较现有方法提升高达25倍,为强化学习领域的高效训练提供了全新路径。这一进展有望推动复杂环境下的智能决策系统发展。
斯坦福大学的研究团队近日推出了一项突破性技术——Paper2Agent,该工具能够将传统的静态学术论文转化为可交互的AI实体。通过这一创新,学术成果不再局限于文本阅读,而是可以被直接“调用”与操作,显著提升了科研知识的传播效率与应用潜力。Paper2Agent不仅增强了学术内容的动态交互性,还为构建协作式人工智能研究生态系统提供了关键技术支撑,推动科研模式向智能化、网络化方向发展。
来自伊利诺伊大学香槟分校(UIUC)与Salesforce的研究团队提出了一项创新性工作——UserBench,首次将用户特性纳入大型AI模型的评估体系,构建了一个以用户为中心的交互评测环境,旨在衡量AI对人类意图的理解能力。基于此,团队进一步开发了UserRL框架,整合UserBench与多种标准化Gym环境,形成统一的强化学习平台,系统探索以用户反馈为核心的奖励建模方法。该研究为提升AI模型的实用性与人性化交互能力提供了新的技术路径和评估标准。
在C++编程中,当需要频繁在容器两端进行数据的插入与删除操作时,std::deque(双端队列)成为理想选择。相较于vector,deque在头部插入数据无需移动整个序列,避免了O(n)的时间开销;相比list,它又支持高效的随机访问,访问时间复杂度接近O(1)。deque底层采用分段连续存储机制,将数据分散在若干固定大小的缓冲区中,通过中央控制数组连接,从而实现两端高效插入与删除的同时,保持良好的内存访问性能。这一特性使其广泛应用于滑动窗口、双端队列封装及栈与队列的底层实现。




