著名数学家陶哲轩在解决复杂数学问题时,创新性地借助GPT-5这一先进AI工具,仅用29行Python代码便实现了高效解题。该过程显著提升了工作效率,若依赖传统方式,他可能需耗费数小时进行代码编写与调试。GPT-5不仅加速了实现过程,还能自动识别并修正数学错误,帮助陶哲轩规避繁琐的数值搜索,转而专注于更高层次的渐近分析。这一实践凸显了AI辅助在现代数学研究中的巨大潜力,标志着人工智能正逐步成为顶尖学者不可或缺的研究伙伴。
David Fajgenbaum,宾夕法尼亚大学教授,曾三度濒临死亡,被医生宣判无望。面对绝症,他凭借勇气与智慧,转向科学研究自救,并致力于利用人工智能攻克全球14000种尚无有效治疗手段的疾病。他创立了Every Cure组织,运用AI技术在7500万种药物与疾病组合中筛选潜在疗法,显著加速药物发现进程。该创新方法不仅为罕见病患者带来新希望,也为传统医疗模式带来变革。他的故事诠释了“自救”如何演变为“救世”,推动AI医疗在绝症突破领域的发展。
随着人工智能与高性能计算的迅猛发展,NVIDIA正引领数据中心架构的深刻变革。未来数据中心将不再依赖单一CPU或GPU,而是构建由GPU、DPU和高速互联技术协同驱动的加速计算平台。在此架构中,CPU专注于通用任务处理,而大规模并行数据计算则由NVIDIA的统一计算平台承担,显著提升能效与性能。2023年,NVIDIA凭借其CUDA生态与DPUs(如BlueField系列)实现了软硬件深度融合,推动其从芯片制造商向全栈计算平台提供商转型,奠定了在AI芯片与加速计算领域的领导地位。
大型语言模型在模拟人类交流方面展现出显著潜力,但当前许多优化方法过度依赖简短指令,限制了其深层模仿能力。研究表明,仅通过极简指令驱动模型,可能导致语义理解浅层化,削弱上下文连贯性与情感表达的自然性。人类交流本质上具有情境依赖性和多层次表达特征,理想的模仿行为应融合语境、意图与语用规则。因此,优化方法需超越对指令长度的片面追求,转向更复杂的交互结构设计,以提升模型在真实对话场景中的表现力与适应性。
随着人工智能模型规模的持续扩大,其带来的高成本、低效率与高能耗问题日益突出。研究表明,训练大型AI模型的碳排放量可相当于五辆汽车终身排放的总和,严重制约了技术的可持续发展。在此背景下,模型蒸馏技术作为一种有效的轻量化解决方案,正受到广泛关注。该技术通过将大型“教师模型”的知识迁移至小型“学生模型”,在保持较高性能的同时显著降低计算资源消耗和能耗。例如,采用模型蒸馏后,部分NLP任务中的推理能耗可减少高达60%,推理速度提升2倍以上。作为推动AI效率提升的关键路径,模型蒸馏不仅助力实现绿色AI,也为边缘设备部署提供了可行方案,成为当前人工智能领域的重要技术革新方向。
抖音SAIL团队与LV-NUS实验室联合推出多模态大型模型SAIL-VL2,该模型在多项基准测试中刷新当前最佳性能(SOTA),标志着多模态领域的重要进展。SAIL-VL2在仅8B参数规模下,展现出与GPT-4相媲美的推理能力,凸显其高效性与技术突破。该成果不仅提升了多模态理解与生成的上限,也为轻量化高性能模型的发展提供了新路径。
吴恩达在其最新的Agentic AI课程中系统阐述了构建智能体工作流的四大核心设计模式:反思、工具、规划与协作。他指出,这些模式是开发高效、可靠智能体系统的关键架构基础。课程特别强调评估与误差分析在智能体开发中的核心地位,认为其能力直接决定系统的可迭代性与实际应用效果。通过结合理论讲解与实践案例,吴恩达展示了如何利用这些设计模式提升智能体的自主决策与任务执行能力,为开发者提供了清晰的技术路径与方法论指导。
清华大学与生数科技(Shengshu AI)合作团队在音频超分辨率技术领域取得重要突破,聚焦桥类生成模型与音频超分辨率任务开展系统性研究。该团队的研究成果已分别被语音领域顶级会议ICASSP 2025和机器学习领域顶级会议NeurIPS 2025接收,展现了其在AI语音技术前沿的创新能力。相关工作推动了高保真音频重建的发展,在语音增强、通信及内容创作等领域具有广泛应用前景。
据证实,曾拒绝Facebook创始人马克·扎克伯格15亿美元收购提议的OpenAI前首席技术官Mira Murati所创立的公司Thinking Machines Lab,近期遭遇人事变动。其联合创始人兼首席架构师Andrew Tulloch已正式离职,并加盟Meta公司。这一动向引发了业界对人工智能领域人才流动与竞争格局的关注。Tulloch在AI系统架构方面的深厚背景,使其成为Meta强化AI研发实力的重要补充。与此同时,Murati领导的Thinking Machines Lab未来发展方向尚待观察。
近日,由清华大学特等奖学金得主创立的Sand.ai公司推出了一款名为GAGA-1的音画同步视频生成模型,引发广泛关注。该模型基于先进的深度学习架构,能够根据一张静态图片和一段文本提示(prompt)自动生成高质量、音画同步的视频内容,在时长、流畅度与多模态对齐方面表现突出。实测体验显示,GAGA-1在3秒视频生成任务中平均耗时仅1.8秒,且音频与画面同步准确率达96.4%,显著优于当前主流模型。作为视频生成领域的新兴力量,GAGA-1展现了强大的创作潜力,适用于内容创作、广告制作与教育演示等多个场景。
最新的研究进展进一步支持了“微调已死”的观点。谷歌正扩展其人工智能自我进化范式,通过引入双向学习机制,使模型能同时从成功经验和失败教训中自主优化。斯坦福大学、SambaNova与加州大学伯克利分校的研究人员联合发表论文,提出一种名为“Agentic Context Engineering”(ACE)的创新技术。该技术无需依赖传统微调,即可实现语言模型的性能提升与自我改进,标志着上下文工程进入智能化新阶段。这一突破为AI持续学习提供了高效、可扩展的新路径。
硅谷多位首席执行官发出警告,人工智能(AI)可能在五年内导致失业率攀升至20%,引发社会对“AI失业”的广泛关注。然而,现实情况显示,当前约95%的AI项目处于亏损状态,表明“AI威胁就业”更多是基于对未来技术趋势的预警,而非已发生的普遍现实。尽管短期内AI对就业市场的直接影响有限,但其长期影响仍不容忽视。随着技术不断演进,部分岗位被自动化取代的可能性持续上升,政策制定者与企业需提前布局,推动技能转型与人机协同机制,以应对未来劳动力市场的结构性变化。
Qwen3是一种具有实验性质的人工智能语言模型,拥有30亿个参数,并采用稀疏的混合专家(MoE)架构,其中包含3亿个可激活参数。该模型基于预先训练好的自回归模型Qwen3-30BA3B转换而来,并在持续预训练过程中累计处理了500亿个token,以实现完整的扩散行为。研究团队已将模型代码、训练方法、推理代码及示例输出全面开源,旨在推动AI语言模型的研究与应用,为开发者和研究人员提供高质量的技术参考。
本文探讨了大型语言模型(LLM)越狱攻击的威胁是否被过度估计的问题,并引入了一种全新的越狱评估框架——JADES。该框架采用分解式评分方法,提升了评估过程的透明度、可靠性与可审计性。实证研究表明,JADES在性能上优于现有评估工具,且有效揭示了当前越狱研究中存在的系统性偏差。通过严谨的方法论设计,JADES为LLM安全评估提供了更加科学和可复现的标准,推动该领域向更精准的方向发展。
清华大学研究团队在NeurIPS 2025会议上发表论文,首次系统性探讨了强化学习(RL)在提升具身大模型(VLA)泛化能力方面的潜力。研究对比了RL与自监督训练(SFT)在多样化任务环境中的表现,揭示了RL在跨场景迁移和未知情境适应上的显著优势。团队提出了一套全面的评估基准,涵盖12类复杂交互任务,并设计了高效的RL训练方法,有效降低了训练成本并提升了模型稳定性。实验结果表明,采用该方法的VLA模型在泛化性能上相较SFT基线平均提升27.6%。
中国科学院计算技术研究所在NeurIPS 2025会议上发表了一项关于多模态大型语言模型(MLLM)推理优化的突破性研究,提出名为SpaceServe的创新架构。该架构首次将LLM推理中的生产者/消费者(P/D)分离策略引入多模态场景,通过三阶解耦(EPD)与空间复用技术,有效缓解了MLLM推理过程中长期存在的行头阻塞问题。实验表明,SpaceServe显著提升了系统并发处理能力,在多语言、多模态任务中实现了更高的吞吐量与资源利用率,为高效部署复杂模型提供了新路径。




