北京大学宋国杰教授团队发表了一篇关于大语言模型(LLM)心理测量学的综述论文。这篇63页的论文引用了500篇文献,首次系统性地探讨了科学评估LLM心智特征的方法,包括价值观、性格和社交智能。研究指出,随着LLM能力的迅速发展,传统评估方法已难以满足需求,亟需建立更全面、更可靠的AI评估体系。
为了提升视觉语言模型的能力,使其具备类似OpenAI-o3的操作功能,研究者正致力于赋予模型原生的智能体功能。这一发展方向使模型能够调用外部工具,如网页浏览器进行信息搜索,或通过编写和执行代码实现图像处理,从而深入理解与操作图像内容。这种技术进步将为视觉语言模型带来更广泛的应用场景。
近日,阿里巴巴开源的长文本深度思考模型QwenLong-L1凭借渐进式强化学习技术成功解决了长文本训练中的关键难题,这一突破性进展使其荣登HuggingFace平台热门论文榜单第二名。该模型不仅为推理大模型的发展提供了全新方向,也彰显了开源社区对技术创新的高度认可与关注。
强化学习(RL)在视觉-语言模型(VLM)中的应用已显著提升其推理能力。然而,RL在目标检测与定位等感知密集型任务中的潜力仍有待挖掘。通过结合RL技术,VLM不仅能够更好地理解复杂的视觉与语言信息,还能在实际场景中实现更精准的感知任务处理,为未来的研究提供了广阔的空间。
今年上半年,InfoQ中国举办了一场涵盖50多个一线实践案例的AI盛会,深入探讨了“智能体刷屏”现象。这一现象是否预示着人工智能应用的新转折点?文章从技术发展与社会影响的角度,剖析智能体刷屏背后的深层原因及其对未来AI应用的启示。
腾讯公司的资深技术专家张乐将在AICon北京会议上发表主题演讲《万人研发规模代码智能化落地实践及发展思考》。他将分享在大规模研发团队中实施代码智能化的成功经验,并探讨未来发展趋势。通过实际案例,张乐将展示如何在万人级别研发规模下实现代码智能化的高效落地。
在SpringBoot微服务开发中,通过模拟gRPC服务进行代码测试是一种高效的方法。这种方法不仅能够验证集成代码的正确性,还能有效规避沙箱环境不稳定、版本兼容性问题以及复杂测试数据配置带来的困扰,从而提升开发效率和代码质量。
近日,夸克健康大模型在国内首次通过12门国家副主任医师职称考试,成绩超越合格线。这一突破标志着大模型在医疗领域实现了从单纯知识记忆到临床推理能力的重要转变,展现了人工智能在复杂医学问题解决中的潜力,为未来医疗技术发展提供了新方向。
随着大型语言模型(LLM)技术的发展,字节跳动基础架构服务框架团队在从Go语言迁移到Rust语言的过程中,采用了AI编程助手'ABCoder'与渐进式迁移策略“半空”。这一方法不仅解决了语法和语义转换的难题,还优化了语言生态系统和项目架构调整,显著提升了迁移效率并降低了复杂性。
上海交通大学的研究团队提出了一种创新方法,成功将KV Cache技术应用于扩散型大型语言模型(dLLMs)的推理加速。这一突破表明,KV Cache不仅适用于自回归模型,还能显著提升dLLMs的推理效率。该方法无需额外训练步骤,为大型语言模型的性能优化提供了新思路。
第三届世界科学智能大赛以产学研深度联动为特色,成功吸引全球1.6万人参与。赛事聚焦构建科创生态圈,为优胜者提供创业免租及算力激励等丰厚奖励。上海16区中学生积极参与,通过绿能发电项目预测,培养跨学科新生代人才,推动科技创新与可持续发展。
《2025人工智能发展白皮书》于2025年5月22日在第六届深圳国际人工智能展览会(GAIE)正式发布。该白皮书由深圳市人工智能行业协会与深圳市投控数字科技有限公司联合编制,聚焦智能新纪元的发展趋势与技术应用。作为行业权威指南,白皮书深入分析了人工智能在经济、社会及科技领域的深远影响,为未来智能化发展提供了重要参考。
Dify平台与亚马逊云科技达成合作,共同推动全球企业在生成式AI领域的规模化部署。通过整合亚马逊云科技的先进技术和资源,Dify平台帮助企业降低技术难度和部署成本,同时确保性能、合规性及全球覆盖能力,助力企业高效开发生成式AI应用。
上海交通大学EPIC实验室研究团队开发了一种名为dLLM-Cache的新型推理缓存机制,该技术可将扩散语言模型的推理速度提升至原来的九倍。与传统KV Cache技术仅适用于自回归模型不同,dLLM-Cache无需额外训练即可直接应用于扩散模型,显著提高了推理效率,为相关领域带来了突破性进展。
字节跳动与复旦大学的研究团队共同开发了一种名为CAR的自适应推理框架。该框架通过评估模型的困惑度,动态决定生成短回答或长文本推理,从而在保证准确性的同时提升效率,实现了两者间的最佳平衡。这一创新技术为自然语言处理领域提供了新的解决方案。
国内研究团队开发的新型多模态大模型LLaDA-V,在理解任务中达到了最高标准(SOTA)。该模型基于LLaDA,通过集成视觉编码器SigLIP 2与多层感知器(MLP)连接器,实现了视觉信息到语言嵌入空间的精准映射。此外,LLaDA-V采用离散扩散机制进行训练和采样,突破了传统自回归方法的限制,显著提升了多模态数据对齐的效率与准确性。




