技术博客

构建未来:大语言模型心理测量学的创新评估体系

北京大学宋国杰教授团队发表了一篇关于大语言模型(LLM)心理测量学的综述论文。这篇63页的论文引用了500篇文献,首次系统性地探讨了科学评估LLM心智特征的方法,包括价值观、性格和社交智能。研究指出,随着LLM能力的迅速发展,传统评估方法已难以满足需求,亟需建立更全面、更可靠的AI评估体系。

大语言模型心理测量学AI评估体系心智特征价值观性格
2025-05-27
视觉语言模型的进化之路:赋予智能体功能的新篇章

为了提升视觉语言模型的能力,使其具备类似OpenAI-o3的操作功能,研究者正致力于赋予模型原生的智能体功能。这一发展方向使模型能够调用外部工具,如网页浏览器进行信息搜索,或通过编写和执行代码实现图像处理,从而深入理解与操作图像内容。这种技术进步将为视觉语言模型带来更广泛的应用场景。

视觉语言模型智能体功能信息搜索编写代码图像处理
2025-05-27
阿里巴巴QwenLong-L1:重塑长文本模型训练的未来

近日,阿里巴巴开源的长文本深度思考模型QwenLong-L1凭借渐进式强化学习技术成功解决了长文本训练中的关键难题,这一突破性进展使其荣登HuggingFace平台热门论文榜单第二名。该模型不仅为推理大模型的发展提供了全新方向,也彰显了开源社区对技术创新的高度认可与关注。

QwenLong-L1长文本模型渐进式强化HuggingFace开源社区
2025-05-27
强化学习在视觉-语言模型中的应用与实践

强化学习(RL)在视觉-语言模型(VLM)中的应用已显著提升其推理能力。然而,RL在目标检测与定位等感知密集型任务中的潜力仍有待挖掘。通过结合RL技术,VLM不仅能够更好地理解复杂的视觉与语言信息,还能在实际场景中实现更精准的感知任务处理,为未来的研究提供了广阔的空间。

强化学习视觉语言模型推理能力目标检测感知任务
2025-05-27
智能体刷屏现象解析:人工智能应用的新转折点到来?

今年上半年,InfoQ中国举办了一场涵盖50多个一线实践案例的AI盛会,深入探讨了“智能体刷屏”现象。这一现象是否预示着人工智能应用的新转折点?文章从技术发展与社会影响的角度,剖析智能体刷屏背后的深层原因及其对未来AI应用的启示。

智能体刷屏人工智能应用新转折点AI盛会一线实践
2025-05-27
《解析腾讯技术专家张乐的代码智能化实践之路》

腾讯公司的资深技术专家张乐将在AICon北京会议上发表主题演讲《万人研发规模代码智能化落地实践及发展思考》。他将分享在大规模研发团队中实施代码智能化的成功经验,并探讨未来发展趋势。通过实际案例,张乐将展示如何在万人级别研发规模下实现代码智能化的高效落地。

代码智能化研发规模AICon会议腾讯公司技术专家
2025-05-27
SpringBoot微服务中gRPC集成代码的模拟测试策略与实践

在SpringBoot微服务开发中,通过模拟gRPC服务进行代码测试是一种高效的方法。这种方法不仅能够验证集成代码的正确性,还能有效规避沙箱环境不稳定、版本兼容性问题以及复杂测试数据配置带来的困扰,从而提升开发效率和代码质量。

SpringBoot微服务gRPC服务代码测试沙箱环境版本兼容性
2025-05-27
“夸克健康大模型:开启医疗领域智能推理新篇章”

近日,夸克健康大模型在国内首次通过12门国家副主任医师职称考试,成绩超越合格线。这一突破标志着大模型在医疗领域实现了从单纯知识记忆到临床推理能力的重要转变,展现了人工智能在复杂医学问题解决中的潜力,为未来医疗技术发展提供了新方向。

夸克健康大模型医师职称考试临床推理能力医疗领域知识记忆
2025-05-27
大型语言模型在复杂应用场景中的潜力挖掘

随着大型语言模型(LLM)技术的发展,字节跳动基础架构服务框架团队在从Go语言迁移到Rust语言的过程中,采用了AI编程助手'ABCoder'与渐进式迁移策略“半空”。这一方法不仅解决了语法和语义转换的难题,还优化了语言生态系统和项目架构调整,显著提升了迁移效率并降低了复杂性。

大型语言模型Go语言迁移Rust语言ABCoder助手半空策略
2025-05-27
上海交通大学团队突破:KV Cache技术加速扩散型大型语言模型推理

上海交通大学的研究团队提出了一种创新方法,成功将KV Cache技术应用于扩散型大型语言模型(dLLMs)的推理加速。这一突破表明,KV Cache不仅适用于自回归模型,还能显著提升dLLMs的推理效率。该方法无需额外训练步骤,为大型语言模型的性能优化提供了新思路。

扩散型模型推理加速KV Cache技术大型语言模型上海交大研究
2025-05-27
产学研深度联动下的科创生态圈构建——第三届世界科学智能大赛解读

第三届世界科学智能大赛以产学研深度联动为特色,成功吸引全球1.6万人参与。赛事聚焦构建科创生态圈,为优胜者提供创业免租及算力激励等丰厚奖励。上海16区中学生积极参与,通过绿能发电项目预测,培养跨学科新生代人才,推动科技创新与可持续发展。

世界科学智能大赛产学研联动科创生态圈绿能发电项目跨学科人才
2025-05-27
《智能新纪元的洞察:2025人工智能发展白皮书解读》

《2025人工智能发展白皮书》于2025年5月22日在第六届深圳国际人工智能展览会(GAIE)正式发布。该白皮书由深圳市人工智能行业协会与深圳市投控数字科技有限公司联合编制,聚焦智能新纪元的发展趋势与技术应用。作为行业权威指南,白皮书深入分析了人工智能在经济、社会及科技领域的深远影响,为未来智能化发展提供了重要参考。

人工智能智能发展白皮书深圳展会科技未来
2025-05-27
Dify平台与亚马逊云科技联手,助力生成式AI规模化部署

Dify平台与亚马逊云科技达成合作,共同推动全球企业在生成式AI领域的规模化部署。通过整合亚马逊云科技的先进技术和资源,Dify平台帮助企业降低技术难度和部署成本,同时确保性能、合规性及全球覆盖能力,助力企业高效开发生成式AI应用。

Dify平台亚马逊云科技生成式AI技术难度全球覆盖
2025-05-27
上海交通大学EPIC实验室创新推理缓存机制:dLLM-Cache技术解析

上海交通大学EPIC实验室研究团队开发了一种名为dLLM-Cache的新型推理缓存机制,该技术可将扩散语言模型的推理速度提升至原来的九倍。与传统KV Cache技术仅适用于自回归模型不同,dLLM-Cache无需额外训练即可直接应用于扩散模型,显著提高了推理效率,为相关领域带来了突破性进展。

dLLM-Cache推理缓存扩散模型加速技术EPIC实验室
2025-05-27
字节跳动与复旦大学联手:CAR自适应推理框架的技术革新

字节跳动与复旦大学的研究团队共同开发了一种名为CAR的自适应推理框架。该框架通过评估模型的困惑度,动态决定生成短回答或长文本推理,从而在保证准确性的同时提升效率,实现了两者间的最佳平衡。这一创新技术为自然语言处理领域提供了新的解决方案。

字节跳动复旦大学CAR框架动态选择效率平衡
2025-05-27
国内研究突破:LLaDA-V多模态大模型引领理解任务新高度

国内研究团队开发的新型多模态大模型LLaDA-V,在理解任务中达到了最高标准(SOTA)。该模型基于LLaDA,通过集成视觉编码器SigLIP 2与多层感知器(MLP)连接器,实现了视觉信息到语言嵌入空间的精准映射。此外,LLaDA-V采用离散扩散机制进行训练和采样,突破了传统自回归方法的限制,显著提升了多模态数据对齐的效率与准确性。

多模态大模型离散扩散机制视觉编码器语言嵌入空间最高标准SOTA
2025-05-27