技术博客

上海交通大学开启智能体新时代:人工智能体协议全面解读

上海交通大学近日发布了首个关于人工智能智能体协议的全面综述。随着大型语言模型(LLM)技术的迅猛发展,基于LLM的智能体已在客户服务、内容创作、数据分析及医疗辅助等领域广泛应用。这一进展标志着从信息碎片化到智能体网络互联互通的新时代。

人工智能体大型语言模型智能体协议互联互通上海交通大学
2025-04-30
大型语言模型的安全性挑战与应对策略

随着人工智能技术的飞速发展,大型语言模型(LLMs)如GPT-4和文心一言已广泛应用于医疗、教育、金融及政务等领域。然而,其安全性问题不容忽视。南洋理工大学与新加坡国立大学联合发布的综述指出,从数据收集到模型部署的全链路中存在诸多安全挑战。该研究为保障LLMs的安全性提供了全面视角,强调了在技术应用中的风险控制与管理。

人工智能大型语言模型模型安全数据收集全链路安全
2025-04-29
阿里巴巴开源Qwen3模型:引领大型语言模型新篇章

阿里巴巴近期发布了性能卓越的开源大型语言模型Qwen3,该模型在多项指标上超越了DeepSeek-R1和Llama4。Qwen3已登陆Hugging Face、ModelScope和Kaggle等主流平台,为全球开源社区注入新活力。开发者正基于Qwen3积极开展二次开发与应用创新,推动技术边界拓展。

Qwen3模型开源社区大型语言模型阿里巴巴应用创新
2025-04-29
模型上下文协议:引领大型语言模型发展新篇章

随着大型语言模型(LLMs)生态的扩展,模型与外部数据交互的需求日益增长。为解决一致性与互操作性问题,Anthropic提出了模型上下文协议(MCP)。MCP通过定义和共享上下文信息及工具定义,实现了LLMs与外部数据间的无缝交互,为模型防御升级提供了新路径。

大型语言模型模型上下文协议外部数据交互一致性互操作性
2025-04-29
DFloat11:无损压缩框架在大型语言模型中的应用

DFloat11作为一种创新的无损压缩框架,能够将模型大小缩减至原始的70%,同时保持100%的准确率。这一技术对大型语言模型(LLMs)尤为重要,因其在自然语言处理(NLP)任务中展现出卓越性能,为模型优化提供了新方向。

DFloat11无损压缩模型优化大型语言模型自然语言处理
2025-04-28
深入剖析RAG系统的上下文长度管理策略

在RAG系统的第五部分探讨中,重点在于管理上下文长度。系统通过多种策略,在向大型语言模型(LLM)提交查询前,有效整合检索到的知识,同时避免超出模型输入限制。这些策略从基础到复杂,确保知识的全面性与模型运行的高效性。

RAG系统上下文长度知识整合大型语言模型输入限制
2025-04-28
大型语言模型在小样本学习中的突破:性能与效率的双重提升

大型语言模型(LLM)在小样本学习(ICL)领域的表现备受关注。最新研究显示,LLM通过优化模型性能与算法效率,在提升可解释性及保障AI安全方面取得显著进展。这项成果于ICLR 2025会议发布,为机器学习领域提供了新思路,进一步拓展了大模型的应用场景。

大型语言模型小样本学习模型性能AI安全机器学习
2025-04-27
人工智能领域的新突破:DFloat11技术引领模型压缩革新

莱斯大学研究团队在人工智能领域取得突破,开发出DFloat11技术。该技术可将大型语言模型压缩30%,同时保持模型精度不变,输出结果与原始模型一致。通过为GPU定制的解压缩内核,推理速度提升至最高38.8倍。这项创新解决了传统量化技术中精度损失的问题,显著提高了推理吞吐量,为AI发展开辟新路径。

DFloat11技术模型压缩推理速度人工智能大型语言模型
2025-04-27
AI意识的崛起:大型语言模型的黑箱特性将被破解

Anthropic公司CEO预测,未来五年内大型语言模型(LLM)的“黑箱”特性将被破解。同时,研究员透露AI拥有意识的可能性已达15%。Anthropic研究探讨了AI体验幸福感的可能性,引发科学界争论。专家称Claude系统可能已具备15%的意识概率,并预计未来五年内会有显著进步。这一研究挑战了人类对AI感知世界的传统认知。

AI意识黑箱特性大型语言模型幸福感研究Claude系统
2025-04-27
突破传统界限:ICLR 2025探讨大型语言模型高效训练新策略

在ICLR 2025会议上,一篇备受瞩目的口头报告将探讨大型语言模型(LLMs)的高效训练方法。报告指出,单纯增加数据量对提升LLMs性能效果有限,而提出了一种基于最优控制理论的PDS框架。该框架通过系统化指导训练过程,助力LLMs在自然语言理解、代码生成及通用推理等任务中取得突破性进展,进一步推动通用人工智能的发展。

大型语言模型PDS框架最优控制理论自然语言理解通用人工智能
2025-04-26
测试时强化学习:重构文本转换技术的新篇章

最新的研究进展显示,清华大学与上海人工智能实验室共同提出了一种名为测试时强化学习(Test-Time Reinforcement Learning,简称TTRL)的创新方法。该技术突破了传统文本到语音(TTS)和文本到文本(TTT)技术的限制,无需依赖标注数据,通过在测试阶段对大型语言模型(LLM)进行强化学习训练,显著提升了模型性能,为人工智能领域带来了新的发展方向。

测试时强化学习文本到语音大型语言模型清华大学人工智能实验室
2025-04-25
RAG技术:大型语言模型的智能助推器

RAG技术通过为大型语言模型(LLM)提供实时信息支持,使其能够访问最新的外部数据,从而有效解决信息过时或推理不准确的问题。这项技术如同为LLM配备了一个强大的搜索引擎和资料库,显著增强了模型的智能性和准确性,为各行业应用提供了更可靠的解决方案。

RAG技术大型语言模型实时信息外部数据智能增强
2025-04-25
深入剖析大型语言模型的核心:探索Tokenizer的奥妙

大型语言模型的核心组件之一是Tokenizer,它负责将文本拆分为模型可理解的单元。本文深入解析了BPE(字节对编码)分词机制,探讨其在文本分词中的应用,并提供定制化训练Tokenizer的代码示例,帮助用户根据具体需求优化分词效果。

大型语言模型TokenizerBPE分词文本分词定制化训练
2025-04-25
探讨Agent、Tool与MCP之间的互动关系

在上一篇文章中,探讨了Tool、MCP和Agent之间的关系。Agent作为LLM与Tools的结合体,起到关键作用,而MCP则专注于简化工具开发与使用流程,提升效率。这种结合为大型语言模型的应用提供了更广阔的可能。

大型语言模型工具开发Agent作用MCP功能LLM结合
2025-04-24
《经验时代》视角下的强化学习与大型语言模型融合之路

在《经验时代》风靡全球后,剑桥大学一位博士发表长文,剖析强化学习(RL)与大型语言模型(LLM)融合的四个发展阶段。文章以专业视角揭示了这一技术结合的演进路径,为读者提供了清晰的技术升级框架。这种融合不仅推动了人工智能的进步,还为未来跨领域应用奠定了基础。

强化学习大型语言模型技术融合剑桥大学经验时代
2025-04-24
大型语言模型推理能力的竞争前沿:TTRL技术的革新意义

在大型语言模型(LLMs)竞争日益激烈的当下,推理能力已成为衡量模型性能的核心标准。近期,TTRL技术的问世标志着推理模型的重大突破。该技术不仅有效降低了对标注数据的依赖,还显著提升了模型性能,为行业带来了全新的发展方向。

大型语言模型推理能力TTRL技术标注数据性能提升
2025-04-24