优云智算GLM-5 是智谱推出的新一代大语言模型,专注于复杂系统工程和长周期 Agent 任务。模型规模 744B 参数(40B 激活),预训练数据 28.5T tokens。
优云智算GLM-4.6V 系列是 GLM 系列在多模态方向上的一次重要迭代,包含 GLM-4.6V(旗舰版)、GLM-4.6V-FlashX(轻量高速版)、GLM-4.6V-Flash(完全免费)。它将训练时上下文窗口提升到128k tokens,在视觉理解精度上达到同参数规模 SOTA,并首次在模型架构中将 Function Call(工具调用)能力原生融入视觉模型,打通从「视觉感知」到「可执行行动(Action)」的链路,为真实业务场景中的多模态 Agent 提供统一的技术底座。
优云智算GLM-4.7 系列是智谱最新旗舰模型,面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得开源模型中的出色表现。通用能力提升,回复更简洁自然,写作更具沉浸感。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。
优云智算MiniMax-M2.7 是一款为自主、实际应用生产力与持续改进而设计的下一代大型语言模型。为了积极参与自身的进化,M2.7透过多代理协作整合先进的代理能力,使其能在动态环境中规划、执行和优化复杂任务。 经过生产级性能的训练,M2.7能处理包括实时侦错、根本原因分析、金融建模以及跨 Word、Excel 和 PowerPoint 的完整文件生成等工作流程。它在 SWE-Pro 基准测试中达到 56.2% 的成绩,在 Terminal Bench 2 基准测试中达到 57.0%,同时在 GDPval-AA 上达到 1495 ELO 分数,为实际数位工作流程中运作的多代理系统设立了新的标准。
优云智算MiMo-V2-Pro 是小米的旗舰基础模型,拥有超过 1T 的总参数量和 1M 的上下文长度,深度优化以适应代理场景。它能高度适应 OpenClaw 等通用代理框架。在标准的 PinchBench 和 ClawBench 基准测试中,其表现排名全球顶尖,感知性能接近 Opus 4.6。 MiMo-V2-Pro 设计用于作为代理系统的大脑,协调复杂的工作流程,推动生产工程任务,并可靠地交付结果。
七牛云Seed-2.0-mini 针对延迟敏感、高并发及成本敏感的场景,强调快速反应和灵活的推论部署。它提供与 ByteDance-Seed-1.6 相当的性能,支援 256k 语境,四种推理努力模式(最小/低/中/高),多模态理解,并针对轻量级任务进行优化,其中成本和速度优先。
优云智算Seed-2.0-mini 针对延迟敏感、高并发及成本敏感的场景,强调快速反应和灵活的推论部署。它提供与 ByteDance-Seed-1.6 相当的性能,支援 256k 语境,四种推理努力模式(最小/低/中/高),多模态理解,并针对轻量级任务进行优化,其中成本和速度优先。
七牛云MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。
七牛云GLM-4.7 系列是智谱最新旗舰模型,面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得开源模型中的出色表现。通用能力提升,回复更简洁自然,写作更具沉浸感。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。
七牛云GLM-5 是智谱推出的新一代大语言模型,专注于复杂系统工程和长周期 Agent 任务。模型规模 744B 参数(40B 激活),预训练数据 28.5T tokens。
七牛云Kimi 是一款AI智能助手,由 Moonshot 自研的大语言模型驱动,支持在线搜索、深度思考、多模态推理和超长文本对话。
七牛云Qwen3.5-397B-A17B 是阿里巴巴通义千问团队于 2026年2月(春节前夕)正式开源的旗舰级原生多模态混合专家模型(MoE)。它证明了“大参数总量 + 小激活量”的 MoE 路线是通往高效 AGI 的关键路径。对于开发者而言,这意味着你可以用极低的硬件成本(单卡可跑),享受到万亿参数级别的智能体验。
七牛云LongCat-Flash-Lite 模型采用高效 MoE 架构(总参数 685亿,激活参数约 30亿),通过 N-gram 嵌入表实现参数的高效利用,并针对推理效率与特定场景深度优化。
七牛云GPT-oss-120b是由OpenAI于2025年8月5日发布的开放权重AI模型,拥有1170亿总参数与每token激活51亿参数,采用专家混合(MoE)架构的Transformer网络。该模型基于Apache 2.0许可证开源,允许下载代码后进行本地化修改及商业用途,支持在单块80GB显存的Nvidia H100 GPU
七牛云GPT-oss-20b是由OpenAI于2025年8月5日发布的开放权重AI模型,总参数210亿,每token激活36亿参数,专为低延迟、本地化场景设计,可在16GB内存的边缘设备运行 。该模型采用混合专家(MoE)架构,基于Transformer框架,结合密集注意力和局部带状稀疏注意力机制,支持128,000 token的上下文长度。根据技术报告显示,其性能与o3-mini相当,在AIME和HealthBench等测试中表现更佳
优云智算MiMo-V2-Flash 是小米开发的开源基础语言模型。它是一种混合专家模型,拥有 3090 亿个参数和 150 亿个有效参数,并采用了混合注意力架构。MiMo-V2-Flash 支持混合思维切换和 256K 上下文窗口,在推理、编码和智能体场景下表现出色。其性能与 Claude Sonnet 4.5 相当,而成本仅低约 3.5%。
优云智算MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。
Qwen3.5-9B 是 Qwen3.5 家族的一个多模态基础模型,设计用于在高效的 9B 参数架构中提供强大的推理、编码和视觉理解。它采用统一的视觉语言设计,通过多模态标记的早期融合,允许模型在相同语境下处理和推理文本和图像。