GLM-4.7 系列是智谱旗舰模型,面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得开源模型中的出色表现。通用能力提升,回复更简洁自然,写作更具沉浸感。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。
Qwen3.5-397B-A17B 是阿里巴巴通义千问团队于 2026年2月(春节前夕)正式开源的旗舰级原生多模态混合专家模型(MoE)。它证明了“大参数总量 + 小激活量”的 MoE 路线是通往高效 AGI 的关键路径。对于开发者而言,这意味着你可以用极低的硬件成本(单卡可跑),享受到万亿参数级别的智能体验。
Qwen3.5 122B-A10B 本地视觉语言模型是建立在混合架构之上,整合了线性注意机制与稀疏专家混合模型,达到更高的推理效率。在整体性能方面,此模型仅次于 Qwen3.5-397B-A17B。其文本能力显著优于 Qwen3-235B-2507,而其视觉能力则超越 Qwen3-VL-235B。
Qwen3.5 Series 35B-A3B 是一个原生视觉语言模型,采用混合架构设计,整合线性注意机制和稀疏专家混合模型,达到更高的推理效率。其整体性能与 Qwen3.5-27B 相当。
Step-3.5-Flash 是由中国大模型初创公司 阶跃星辰(StepFun) 于 2026 年 2 月发布的一款开源高性能基础模型。 这款模型在 AI 社区引起了巨大轰动,因为它打破了“参数量越大智能越强”的传统认知,通过极高的“智能密度”,以较小的激活参数量实现了媲美顶级千亿参数闭源模型的性能,专为 AI Agent(智能体) 和高频推理场景设计。
Qwen3-VL-32B-Instruct 是一个大规模的多模态视觉语言模型,设计用于在文本、图像和视频方面进行高精度理解和推理。拥有32B个参数,它结合了深度视觉感知与先进的文本理解,实现了细粒度的空间推理、文件和场景分析以及长远景视频理解。支持32种语言的稳固OCR,并通过Interleaved-MRoPE和DeepStack架构实现了增强的多模态融合。优化于代理交互和视觉工具使用,Qwen3-VL-32B为复杂的真实世界多模态任务提供了最先进的性能。
Qwen3.5 27B 本地视觉语言密集模型整合了线性注意机制,提供快速反应时间同时平衡推论速度与效能。其整体能力与 Qwen3.5-122B-A10B 相当。
Qwen3.5-9B 是 Qwen3.5 家族的一个多模态基础模型,设计用于在高效的 9B 参数架构中提供强大的推理、编码和视觉理解。它采用统一的视觉语言设计,通过多模态标记的早期融合,允许模型在相同语境下处理和推理文本和图像。