大模型
mimo-v2-flash
算能

MiMo-V2-Flash 是小米开发的开源基础语言模型。它是一种混合专家模型,拥有 3090 亿个参数和 150 亿个有效参数,并采用了混合注意力架构。MiMo-V2-Flash 支持混合思维切换和 256K 上下文窗口,在推理、编码和智能体场景下表现出色。其性能与 Claude Sonnet 4.5 相当,而成本仅低约 3.5%。

输入¥0.686¥0.7/M Tokens
输出¥2.058¥2.1/M Tokens
大模型
minimax-m2.5
算能

MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。

输入¥2.352¥2.4/M Tokens
输出¥9.408¥9.6/M Tokens
大模型
qwen3.5-9b
硅基流动

Qwen3.5-9B 是 Qwen3.5 家族的一个多模态基础模型,设计用于在高效的 9B 参数架构中提供强大的推理、编码和视觉理解。它采用统一的视觉语言设计,通过多模态标记的早期融合,允许模型在相同语境下处理和推理文本和图像。

输入¥0.5/M Tokens
输出¥4/M Tokens
大模型
deepseek-v3.2
七牛云

‌DeepSeek-V3.2‌ 是由深度求索(DeepSeek)于2025年12月正式发布的旗舰级大语言模型,面向日常问答、通用智能体(Agent)任务及复杂推理场景优化。截至2026年3月30日,该模型已全面恢复服务,并成为官方网页端、App和API的默认版本 ‌

输入¥1.6¥2/M Tokens
输出¥2.4¥3/M Tokens
大模型
deepseek-v3.2
算能

‌DeepSeek-V3.2‌ 是由深度求索(DeepSeek)于2025年12月正式发布的旗舰级大语言模型,面向日常问答、通用智能体(Agent)任务及复杂推理场景优化。截至2026年3月30日,该模型已全面恢复服务,并成为官方网页端、App和API的默认版本 ‌

输入¥1.96¥2/M Tokens
输出¥2.94¥3/M Tokens
大模型
kimi-k2.5
硅基流动

Kimi 是一款AI智能助手,由 Moonshot 自研的大语言模型驱动,支持在线搜索、深度思考、多模态推理和超长文本对话。

输入¥4/M Tokens
输出¥21/M Tokens
大模型
qwen3.5-27b
硅基流动

Qwen3.5 27B 本地视觉语言密集模型整合了线性注意机制,提供快速反应时间同时平衡推论速度与效能。其整体能力与 Qwen3.5-122B-A10B 相当。

输入¥0.6/M Tokens
输出¥4.8/M Tokens
大模型
qwen3.5-122b-a10b
硅基流动

Qwen3.5 122B-A10B 本地视觉语言模型是建立在混合架构之上,整合了线性注意机制与稀疏专家混合模型,达到更高的推理效率。在整体性能方面,此模型仅次于 Qwen3.5-397B-A17B。其文本能力显著优于 Qwen3-235B-2507,而其视觉能力则超越 Qwen3-VL-235B。

输入¥0.8/M Tokens
输出¥6.4/M Tokens
大模型
qwen3.5-35b-a3b
硅基流动

Qwen3.5 Series 35B-A3B 是一个原生视觉语言模型,采用混合架构设计,整合线性注意机制和稀疏专家混合模型,达到更高的推理效率。其整体性能与 Qwen3.5-27B 相当。

输入¥0.4/M Tokens
输出¥3.2/M Tokens
大模型
deepseek-v3.2
硅基流动

‌DeepSeek-V3.2‌ 是由深度求索(DeepSeek)于2025年12月正式发布的旗舰级大语言模型,面向日常问答、通用智能体(Agent)任务及复杂推理场景优化。截至2026年3月30日,该模型已全面恢复服务,并成为官方网页端、App和API的默认版本 ‌

输入¥2/M Tokens
输出¥3/M Tokens
大模型
qwen3.5-397b-a17b
硅基流动

Qwen3.5-397B-A17B 是阿里巴巴通义千问团队于 2026年2月(春节前夕)正式开源的旗舰级原生多模态混合专家模型(MoE)。它证明了“大参数总量 + 小激活量”的 MoE 路线是通往高效 AGI 的关键路径。对于开发者而言,这意味着你可以用极低的硬件成本(单卡可跑),享受到万亿参数级别的智能体验。

输入¥1.2/M Tokens
输出¥7.2/M Tokens
大模型
glm-4.6v
硅基流动

GLM-4.6V 系列是 GLM 系列在多模态方向上的一次重要迭代,包含 GLM-4.6V(旗舰版)、GLM-4.6V-FlashX(轻量高速版)、GLM-4.6V-Flash(完全免费)。它将训练时上下文窗口提升到128k tokens,在视觉理解精度上达到同参数规模 SOTA,并首次在模型架构中将 Function Call(工具调用)能力原生融入视觉模型,打通从「视觉感知」到「可执行行动(Action)」的链路,为真实业务场景中的多模态 Agent 提供统一的技术底座。

输入¥1/M Tokens
输出¥3/M Tokens
大模型
glm-4.7
硅基流动

GLM-4.7 系列是智谱旗舰模型,面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得开源模型中的出色表现。通用能力提升,回复更简洁自然,写作更具沉浸感。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。

输入¥3/M Tokens
输出¥14/M Tokens
大模型
minimax-m2.5
硅基流动

MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。

输入¥2.1/M Tokens
输出¥8.4/M Tokens
大模型
kimi-k2.5
算能

Kimi 是一款AI智能助手,由 Moonshot 自研的大语言模型驱动,支持在线搜索、深度思考、多模态推理和超长文本对话。

输入¥3.92¥4/M Tokens
输出¥20.58¥21/M Tokens
大模型
glm-5
七牛云

GLM-5 是智谱推出的新一代大语言模型,专注于复杂系统工程和长周期 Agent 任务。模型规模 744B 参数(40B 激活),预训练数据 28.5T tokens。

输入¥3.84¥4/M Tokens
输出¥17.28¥18/M Tokens
大模型
kimi-k2.5
七牛云

Kimi 是一款AI智能助手,由 Moonshot 自研的大语言模型驱动,支持在线搜索、深度思考、多模态推理和超长文本对话。

输入¥3.84¥4/M Tokens
输出¥20.16¥21/M Tokens
大模型
qwen3.5-397b-a17b
七牛云

Qwen3.5-397B-A17B 是阿里巴巴通义千问团队于 2026年2月(春节前夕)正式开源的旗舰级原生多模态混合专家模型(MoE)。它证明了“大参数总量 + 小激活量”的 MoE 路线是通往高效 AGI 的关键路径。对于开发者而言,这意味着你可以用极低的硬件成本(单卡可跑),享受到万亿参数级别的智能体验。

输入¥1.152¥1.2/M Tokens
输出¥6.912¥7.2/M Tokens
大模型
gpt-oss-120b
七牛云

GPT-oss-120b是由OpenAI于2025年8月5日发布的开放权重AI模型,拥有1170亿总参数与每token激活51亿参数,采用专家混合(MoE)架构的Transformer网络。该模型基于Apache 2.0许可证开源,允许下载代码后进行本地化修改及商业用途,支持在单块80GB显存的Nvidia H100 GPU

输入¥0.192¥0.2/M Tokens
输出¥5.184¥5.4/M Tokens
大模型
glm-4.7
七牛云

GLM-4.7 系列是智谱旗舰模型,面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得开源模型中的出色表现。通用能力提升,回复更简洁自然,写作更具沉浸感。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。

输入¥3.0413¥3.168/M Tokens
输出¥12.0269¥12.528/M Tokens
大模型
seed-2.0-mini
优云智算

Seed-2.0-mini 针对延迟敏感、高并发及成本敏感的场景,强调快速反应和灵活的推论部署。它提供与 ByteDance-Seed-1.6 相当的性能,支援 256k 语境,四种推理努力模式(最小/低/中/高),多模态理解,并针对轻量级任务进行优化,其中成本和速度优先。

输入¥0.588¥0.6/M Tokens
输出¥3.528¥3.6/M Tokens
大模型
minimax-m2.5-highspeed
七牛云

MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。

输入¥4.032¥4.2/M Tokens
输出¥16.128¥16.8/M Tokens
大模型
seed-2.0-mini
七牛云

Seed-2.0-mini 针对延迟敏感、高并发及成本敏感的场景,强调快速反应和灵活的推论部署。它提供与 ByteDance-Seed-1.6 相当的性能,支援 256k 语境,四种推理努力模式(最小/低/中/高),多模态理解,并针对轻量级任务进行优化,其中成本和速度优先。

输入¥0.384¥0.4/M Tokens
输出¥3.84¥4/M Tokens
大模型
glm-5
算能

GLM-5 是智谱推出的新一代大语言模型,专注于复杂系统工程和长周期 Agent 任务。模型规模 744B 参数(40B 激活),预训练数据 28.5T tokens。

输入¥3.92¥4/M Tokens
输出¥15.68¥16/M Tokens