大模型广场

汇聚百模千态大模型,一次购买,一键切换调用全部大模型 立即购买
模型分类
kimi-k2.5
算能
sophnet/moonshotai/kimi-k2.5
文本生成编程744BMoE200K

Kimi 是一款AI智能助手,由 Moonshot 自研的大语言模型驱动,支持在线搜索、深度思考、多模态推理和超长文本对话。

输入:¥3.92¥4/ M Tokens
输出:¥20.58¥21/ M Tokens
glm-5
算能
sophnet/z-ai/glm-5
文本生成编程744BMoE200K

GLM-5 是智谱推出的新一代大语言模型,专注于复杂系统工程和长周期 Agent 任务。模型规模 744B 参数(40B 激活),预训练数据 28.5T tokens。

输入:¥3.92¥4/ M Tokens
输出:¥15.68¥16/ M Tokens
deepseek-v3.2
算能
sophnet/deepseek/deepseek-v3.2
文本生成编程agentMoEDSA

‌DeepSeek-V3.2‌ 是由深度求索(DeepSeek)于2025年12月正式发布的旗舰级大语言模型,面向日常问答、通用智能体(Agent)任务及复杂推理场景优化。截至2026年3月30日,该模型已全面恢复服务,并成为官方网页端、App和API的默认版本 ‌

输入:¥1.96¥2/ M Tokens
输出:¥2.94¥3/ M Tokens
deepseek-v3.2
七牛云
qiniu/deepseek/deepseek-v3.2
文本生成编程agentMoEDSA

‌DeepSeek-V3.2‌ 是由深度求索(DeepSeek)于2025年12月正式发布的旗舰级大语言模型,面向日常问答、通用智能体(Agent)任务及复杂推理场景优化。截至2026年3月30日,该模型已全面恢复服务,并成为官方网页端、App和API的默认版本 ‌

输入:¥1.6¥2/ M Tokens
输出:¥2.4¥3/ M Tokens
minimax-m2.5
算能
sophnet/minimax/minimax-m2.5
编程智能体工具调用前缀续写FIM补全

MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。

输入:¥2.352¥2.4/ M Tokens
输出:¥9.408¥9.6/ M Tokens
mimo-v2-flash
算能
sophnet/xiaomi/mimo-v2-flash
文本生成智能体MoE256k

MiMo-V2-Flash 是小米开发的开源基础语言模型。它是一种混合专家模型,拥有 3090 亿个参数和 150 亿个有效参数,并采用了混合注意力架构。MiMo-V2-Flash 支持混合思维切换和 256K 上下文窗口,在推理、编码和智能体场景下表现出色。其性能与 Claude Sonnet 4.5 相当,而成本仅低约 3.5%。

输入:¥0.686¥0.7/ M Tokens
输出:¥2.058¥2.1/ M Tokens
minimax-m2.5
七牛云
qiniu/minimax/minimax-m2.5
编程智能体工具调用前缀续写FIM补全

MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。

输入:¥2.016¥2.1/ M Tokens
输出:¥8.064¥8.4/ M Tokens
qwen3.5-397b-a17b
算能
sophnet/qwen/qwen3.5-397b-a17b
文本生成编程MoE397B

Qwen3.5-397B-A17B 是阿里巴巴通义千问团队于 2026年2月(春节前夕)正式开源的旗舰级原生多模态混合专家模型(MoE)。它证明了“大参数总量 + 小激活量”的 MoE 路线是通往高效 AGI 的关键路径。对于开发者而言,这意味着你可以用极低的硬件成本(单卡可跑),享受到万亿参数级别的智能体验。

输入:¥1.176¥1.2/ M Tokens
输出:¥17.64¥18/ M Tokens
mimo-v2-flash
七牛云
qiniu/xiaomi/mimo-v2-flash
文本生成智能体MoE256k

MiMo-V2-Flash 是小米开发的开源基础语言模型。它是一种混合专家模型,拥有 3090 亿个参数和 150 亿个有效参数,并采用了混合注意力架构。MiMo-V2-Flash 支持混合思维切换和 256K 上下文窗口,在推理、编码和智能体场景下表现出色。其性能与 Claude Sonnet 4.5 相当,而成本仅低约 3.5%。

输入:¥0.672¥0.7/ M Tokens
输出:¥2.016¥2.1/ M Tokens
deepseek-v3.2
硅基流动
siliconflow/deepseek/deepseek-v3.2
文本生成编程agentMoEDSA

‌DeepSeek-V3.2‌ 是由深度求索(DeepSeek)于2025年12月正式发布的旗舰级大语言模型,面向日常问答、通用智能体(Agent)任务及复杂推理场景优化。截至2026年3月30日,该模型已全面恢复服务,并成为官方网页端、App和API的默认版本 ‌

输入:¥2/ M Tokens
输出:¥3/ M Tokens
minimax-m2.5
优云智算
compshare/minimax/minimax-m2.5
编程智能体工具调用前缀续写FIM补全

MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。

输入:¥2.058¥2.1/ M Tokens
输出:¥8.232¥8.4/ M Tokens
mimo-v2-flash
优云智算
compshare/xiaomi/mimo-v2-flash
文本生成智能体MoE256k

MiMo-V2-Flash 是小米开发的开源基础语言模型。它是一种混合专家模型,拥有 3090 亿个参数和 150 亿个有效参数,并采用了混合注意力架构。MiMo-V2-Flash 支持混合思维切换和 256K 上下文窗口,在推理、编码和智能体场景下表现出色。其性能与 Claude Sonnet 4.5 相当,而成本仅低约 3.5%。

输入:¥0.686¥0.7/ M Tokens
输出:¥2.058¥2.1/ M Tokens
gpt-oss-20b
七牛云
qiniu/openai/gpt-oss-20b
文本生成编程MoEagent

GPT-oss-20b是由OpenAI于2025年8月5日发布的开放权重AI模型,总参数210亿,每token激活36亿参数,专为低延迟、本地化场景设计,可在16GB内存的边缘设备运行 。该模型采用混合专家(MoE)架构,基于Transformer框架,结合密集注意力和局部带状稀疏注意力机制,支持128,000 token的上下文长度。根据技术报告显示,其性能与o3-mini相当,在AIME和HealthBench等测试中表现更佳

输入:¥0.768¥0.8/ M Tokens
输出:¥3.456¥3.6/ M Tokens
gpt-oss-120b
七牛云
qiniu/openai/gpt-oss-120b
文本生成MoECoT

GPT-oss-120b是由OpenAI于2025年8月5日发布的开放权重AI模型,拥有1170亿总参数与每token激活51亿参数,采用专家混合(MoE)架构的Transformer网络。该模型基于Apache 2.0许可证开源,允许下载代码后进行本地化修改及商业用途,支持在单块80GB显存的Nvidia H100 GPU

输入:¥0.192¥0.2/ M Tokens
输出:¥5.184¥5.4/ M Tokens
qwen3.5-397b-a17b
七牛云
qiniu/qwen/qwen3.5-397b-a17b
文本生成编程MoE397B

Qwen3.5-397B-A17B 是阿里巴巴通义千问团队于 2026年2月(春节前夕)正式开源的旗舰级原生多模态混合专家模型(MoE)。它证明了“大参数总量 + 小激活量”的 MoE 路线是通往高效 AGI 的关键路径。对于开发者而言,这意味着你可以用极低的硬件成本(单卡可跑),享受到万亿参数级别的智能体验。

输入:¥1.152¥1.2/ M Tokens
输出:¥6.912¥7.2/ M Tokens
kimi-k2.5
七牛云
qiniu/moonshotai/kimi-k2.5
文本生成编程744BMoE200K

Kimi 是一款AI智能助手,由 Moonshot 自研的大语言模型驱动,支持在线搜索、深度思考、多模态推理和超长文本对话。

输入:¥3.84¥4/ M Tokens
输出:¥20.16¥21/ M Tokens
glm-5
七牛云
qiniu/z-ai/glm-5
文本生成编程744BMoE200K

GLM-5 是智谱推出的新一代大语言模型,专注于复杂系统工程和长周期 Agent 任务。模型规模 744B 参数(40B 激活),预训练数据 28.5T tokens。

输入:¥3.84¥4/ M Tokens
输出:¥17.28¥18/ M Tokens
glm-4.7
七牛云
qiniu/z-ai/glm-4.7
LLM推理模型强推理中文优化工具调用

GLM-4.7 系列是智谱旗舰模型,面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得开源模型中的出色表现。通用能力提升,回复更简洁自然,写作更具沉浸感。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。

输入:¥3.0413¥3.168/ M Tokens
输出:¥12.0269¥12.528/ M Tokens
上一页下一页