大模型广场

汇聚百模千态大模型,一次购买,一键切换调用全部大模型 立即购买
模型分类
kimi-k2.5
算能
sophnet/moonshotai/kimi-k2.5
文本生成编程744BMoE200K

Kimi 是一款AI智能助手,由 Moonshot 自研的大语言模型驱动,支持在线搜索、深度思考、多模态推理和超长文本对话。

输入价格:¥4/M Tokens
输出价格:¥21/M Tokens
minimax-m2.5
算能
sophnet/minimax/minimax-m2.5
编程智能体工具调用前缀续写FIM补全

MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。

输入价格:¥2.4/M Tokens
输出价格:¥9.6/M Tokens
glm-5
优云智算
compshare/z-ai/glm-5
文本生成编程744BMoE200K

GLM-5 是智谱推出的新一代大语言模型,专注于复杂系统工程和长周期 Agent 任务。模型规模 744B 参数(40B 激活),预训练数据 28.5T tokens。

输入价格:¥4/M Tokens
输出价格:¥18/M Tokens
minimax-m2.5
优云智算
compshare/minimax/minimax-m2.5
编程智能体工具调用前缀续写FIM补全

MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。

输入价格:¥2.1/M Tokens
输出价格:¥8.4/M Tokens
qwen3.5-397b-a17b
算能
sophnet/qwen/qwen3.5-397b-a17b
文本生成编程MoE397B

Qwen3.5-397B-A17B 是阿里巴巴通义千问团队于 2026年2月(春节前夕)正式开源的旗舰级原生多模态混合专家模型(MoE)。它证明了“大参数总量 + 小激活量”的 MoE 路线是通往高效 AGI 的关键路径。对于开发者而言,这意味着你可以用极低的硬件成本(单卡可跑),享受到万亿参数级别的智能体验。

输入价格:¥1.2/M Tokens
输出价格:¥18/M Tokens
gpt-oss-120b
七牛云
qiniu/openai/gpt-oss-120b
文本生成MoECoT

GPT-oss-120b是由OpenAI于2025年8月5日发布的开放权重AI模型,拥有1170亿总参数与每token激活51亿参数,采用专家混合(MoE)架构的Transformer网络。该模型基于Apache 2.0许可证开源,允许下载代码后进行本地化修改及商业用途,支持在单块80GB显存的Nvidia H100 GPU

输入价格:¥0.2/M Tokens
输出价格:¥5.4/M Tokens
mimo-v2-flash
优云智算
compshare/xiaomi/mimo-v2-flash
文本生成智能体MoE256k

MiMo-V2-Flash 是小米开发的开源基础语言模型。它是一种混合专家模型,拥有 3090 亿个参数和 150 亿个有效参数,并采用了混合注意力架构。MiMo-V2-Flash 支持混合思维切换和 256K 上下文窗口,在推理、编码和智能体场景下表现出色。其性能与 Claude Sonnet 4.5 相当,而成本仅低约 3.5%。

输入价格:¥0.7/M Tokens
输出价格:¥2.1/M Tokens
seed-2.0-mini
优云智算
compshare/bytedance-seed/seed-2.0-mini
LLMVLM低延迟高并发成本优化

Seed-2.0-mini 针对延迟敏感、高并发及成本敏感的场景,强调快速反应和灵活的推论部署。它提供与 ByteDance-Seed-1.6 相当的性能,支援 256k 语境,四种推理努力模式(最小/低/中/高),多模态理解,并针对轻量级任务进行优化,其中成本和速度优先。

输入价格:¥0.6/M Tokens
输出价格:¥3.6/M Tokens
mimo-v2-pro
优云智算
compshare/xiaomi/mimo-v2-pro
文本生成智能体MoE1M

MiMo-V2-Pro 是小米的旗舰基础模型,拥有超过 1T 的总参数量和 1M 的上下文长度,深度优化以适应代理场景。它能高度适应 OpenClaw 等通用代理框架。在标准的 PinchBench 和 ClawBench 基准测试中,其表现排名全球顶尖,感知性能接近 Opus 4.6。 MiMo-V2-Pro 设计用于作为代理系统的大脑,协调复杂的工作流程,推动生产工程任务,并可靠地交付结果。

输入价格:¥7/千万token
输出价格:¥21/千万token
minimax-m2.7
优云智算
compshare/minimax/minimax-m2.7
文本生成编程MoE200K

MiniMax-M2.7 是一款为自主、实际应用生产力与持续改进而设计的下一代大型语言模型。为了积极参与自身的进化,M2.7透过多代理协作整合先进的代理能力,使其能在动态环境中规划、执行和优化复杂任务。 经过生产级性能的训练,M2.7能处理包括实时侦错、根本原因分析、金融建模以及跨 Word、Excel 和 PowerPoint 的完整文件生成等工作流程。它在 SWE-Pro 基准测试中达到 56.2% 的成绩,在 Terminal Bench 2 基准测试中达到 57.0%,同时在 GDPval-AA 上达到 1495 ELO 分数,为实际数位工作流程中运作的多代理系统设立了新的标准。

输入价格:¥2.1/M Tokens
输出价格:¥8.4/M Tokens
glm-4.6v
优云智算
compshare/z-ai/glm-4.6v
VLM多模态模型图像理解 文档解析 多模态推理 OCR语义 长上下文

GLM-4.6V 系列是 GLM 系列在多模态方向上的一次重要迭代,包含 GLM-4.6V(旗舰版)、GLM-4.6V-FlashX(轻量高速版)、GLM-4.6V-Flash(完全免费)。它将训练时上下文窗口提升到128k tokens,在视觉理解精度上达到同参数规模 SOTA,并首次在模型架构中将 Function Call(工具调用)能力原生融入视觉模型,打通从「视觉感知」到「可执行行动(Action)」的链路,为真实业务场景中的多模态 Agent 提供统一的技术底座。

输入价格:¥1/M Tokens
输出价格:¥3/M Tokens
qwen3.5-397b-a17b
七牛云
qiniu/qwen/qwen3.5-397b-a17b
文本生成编程MoE397B

Qwen3.5-397B-A17B 是阿里巴巴通义千问团队于 2026年2月(春节前夕)正式开源的旗舰级原生多模态混合专家模型(MoE)。它证明了“大参数总量 + 小激活量”的 MoE 路线是通往高效 AGI 的关键路径。对于开发者而言,这意味着你可以用极低的硬件成本(单卡可跑),享受到万亿参数级别的智能体验。

输入价格:¥1.2/M Tokens
输出价格:¥7.2/M Tokens
minimax-m2.5-highspeed
七牛云
qiniu/minimax/minimax-m2.5-highspeed
LLMMoE模型超大模型高吞吐强推理

MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。

输入价格:¥4.2/M Tokens
输出价格:¥16.8/M Tokens
glm-4.7
七牛云
qiniu/z-ai/glm-4.7
LLM推理模型强推理中文优化工具调用

GLM-4.7 系列是智谱最新旗舰模型,面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得开源模型中的出色表现。通用能力提升,回复更简洁自然,写作更具沉浸感。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。

输入价格:¥3.168/M Tokens
输出价格:¥12.528/M Tokens
glm-5
七牛云
qiniu/z-ai/glm-5
文本生成编程744BMoE200K

GLM-5 是智谱推出的新一代大语言模型,专注于复杂系统工程和长周期 Agent 任务。模型规模 744B 参数(40B 激活),预训练数据 28.5T tokens。

输入价格:¥4/M Tokens
输出价格:¥18/M Tokens
kimi-k2.5
七牛云
qiniu/moonshotai/kimi-k2.5
文本生成编程744BMoE200K

Kimi 是一款AI智能助手,由 Moonshot 自研的大语言模型驱动,支持在线搜索、深度思考、多模态推理和超长文本对话。

输入价格:¥4/M Tokens
输出价格:¥21/M Tokens
minimax-m2.5
七牛云
qiniu/minimax/minimax-m2.5
编程智能体工具调用前缀续写FIM补全

MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。

输入价格:¥2.1/M Tokens
输出价格:¥8.4/M Tokens
mimo-v2-flash
七牛云
qiniu/xiaomi/mimo-v2-flash
文本生成智能体MoE256k

MiMo-V2-Flash 是小米开发的开源基础语言模型。它是一种混合专家模型,拥有 3090 亿个参数和 150 亿个有效参数,并采用了混合注意力架构。MiMo-V2-Flash 支持混合思维切换和 256K 上下文窗口,在推理、编码和智能体场景下表现出色。其性能与 Claude Sonnet 4.5 相当,而成本仅低约 3.5%。

输入价格:¥0.7/M Tokens
输出价格:¥2.1/M Tokens
上一页下一页