大模型广场

汇聚百模千态大模型,一次购买,一键切换调用全部大模型 立即购买
模型分类
minimax-m2.5-highspeed
七牛云
qiniu/minimax/minimax-m2.5-highspeed
LLMMoE模型超大模型高吞吐强推理

MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。

输入:¥4.032¥4.2/ M Tokens
输出:¥16.128¥16.8/ M Tokens
seed-2.0-mini
优云智算
compshare/bytedance-seed/seed-2.0-mini
LLMVLM低延迟高并发成本优化

Seed-2.0-mini 针对延迟敏感、高并发及成本敏感的场景,强调快速反应和灵活的推论部署。它提供与 ByteDance-Seed-1.6 相当的性能,支援 256k 语境,四种推理努力模式(最小/低/中/高),多模态理解,并针对轻量级任务进行优化,其中成本和速度优先。

输入:¥0.588¥0.6/ M Tokens
输出:¥3.528¥3.6/ M Tokens
seed-2.0-mini
七牛云
qiniu/bytedance-seed/seed-2.0-mini
LLMVLM低延迟高并发成本优化

Seed-2.0-mini 针对延迟敏感、高并发及成本敏感的场景,强调快速反应和灵活的推论部署。它提供与 ByteDance-Seed-1.6 相当的性能,支援 256k 语境,四种推理努力模式(最小/低/中/高),多模态理解,并针对轻量级任务进行优化,其中成本和速度优先。

输入:¥0.384¥0.4/ M Tokens
输出:¥3.84¥4/ M Tokens
mimo-v2-pro
优云智算
compshare/xiaomi/mimo-v2-pro
文本生成智能体MoE1M

MiMo-V2-Pro 是小米的旗舰基础模型,拥有超过 1T 的总参数量和 1M 的上下文长度,深度优化以适应代理场景。它能高度适应 OpenClaw 等通用代理框架。在标准的 PinchBench 和 ClawBench 基准测试中,其表现排名全球顶尖,感知性能接近 Opus 4.6。 MiMo-V2-Pro 设计用于作为代理系统的大脑,协调复杂的工作流程,推动生产工程任务,并可靠地交付结果。

输入:¥6.86¥7/ 千万token
输出:¥20.58¥21/ 千万token
minimax-m2.7
优云智算
compshare/minimax/minimax-m2.7
文本生成编程MoE200K

MiniMax-M2.7 是一款为自主、实际应用生产力与持续改进而设计的下一代大型语言模型。为了积极参与自身的进化,M2.7透过多代理协作整合先进的代理能力,使其能在动态环境中规划、执行和优化复杂任务。 经过生产级性能的训练,M2.7能处理包括实时侦错、根本原因分析、金融建模以及跨 Word、Excel 和 PowerPoint 的完整文件生成等工作流程。它在 SWE-Pro 基准测试中达到 56.2% 的成绩,在 Terminal Bench 2 基准测试中达到 57.0%,同时在 GDPval-AA 上达到 1495 ELO 分数,为实际数位工作流程中运作的多代理系统设立了新的标准。

输入:¥2.058¥2.1/ M Tokens
输出:¥8.232¥8.4/ M Tokens
glm-4.7
优云智算
compshare/z-ai/glm-4.7
LLM推理模型强推理中文优化工具调用

GLM-4.7 系列是智谱旗舰模型,面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得开源模型中的出色表现。通用能力提升,回复更简洁自然,写作更具沉浸感。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。

输入:¥2.94¥3/ M Tokens
输出:¥13.72¥14/ M Tokens
glm-4.6v
优云智算
compshare/z-ai/glm-4.6v
VLM多模态模型图像理解 文档解析 多模态推理 OCR语义 长上下文

GLM-4.6V 系列是 GLM 系列在多模态方向上的一次重要迭代,包含 GLM-4.6V(旗舰版)、GLM-4.6V-FlashX(轻量高速版)、GLM-4.6V-Flash(完全免费)。它将训练时上下文窗口提升到128k tokens,在视觉理解精度上达到同参数规模 SOTA,并首次在模型架构中将 Function Call(工具调用)能力原生融入视觉模型,打通从「视觉感知」到「可执行行动(Action)」的链路,为真实业务场景中的多模态 Agent 提供统一的技术底座。

输入:¥0.98¥1/ M Tokens
输出:¥2.94¥3/ M Tokens
glm-5
优云智算
compshare/z-ai/glm-5
文本生成编程744BMoE200K

GLM-5 是智谱推出的新一代大语言模型,专注于复杂系统工程和长周期 Agent 任务。模型规模 744B 参数(40B 激活),预训练数据 28.5T tokens。

输入:¥3.92¥4/ M Tokens
输出:¥17.64¥18/ M Tokens
Qwen-Image
硅基流动
siliconflow/Qwen/Qwen-Image
图片 多模态文生图 图生图 风格转换

Qwen-Image 是由阿里巴巴通义千问团队发布的图像生成基础模型,拥有 200 亿参数。该模型在复杂的文本渲染和精确的图像编辑方面取得了显著进展,尤其擅长生成包含高保真度中英文文字的图像。Qwen-Image 不仅能够处理多行布局和段落级文本,还能在生成图像时保持排版的连贯性和上下文的和谐。除了卓越的文本渲染能力,该模型还支持广泛的艺术风格,从写实照片到动漫美学,能够灵活适应各种创作需求。同时,它也具备强大的图像编辑和理解能力,支持风格迁移、物体增删、细节增强、文本编辑乃至人体姿态操控等高级操作,旨在成为一个集语言、布局和图像于一体的综合性智能视觉创作与处理基础模型

输出:¥0.3/ 每图
glm-5.1
算能
sophnet/z-ai/glm-5.1
文本生成编程MoEOpus 4.6744B

智谱GLM-5.1是智谱于2026年4月8日发布的新一代开源模型,发布当天上线华为云 ,同期摩尔线程宣布完成对该模型的适配。摩尔线程在其旗舰级AI训推一体全功能GPUMTT S5000上实现了对GLM-5.1的适配 。

输入:¥7.84¥8/ M Tokens
输出:¥27.44¥28/ M Tokens
glm-5-turbo
算能
sophnet/z-ai/glm-5-turbo
智能体编程function callMoEOpenClaw

GLM-5 Turbo 是 Z.ai 推出的一款全新模型,专为 OpenClaw 等基于代理的场景而设计,旨在实现快速推理和卓越性能。它针对涉及长执行链的真实代理工作流程进行了深度优化,改进了复杂指令分解、工具使用、调度和持续执行,以及在扩展任务中的整体稳定性。

输入:¥4.9¥5/ M Tokens
输出:¥21.56¥22/ M Tokens
deepseek-v4-flash
算能
sophnet/deepseek/deepseek-v4-flash
文本生成编程MoE1MContext

DeepSeek V4 Flash 是深度求索(DeepSeek)推出的一款效率优化型混合专家模型,总参数量达 2840 亿,单次激活参数量仅 130 亿,支持百万级超长上下文窗口(100 万令牌)。该模型专为高速推理与高吞吐业务场景打造,同时具备出色的逻辑推理与代码编写能力。 模型搭载混合注意力机制,可高效处理超长上下文文本,并支持推理模式自定义配置。非常适配代码助手、智能对话系统、智能代理工作流等对响应速度与成本可控性要求较高的落地场景。

输入:¥1/ M Tokens
输出:¥2/ M Tokens
deepseek-v4-pro
算能
sophnet/deepseek/deepseek-v4-pro
文本生成编程V4ProMoE

DeepSeek V4 Pro 是深度求索(DeepSeek)推出的一款大规模混合专家大模型,总参数量 1.6 万亿,激活参数量 490 亿,支持百万级超长上下文窗口。该模型专为高阶逻辑推理、代码开发及长周期智能体任务流程打造,在知识问答、数理运算、软件工程等各类基准测试中均具备顶尖性能表现。 本模型与 DeepSeek V4 Flash 采用同源架构,搭载混合注意力机制,可高效处理超长文本内容;同时提供多档推理模式,能够根据不同任务灵活平衡推理速度与思考深度。适用于完整代码库解析、多步骤自动化流程、大规模信息整合等高复杂度业务场景,完美兼顾模型综合能力与运行效率。

输入:¥12/ M Tokens
输出:¥24/ M Tokens
deepseek-v4-flash
硅基流动
siliconflow/deepseek/deepseek-v4-flash
文本生成编程MoE1MContext

DeepSeek V4 Flash 是深度求索(DeepSeek)推出的一款效率优化型混合专家模型,总参数量达 2840 亿,单次激活参数量仅 130 亿,支持百万级超长上下文窗口(100 万令牌)。该模型专为高速推理与高吞吐业务场景打造,同时具备出色的逻辑推理与代码编写能力。 模型搭载混合注意力机制,可高效处理超长上下文文本,并支持推理模式自定义配置。非常适配代码助手、智能对话系统、智能代理工作流等对响应速度与成本可控性要求较高的落地场景。

输入:¥1/ M Tokens
输出:¥2/ M Tokens
glm-5
硅基流动
siliconflow/z-ai/glm-5
文本生成编程744BMoE200K

GLM-5 是智谱推出的新一代大语言模型,专注于复杂系统工程和长周期 Agent 任务。模型规模 744B 参数(40B 激活),预训练数据 28.5T tokens。

输入:¥4/ M Tokens
输出:¥18/ M Tokens
kimi-k2.5
硅基流动
siliconflow/moonshotai/kimi-k2.5
文本生成编程744BMoE200K

Kimi 是一款AI智能助手,由 Moonshot 自研的大语言模型驱动,支持在线搜索、深度思考、多模态推理和超长文本对话。

输入:¥4/ M Tokens
输出:¥21/ M Tokens
minimax-m2.5
硅基流动
siliconflow/minimax/minimax-m2.5
编程智能体工具调用前缀续写FIM补全

MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。

输入:¥2.1/ M Tokens
输出:¥8.4/ M Tokens
glm-4.6v
硅基流动
siliconflow/z-ai/glm-4.6v
VLM多模态模型图像理解 文档解析 多模态推理 OCR语义 长上下文

GLM-4.6V 系列是 GLM 系列在多模态方向上的一次重要迭代,包含 GLM-4.6V(旗舰版)、GLM-4.6V-FlashX(轻量高速版)、GLM-4.6V-Flash(完全免费)。它将训练时上下文窗口提升到128k tokens,在视觉理解精度上达到同参数规模 SOTA,并首次在模型架构中将 Function Call(工具调用)能力原生融入视觉模型,打通从「视觉感知」到「可执行行动(Action)」的链路,为真实业务场景中的多模态 Agent 提供统一的技术底座。

输入:¥1/ M Tokens
输出:¥3/ M Tokens