大模型广场

汇聚百模千态大模型,一次购买,一键切换调用全部大模型 立即购买
模型分类
New
deepseek-v4-flash
算能
sophnet/deepseek/deepseek-v4-flash
文本生成编程MoE1MContext

DeepSeek V4 Flash 是深度求索(DeepSeek)推出的一款效率优化型混合专家模型,总参数量达 2840 亿,单次激活参数量仅 130 亿,支持百万级超长上下文窗口(100 万令牌)。该模型专为高速推理与高吞吐业务场景打造,同时具备出色的逻辑推理与代码编写能力。 模型搭载混合注意力机制,可高效处理超长上下文文本,并支持推理模式自定义配置。非常适配代码助手、智能对话系统、智能代理工作流等对响应速度与成本可控性要求较高的落地场景。

输入:¥1/ M Tokens
输出:¥2/ M Tokens
New
deepseek-v4-pro
算能
sophnet/deepseek/deepseek-v4-pro
文本生成编程V4ProMoE

DeepSeek V4 Pro 是深度求索(DeepSeek)推出的一款大规模混合专家大模型,总参数量 1.6 万亿,激活参数量 490 亿,支持百万级超长上下文窗口。该模型专为高阶逻辑推理、代码开发及长周期智能体任务流程打造,在知识问答、数理运算、软件工程等各类基准测试中均具备顶尖性能表现。 本模型与 DeepSeek V4 Flash 采用同源架构,搭载混合注意力机制,可高效处理超长文本内容;同时提供多档推理模式,能够根据不同任务灵活平衡推理速度与思考深度。适用于完整代码库解析、多步骤自动化流程、大规模信息整合等高复杂度业务场景,完美兼顾模型综合能力与运行效率。

输入:¥12/ M Tokens
输出:¥24/ M Tokens
New
deepseek-v4-flash
硅基流动
siliconflow/deepseek/deepseek-v4-flash
文本生成编程MoE1MContext

DeepSeek V4 Flash 是深度求索(DeepSeek)推出的一款效率优化型混合专家模型,总参数量达 2840 亿,单次激活参数量仅 130 亿,支持百万级超长上下文窗口(100 万令牌)。该模型专为高速推理与高吞吐业务场景打造,同时具备出色的逻辑推理与代码编写能力。 模型搭载混合注意力机制,可高效处理超长上下文文本,并支持推理模式自定义配置。非常适配代码助手、智能对话系统、智能代理工作流等对响应速度与成本可控性要求较高的落地场景。

输入:¥1/ M Tokens
输出:¥2/ M Tokens