DeepSeek-R1-Distill-Qwen-32B

Deepseek的蒸馏版本。调用认证头Authorization: Bearer {appKey} 。付费资源包使用期1年,计费时按实际token量计算,每次调用最小计费0.01厘。 每用户每日免费量100万token (在【每日免费】专区领取)。 如有更多需求,请联系我们商务客服。

单独计费
大模型
deepseek-v3.2
七牛云

‌DeepSeek-V3.2‌ 是由深度求索(DeepSeek)于2025年12月正式发布的旗舰级大语言模型,面向日常问答、通用智能体(Agent)任务及复杂推理场景优化。截至2026年3月30日,该模型已全面恢复服务,并成为官方网页端、App和API的默认版本 ‌

输入¥1.6¥2/M Tokens
输出¥2.4¥3/M Tokens
大模型
deepseek-v3.2
算能

‌DeepSeek-V3.2‌ 是由深度求索(DeepSeek)于2025年12月正式发布的旗舰级大语言模型,面向日常问答、通用智能体(Agent)任务及复杂推理场景优化。截至2026年3月30日,该模型已全面恢复服务,并成为官方网页端、App和API的默认版本 ‌

输入¥1.96¥2/M Tokens
输出¥2.94¥3/M Tokens
大模型
deepseek-v4-flash
硅基流动

DeepSeek V4 Flash 是深度求索(DeepSeek)推出的一款效率优化型混合专家模型,总参数量达 2840 亿,单次激活参数量仅 130 亿,支持百万级超长上下文窗口(100 万令牌)。该模型专为高速推理与高吞吐业务场景打造,同时具备出色的逻辑推理与代码编写能力。 模型搭载混合注意力机制,可高效处理超长上下文文本,并支持推理模式自定义配置。非常适配代码助手、智能对话系统、智能代理工作流等对响应速度与成本可控性要求较高的落地场景。

输入¥1/M Tokens
输出¥2/M Tokens
大模型
deepseek-v4-flash
算能

DeepSeek V4 Flash 是深度求索(DeepSeek)推出的一款效率优化型混合专家模型,总参数量达 2840 亿,单次激活参数量仅 130 亿,支持百万级超长上下文窗口(100 万令牌)。该模型专为高速推理与高吞吐业务场景打造,同时具备出色的逻辑推理与代码编写能力。 模型搭载混合注意力机制,可高效处理超长上下文文本,并支持推理模式自定义配置。非常适配代码助手、智能对话系统、智能代理工作流等对响应速度与成本可控性要求较高的落地场景。

输入¥1/M Tokens
输出¥2/M Tokens
大模型
deepseek-v3.2
硅基流动

‌DeepSeek-V3.2‌ 是由深度求索(DeepSeek)于2025年12月正式发布的旗舰级大语言模型,面向日常问答、通用智能体(Agent)任务及复杂推理场景优化。截至2026年3月30日,该模型已全面恢复服务,并成为官方网页端、App和API的默认版本 ‌

输入¥2/M Tokens
输出¥3/M Tokens
大模型
deepseek-v4-pro
算能

DeepSeek V4 Pro 是深度求索(DeepSeek)推出的一款大规模混合专家大模型,总参数量 1.6 万亿,激活参数量 490 亿,支持百万级超长上下文窗口。该模型专为高阶逻辑推理、代码开发及长周期智能体任务流程打造,在知识问答、数理运算、软件工程等各类基准测试中均具备顶尖性能表现。 本模型与 DeepSeek V4 Flash 采用同源架构,搭载混合注意力机制,可高效处理超长文本内容;同时提供多档推理模式,能够根据不同任务灵活平衡推理速度与思考深度。适用于完整代码库解析、多步骤自动化流程、大规模信息整合等高复杂度业务场景,完美兼顾模型综合能力与运行效率。

输入¥12/M Tokens
输出¥24/M Tokens