siliconflow/deepseek/deepseek-v4-flash

硅基流动
文本生成编程deepseeklong_context智能体efficiencyMoE1MContextconfigurationFlash推理混合注意力百万上下文成本优化V4flashdeepseek

DeepSeek V4 Flash 是深度求索(DeepSeek)推出的一款效率优化型混合专家模型,总参数量达 2840 亿,单次激活参数量仅 130 亿,支持百万级超长上下文窗口(100 万令牌)。该模型专为高速推理与高吞吐业务场景打造,同时具备出色的逻辑推理与代码编写能力。 模型搭载混合注意力机制,可高效处理超长上下文文本,并支持推理模式自定义配置。非常适配代码助手、智能对话系统、智能代理工作流等对响应速度与成本可控性要求较高的落地场景。

模型基本信息

输入类型:文本
输出类型:文本
TPM:2,000,000
上下文长度1049K
最大输入长度:963K
最大输出长度:66K

模型特性

逻辑推理
代码编写
混合注意力机制应用
超长上下文文本处理
推理模式自定义配置
高速推理
高吞吐业务适配

模型价格

计费项价格
输入1元 / M Tokens
输出2元 / M Tokens

调用示意

CURL
curl -X POST  "https://route.showapi.com/openai/v1/chat/completions" \
-H "Authorization: Bearer [AppKey]" \
-H "Content-Type: application/json" \
-d '{
    "messages": [
        {
            "role": "user",
            "content": "介绍你的能力和优势,并给出你的名字"
        }
    ],
    "model": "siliconflow/deepseek/deepseek-v4-flash",
    "stream": true,
    "temperature": 0.7
}'