大模型
mimo-v2-flash
优云智算

MiMo-V2-Flash 是小米开发的开源基础语言模型。它是一种混合专家模型,拥有 3090 亿个参数和 150 亿个有效参数,并采用了混合注意力架构。MiMo-V2-Flash 支持混合思维切换和 256K 上下文窗口,在推理、编码和智能体场景下表现出色。其性能与 Claude Sonnet 4.5 相当,而成本仅低约 3.5%。

输入¥0.686¥0.7/M Tokens
输出¥2.058¥2.1/M Tokens
大模型
minimax-m2.7
优云智算

MiniMax-M2.7 是一款为自主、实际应用生产力与持续改进而设计的下一代大型语言模型。为了积极参与自身的进化,M2.7透过多代理协作整合先进的代理能力,使其能在动态环境中规划、执行和优化复杂任务。 经过生产级性能的训练,M2.7能处理包括实时侦错、根本原因分析、金融建模以及跨 Word、Excel 和 PowerPoint 的完整文件生成等工作流程。它在 SWE-Pro 基准测试中达到 56.2% 的成绩,在 Terminal Bench 2 基准测试中达到 57.0%,同时在 GDPval-AA 上达到 1495 ELO 分数,为实际数位工作流程中运作的多代理系统设立了新的标准。

输入¥2.058¥2.1/M Tokens
输出¥8.232¥8.4/M Tokens
大模型
gpt-oss-20b
七牛云

GPT-oss-20b是由OpenAI于2025年8月5日发布的开放权重AI模型,总参数210亿,每token激活36亿参数,专为低延迟、本地化场景设计,可在16GB内存的边缘设备运行 。该模型采用混合专家(MoE)架构,基于Transformer框架,结合密集注意力和局部带状稀疏注意力机制,支持128,000 token的上下文长度。根据技术报告显示,其性能与o3-mini相当,在AIME和HealthBench等测试中表现更佳

输入¥0.768¥0.8/M Tokens
输出¥3.456¥3.6/M Tokens
大模型
glm-4.6v
优云智算

GLM-4.6V 系列是 GLM 系列在多模态方向上的一次重要迭代,包含 GLM-4.6V(旗舰版)、GLM-4.6V-FlashX(轻量高速版)、GLM-4.6V-Flash(完全免费)。它将训练时上下文窗口提升到128k tokens,在视觉理解精度上达到同参数规模 SOTA,并首次在模型架构中将 Function Call(工具调用)能力原生融入视觉模型,打通从「视觉感知」到「可执行行动(Action)」的链路,为真实业务场景中的多模态 Agent 提供统一的技术底座。

输入¥0.98¥1/M Tokens
输出¥2.94¥3/M Tokens
大模型
kimi-k2.5
七牛云

Kimi 是一款AI智能助手,由 Moonshot 自研的大语言模型驱动,支持在线搜索、深度思考、多模态推理和超长文本对话。

输入¥3.84¥4/M Tokens
输出¥20.16¥21/M Tokens
大模型
mimo-v2-pro
优云智算

MiMo-V2-Pro 是小米的旗舰基础模型,拥有超过 1T 的总参数量和 1M 的上下文长度,深度优化以适应代理场景。它能高度适应 OpenClaw 等通用代理框架。在标准的 PinchBench 和 ClawBench 基准测试中,其表现排名全球顶尖,感知性能接近 Opus 4.6。 MiMo-V2-Pro 设计用于作为代理系统的大脑,协调复杂的工作流程,推动生产工程任务,并可靠地交付结果。

输入¥6.86¥7/千万token
输出¥20.58¥21/千万token
大模型
seed-2.0-mini
七牛云

Seed-2.0-mini 针对延迟敏感、高并发及成本敏感的场景,强调快速反应和灵活的推论部署。它提供与 ByteDance-Seed-1.6 相当的性能,支援 256k 语境,四种推理努力模式(最小/低/中/高),多模态理解,并针对轻量级任务进行优化,其中成本和速度优先。

输入¥0.384¥0.4/M Tokens
输出¥3.84¥4/M Tokens
大模型
minimax-m2.5-highspeed
七牛云

MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。

输入¥4.032¥4.2/M Tokens
输出¥16.128¥16.8/M Tokens
大模型
seed-2.0-mini
优云智算

Seed-2.0-mini 针对延迟敏感、高并发及成本敏感的场景,强调快速反应和灵活的推论部署。它提供与 ByteDance-Seed-1.6 相当的性能,支援 256k 语境,四种推理努力模式(最小/低/中/高),多模态理解,并针对轻量级任务进行优化,其中成本和速度优先。

输入¥0.588¥0.6/M Tokens
输出¥3.528¥3.6/M Tokens
大模型
glm-5
七牛云

GLM-5 是智谱推出的新一代大语言模型,专注于复杂系统工程和长周期 Agent 任务。模型规模 744B 参数(40B 激活),预训练数据 28.5T tokens。

输入¥3.84¥4/M Tokens
输出¥17.28¥18/M Tokens
文本处理

文本处理API是一款功能强大的文本分析服务,提供文本分词、关键信息抽取、分类、词性语法分析等功能。该API具有高效、准确、灵活和易用的特点,兼容多种编程语言和平台,适合各种用户在多种场景下使用。

会员免费
大模型
glm-4.7
七牛云

GLM-4.7 系列是智谱旗舰模型,面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得开源模型中的出色表现。通用能力提升,回复更简洁自然,写作更具沉浸感。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。

输入¥3.0413¥3.168/M Tokens
输出¥12.0269¥12.528/M Tokens
大模型
minimax-m2.5
硅基流动

MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。

输入¥2.1/M Tokens
输出¥8.4/M Tokens
大模型
qwen3.5-27b
硅基流动

Qwen3.5 27B 本地视觉语言密集模型整合了线性注意机制,提供快速反应时间同时平衡推论速度与效能。其整体能力与 Qwen3.5-122B-A10B 相当。

输入¥0.6/M Tokens
输出¥4.8/M Tokens
大模型
glm-5
算能

GLM-5 是智谱推出的新一代大语言模型,专注于复杂系统工程和长周期 Agent 任务。模型规模 744B 参数(40B 激活),预训练数据 28.5T tokens。

输入¥3.92¥4/M Tokens
输出¥15.68¥16/M Tokens
大模型
deepseek-v4-flash
硅基流动

DeepSeek V4 Flash 是深度求索(DeepSeek)推出的一款效率优化型混合专家模型,总参数量达 2840 亿,单次激活参数量仅 130 亿,支持百万级超长上下文窗口(100 万令牌)。该模型专为高速推理与高吞吐业务场景打造,同时具备出色的逻辑推理与代码编写能力。 模型搭载混合注意力机制,可高效处理超长上下文文本,并支持推理模式自定义配置。非常适配代码助手、智能对话系统、智能代理工作流等对响应速度与成本可控性要求较高的落地场景。

输入¥1/M Tokens
输出¥2/M Tokens
大模型
kimi-k2.5
算能

Kimi 是一款AI智能助手,由 Moonshot 自研的大语言模型驱动,支持在线搜索、深度思考、多模态推理和超长文本对话。

输入¥3.92¥4/M Tokens
输出¥20.58¥21/M Tokens
大模型
deepseek-v3.2
七牛云

‌DeepSeek-V3.2‌ 是由深度求索(DeepSeek)于2025年12月正式发布的旗舰级大语言模型,面向日常问答、通用智能体(Agent)任务及复杂推理场景优化。截至2026年3月30日,该模型已全面恢复服务,并成为官方网页端、App和API的默认版本 ‌

输入¥1.6¥2/M Tokens
输出¥2.4¥3/M Tokens
大模型
deepseek-v3.2
算能

‌DeepSeek-V3.2‌ 是由深度求索(DeepSeek)于2025年12月正式发布的旗舰级大语言模型,面向日常问答、通用智能体(Agent)任务及复杂推理场景优化。截至2026年3月30日,该模型已全面恢复服务,并成为官方网页端、App和API的默认版本 ‌

输入¥1.96¥2/M Tokens
输出¥2.94¥3/M Tokens
大模型
minimax-m2.5
算能

MiniMax-M2.5是MiniMax于2026年2月发布的最新旗舰模型,基于大规模强化学习在数十万真实复杂环境中深度训练而成。

输入¥2.352¥2.4/M Tokens
输出¥9.408¥9.6/M Tokens
大模型
deepseek-v4-pro
算能

DeepSeek V4 Pro 是深度求索(DeepSeek)推出的一款大规模混合专家大模型,总参数量 1.6 万亿,激活参数量 490 亿,支持百万级超长上下文窗口。该模型专为高阶逻辑推理、代码开发及长周期智能体任务流程打造,在知识问答、数理运算、软件工程等各类基准测试中均具备顶尖性能表现。 本模型与 DeepSeek V4 Flash 采用同源架构,搭载混合注意力机制,可高效处理超长文本内容;同时提供多档推理模式,能够根据不同任务灵活平衡推理速度与思考深度。适用于完整代码库解析、多步骤自动化流程、大规模信息整合等高复杂度业务场景,完美兼顾模型综合能力与运行效率。

输入¥12/M Tokens
输出¥24/M Tokens
大模型
glm-5-turbo
算能

GLM-5 Turbo 是 Z.ai 推出的一款全新模型,专为 OpenClaw 等基于代理的场景而设计,旨在实现快速推理和卓越性能。它针对涉及长执行链的真实代理工作流程进行了深度优化,改进了复杂指令分解、工具使用、调度和持续执行,以及在扩展任务中的整体稳定性。

输入¥4.9¥5/M Tokens
输出¥21.56¥22/M Tokens
IPv4归属地-国内街道级

全球IPv4归属地查询-国内街道级-国内版套餐可查询中国地区(含港澳台)IPv4归属地信息,返回字段包括所属七大洲、国家、国家英文简写、省份、城市、区县、街道、经度、纬度、行政区码、运营商、时区、海发、气象站、邮编、城市代码 。

单独计费
大模型
deepseek-v4-flash
算能

DeepSeek V4 Flash 是深度求索(DeepSeek)推出的一款效率优化型混合专家模型,总参数量达 2840 亿,单次激活参数量仅 130 亿,支持百万级超长上下文窗口(100 万令牌)。该模型专为高速推理与高吞吐业务场景打造,同时具备出色的逻辑推理与代码编写能力。 模型搭载混合注意力机制,可高效处理超长上下文文本,并支持推理模式自定义配置。非常适配代码助手、智能对话系统、智能代理工作流等对响应速度与成本可控性要求较高的落地场景。

输入¥1/M Tokens
输出¥2/M Tokens