Chat Completions API接受一系列消息作为输入,并返回模型生成的消息作为输出。它支持自定义模型,适用于多轮对话和单轮任务。请求参数包括模型ID、消息内容、温度、top_p等。
OpenAI API允许开发者使用模型进行文本生成、图像生成、音频处理等任务。通过简单的API调用,开发者可以快速集成这些功能到自己的应用中。
Claude API 提供多种模型,包括Haiku、Sonnet和Opus,适用于不同复杂度的任务。支持自服务部署,提供基于使用量的定价和自动增加的速率限制。适用于编码、生产力和客户支持等多种场景。
Gemini API 提供了多种 AI 模型,包括 Gemini 2.5 Pro、Gemini 2.5 Flash、Veo 2、Imagen 4 和 Gemini Embeddings,支持图像生成、长上下文理解和结构化输出等功能。开发者可以通过简单的 API 调用快速集成这些功能到自己的应用中。
专业模型API集成了多个专业模型,如北大法律模型、轩辕金融模型、法睿法律模型和阿里数学模型。支持多种搜索模式,包括sonar-pro、sonar、sonar-reasoning-pro等,每次调用的搜索次数和最大输出量有所不同。此外,还提供了来自智诊科技的模型,如zzkj、zzkj-think、zzkj-lite和zzkj-genetics。
该API支持多种图片生成模型,包括dall-e、stable、flux等系列模型,支持通过prompt生成图片,部分模型支持图生图功能。API支持application/json与multipart/form-data两种传参方式,生成的图片格式默认为png。
允许用户通过提供文本提示来生成图像。用户可以选择图像的大小,支持1024x1024、1536x1024(横屏)和1024x1536(竖屏)三种尺寸。API的请求方式为POST,请求头需要包含Authorization字段,请求体需要包含prompt和size字段。
用户可以通过提供文本描述来生成图像,支持生成1到10张图像,并可选择不同尺寸。API支持DALL·E 3和DALL·E 2模型,适用于需要快速生成图像的应用场景。
Stability.ai 图像生成 API 通过 POST 请求调用,支持多部分表单数据。必须包含 API 密钥和提示字段,可选参数包括图像、强度、宽高比等。生成的图像分辨率为 1 百万像素,默认分辨率为 1024x1024。
通过该API,用户可以提交Imagine任务并获取任务ID,然后根据任务ID获取任务结果。API支持多种模式,包括混合模式、fast模式和relax模式,不同模式价格不同。
图片生成API允许用户通过提供宽度、高度、提示词和负面提示词等参数,生成指定内容的图片。API运行在302.AI的云GPU上,平均运行时长为5-10秒。
Glif API 允许用户通过输入文本、图像或按钮点击,利用强大的AI模型生成文本、图像、视频或组合输出。可以用于创建表情包生成器、AI自拍生成器、漫画、塔罗牌等。
FLUX API 提供了全球和区域性的端点,支持异步图像生成请求。用户首先提交生成请求,然后通过轮询获取结果。API支持多种模型,如flux-kontext-pro和flux-pro-1.1,并提供了详细的代码示例和限制说明。
该API允许用户通过提供文字提示生成图片,支持不同的渲染速度选项,包括TURBO、DEFAULT和QUALITY。API请求需要包含prompt参数,可选地可以指定rendering_speed。
该API提供了多种图像生成和编辑功能,包括生成光栅和矢量图像、创建自定义风格、图像矢量化、背景移除等。用户可以通过API生成符合品牌风格和颜色的图像,并进行精细的图像编辑。
该API允许用户通过POST请求提交绘画提示词和图片比例,生成相应的图片。请求需要包含Authorization头部和JSON格式的Body参数。成功响应将返回生成的图片URL和其他相关信息。
图像生成API支持多种风格和场景的图像生成,如东方诗意、科幻、游戏场景等。用户可以根据需求选择不同的风格和比例,生成高质量的图像。
该API通过POST请求生成图片,支持多种宽高比,平均运行时长为5-10秒,每次调用价格为0.1 PTC。
Minimax海螺文字生成图片允许用户通过提供描述性prompt生成图像,支持多种宽高比和返回格式(URL或Base64)。用户可控制生成图片的数量、随机种子及是否开启prompt自动优化。
此API使用cogview-4模型,支持多种图片尺寸,用户可通过简单的POST请求,传入文字描述和模型参数,即可生成对应的图片。默认图片尺寸为1024x1024。
该API通过POST请求,接收模型名称、文字描述和可选参考图片链接,生成符合描述的图片。支持ERNIE-iRAG-1.0模型,特点是会检索真实图片再进行生成,减少幻觉。
该API通过POST请求接收用户提供的提示和图片尺寸参数,生成符合要求的图片。平均运行时长为5-10秒,每次调用价格为0.05 PTC。
BAGEL是一个原生支持多模态输入输出、思维链推理和MoE架构优化的跨模态超级AI。它通过数万亿token的交错多模态数据集预训练,具备强大的泛化能力和世界知识。BAGEL在10+多模态基准测试中超越Qwen2.5-VL、InternVL-2.5,图像生成媲美SD3,推理能力接近GPT-4o。
此API基于Kwai-Kolors/Kolors模型,用户可以通过输入文本提示或结合图像来生成图片。支持多种分辨率如1024x1024、960x1280等,并可设置生成图片的数量、生成步长、引导比例等参数。生成的图片可以通过API返回的URL访问。
该API提供生成图片的功能,每次调用生成4张图片,支持多模板和自定义比例。通过Character接口上传图片获取特征值,并设置特征强度。提交任务后可通过Fetch接口查询结果。
可灵系列模型 API 支持标准(720p)和高品质(1080p)两种模式,标准模式刊例价低至 2 积分/5s、高品质模式刊例价低至 3.5 积分/5s。
该API利用通义万相生图模型,根据输入的生成图像。支持多种模型版本,包括极速版和专业版,适用于创意设计、质感人像等多种场景。用户可通过设置参数调整生成图像的分辨率、数量等。
通过comfyUI复杂工作流实现的图像处理服务,包括换装、换脸、风格迁移、漫画人物转真人以及内容消除等多种功能。运行时长3-5分钟。
该API允许用户通过上传位图图像,自动将其转换为矢量图像。支持多种输出格式,如SVG、EPS、PDF等,并提供丰富的处理选项,如颜色控制、形状优化等。
该API允许用户通过上传原始图片等,快速修改图片中的指定物体。支持两种模式:快速模式和高质量模式,用户可以根据需求选择。
BRIA AI API 提供多种功能,包括使用预训练模型生成图像、训练自定义模型、生成广告、编辑产品图像和视频等。API 支持 REST 调用,并提供详细的错误处理和速率限制。
Hyper3D Rodin Generation API 允许用户通过上传图像或提供文本提示来生成3D模型和纹理。API支持多种生成模式,包括Image-to-3D和Text-to-3D,并提供多种参数来控制生成结果的质量、材质、文件格式等。
Tripo3D Generation API 支持从图像、文本和多视图生成3D模型,并提供模型的纹理和精炼处理功能。用户可以通过指定不同的参数来控制模型的生成过程,如模型版本、纹理质量、自动缩放等。
该API通过提交人物和服装图片到指定的端点,生成高质量的虚拟试衣效果。支持多种参数配置,如处理模式、输出格式等,适用于各种虚拟试衣场景。
该API允许用户通过提供图片URL和提示词,对图片进行修改。请求需要包含Authorization头信息和JSON格式的Body参数,包括提示词和图片URL。API返回修改后的图片信息,包括完成时间、创建时间、错误信息、ID、模型、输出、开始时间和状态。
Bagel-Edit API允许用户通过提供提示词和图片URL来修改图片,支持多种编程语言调用,价格为0.15 PTC/次。
该API通过输入图片URL,生成高质量的3D模型。请求需要授权,返回包括模型生成状态、时间戳等信息。
该接口支持以form-data和JSON两种方式进行参数传递,主要关注获取task_id。用户可以通过data字段查询其他信息。价格根据对应的视频模型进行收费。
该API利用部署在云GPU上的模型,将用户上传的图片转换为2秒的视频。平均运行时长为2-5分钟。
该API允许用户上传一张图片,通过Stable Video Diffusion技术生成一个短视频。用户可以通过调整参数如cfg_scale和motion_bucket_id来控制视频的生成效果。
Luma AI 文/图生视频API基于Luma AI的技术,用户可以通过提供文字提示或图片生成5秒的视频。API支持指定视频的首尾帧画面,并可以选择是否生成循环视频。生成的视频质量依赖于AI的能力,首尾帧画面的连接效果可能因AI限制而有所不同。
Runway API 是一个用于生成视频的API,支持企业级规模的使用,提供更高的速率限制和定制化服务。API的价格与网页应用相匹配,具体价格根据视频时长而定。
可灵AI API利用可图和可灵大模型技术,支持开发者进行AI图片和视频的生成与编辑,适用于个人和企业开发者,提供Web端和移动端的集成解决方案。
该API允许用户通过提交文本描述或图像来生成视频。任务提交后,用户可以通过查询接口获取生成结果。API支持异步调用,请求和响应格式均为JSON。
视频生成API采用异步方式,包含创建任务、查询任务状态和文件管理三个步骤。用户可通过文本描述和参考图片生成视频,支持多种分辨率和时长。
该API支持多种Pika模型效果,如Cake-ify、Crumble、Crush等,用户可以通过上传图片和提供文本提示来生成视频。API支持多种编程语言调用,并提供了详细的请求参数和示例代码。
该API允许用户通过文字及上传图片生成视频,支持多种视频质量(360p、540p、720p、1080p)和时长(4s、8s)选项,以及不同的动作模式(normal、fast)。价格根据视频质量和时长动态计算。
允许用户通过文本提示生成视频。用户可以通过POST请求提交文本提示,并可选地启用提示扩展和设置随机种子。API会返回请求的状态、队列位置和请求ID等信息。
该API通过将静态人像照片与语音合成,生成动态视频。视频时长由音频时长决定,按秒计费。支持通过URL指定头像和音频资源。
LTX-Video API 支持文本到视频、图像到视频、关键帧动画、视频扩展等多种功能,能够在1216×704分辨率下生成30 FPS的视频。该模型经过大规模多样化视频数据集的训练,能够生成高分辨率且内容丰富的视频。
该API允许用户通过提供文字提示来生成视频,处理时间通常为10-20分钟。支持自定义种子和回调地址,适用于需要视频内容生成的场景。
Vidu 支持文生视频、图生视频、参考生视频及智能超清功能,适用于互动娱乐、影视动画、广告制作等领域,提供高质量视频生成能力。
该API通过POST请求,接收文字提示或图片示例及视频比例参数,生成相应的视频。支持多种视频比例。
即梦视频生成API支持文生视频和图生视频,最长支持5秒的视频生成。价格按Token计算,计算公式为token=宽×高×帧率×时长/1024。等待时间为1-5分钟。
硅基流动视频生成API允许用户通过指定模型和提示词生成视频。支持多种模型,包括HunyuanVideo和Wan-AI系列模型。用户可以通过POST请求提交生成任务,并获取任务ID。
允许用户通过文字或图文生成视频,支持多种模型如 veo3-fast、veo3-fast-frames、veo3-pro 和 veo3-pro-frames。用户需提供 prompt、model、enhance_prompt 和 images 参数,API 会根据所选模型进行扣费。
该API通过POST请求,接收图片URL和提示词等参数,生成视频。支持调整引导比例、推理步骤和宽高比。
该API利用higgsfield.ai的视频生成模型,通过输入图片生成视频。支持传入1或2个模板,效果会自动叠加。提示词会影响最终效果,建议不填提示词以获得最佳效果。
此API允许用户通过指定数字人形象、音频内容、背景颜色或图片等参数,生成定制化的视频。用户可以通过文本或音频文件驱动数字人,并设置视频的分辨率、字幕等细节。
MJ-Video API允许用户通过提供图片和提示词生成视频。每次任务生成4个视频,每个视频5秒。请求需要API Key、提示词、运动幅度和首帧图片。
Topview API 提供多种功能,包括将URL转换为视频、创建虚拟人物视频、展示产品虚拟人物以及生成产品展示视频。用户可以通过简单的API调用,快速生成高质量的视频内容,适用于电商、社交媒体等多种场景。
多模态音频视频处理接口,涵盖语音转文字、文字转语音、配音生成、音乐创作及视频理解。
该API可以将输入文本转换为音频,支持6种内置声音,适用于为博客配音、制作多语言音频以及实时流媒体输出。支持多种音频格式和速度调节。
该API允许用户输入一个关键词,自动生成一首歌曲。用户可以选择不同的模型和是否生成纯音乐。API的请求需要包含歌曲灵感、模型选择和是否为纯音乐的参数。
该API提供音视频处理功能,支持多种音色和音频格式(如wav、pcm、ogg_opus、mp3),并允许调整语速。请求参数包括音色类型、音频编码、语速比例等,返回数据为JSON格式,音频文件需自行解析。