接口
请求示例
响应
流式输出
启用流式输出,通过 Server-Sent Events (SSE) 实时接收部分响应:流式响应格式
每个 SSE 事件包含一个 JSON 片段:请求参数
要使用的模型 ID。示例:
gpt-4o、claude-3-5-sonnet、gemini-2.0-flash、deepseek-v3。查看支持的模型获取完整列表。对话中的消息列表。每条消息包含
role(system、user 或 assistant)和 content(字符串)。采样温度,范围 0 到 2。较高的值(如 0.8)使输出更随机,较低的值(如 0.2)使输出更确定。默认:
1。响应中生成的最大 Token 数。
设为
true 时,通过 Server-Sent Events 逐步返回部分响应。默认:false。核采样参数。只考虑累积概率达到
top_p 的 Token。默认:1。根据 Token 在已生成文本中的出现频率进行惩罚。范围:
-2.0 到 2.0。默认:0。根据 Token 是否在已生成文本中出现过进行惩罚。范围:
-2.0 到 2.0。默认:0。最多 4 个停止序列,API 在生成到这些序列时会停止继续生成。
为每条输入消息生成的对话补全数量。默认:
1。支持的模型
| 供应商 | 模型 |
|---|---|
| OpenAI | gpt-4o, gpt-4o-mini, o1, o1-mini, gpt-4-turbo |
| Anthropic | claude-4-sonnet, claude-3-5-sonnet, claude-3-5-haiku, claude-3-opus |
gemini-2.0-flash, gemini-2.0-pro, gemini-1.5-pro | |
| DeepSeek | deepseek-v3, deepseek-r1 |
| Meta | llama-3.3-70b, llama-3.1-405b, llama-3.1-70b |
| Mistral | mistral-large, mixtral-8x22b, mistral-small |
查看全部模型
查看完整列表