Skip to main content

接口

POST https://api.omniakey.com/v1/chat/completions
此接口完全兼容 OpenAI Chat Completions API。可使用任何 OpenAI 兼容 SDK 或直接发起 HTTP 请求。

请求示例

from openai import OpenAI

client = OpenAI(
    api_key="your-omniakey-api-key",
    base_url="https://api.omniakey.com/v1"
)

response = client.chat.completions.create(
    model="gpt-4o",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "法国的首都是哪里?"}
    ],
    temperature=0.7,
    max_tokens=256
)

print(response.choices[0].message.content)

响应

{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1709251200,
  "model": "gpt-4o",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "法国的首都是巴黎。"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 25,
    "completion_tokens": 8,
    "total_tokens": 33
  }
}

流式输出

启用流式输出,通过 Server-Sent Events (SSE) 实时接收部分响应:
stream = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": "给我讲个故事。"}],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.content is not None:
        print(chunk.choices[0].delta.content, end="")

流式响应格式

每个 SSE 事件包含一个 JSON 片段:
data: {"id":"chatcmpl-abc123","object":"chat.completion.chunk","choices":[{"index":0,"delta":{"content":"法国"},"finish_reason":null}]}

data: {"id":"chatcmpl-abc123","object":"chat.completion.chunk","choices":[{"index":0,"delta":{"content":"的首都"},"finish_reason":null}]}

data: {"id":"chatcmpl-abc123","object":"chat.completion.chunk","choices":[{"index":0,"delta":{},"finish_reason":"stop"}]}

data: [DONE]

请求参数

model
string
required
要使用的模型 ID。示例:gpt-4oclaude-3-5-sonnetgemini-2.0-flashdeepseek-v3。查看支持的模型获取完整列表。
messages
array
required
对话中的消息列表。每条消息包含 rolesystemuserassistant)和 content(字符串)。
temperature
number
采样温度,范围 0 到 2。较高的值(如 0.8)使输出更随机,较低的值(如 0.2)使输出更确定。默认:1
max_tokens
integer
响应中生成的最大 Token 数。
stream
boolean
设为 true 时,通过 Server-Sent Events 逐步返回部分响应。默认:false
top_p
number
核采样参数。只考虑累积概率达到 top_p 的 Token。默认:1
frequency_penalty
number
根据 Token 在已生成文本中的出现频率进行惩罚。范围:-2.02.0。默认:0
presence_penalty
number
根据 Token 是否在已生成文本中出现过进行惩罚。范围:-2.02.0。默认:0
stop
string | array
最多 4 个停止序列,API 在生成到这些序列时会停止继续生成。
n
integer
为每条输入消息生成的对话补全数量。默认:1

支持的模型

供应商模型
OpenAIgpt-4o, gpt-4o-mini, o1, o1-mini, gpt-4-turbo
Anthropicclaude-4-sonnet, claude-3-5-sonnet, claude-3-5-haiku, claude-3-opus
Googlegemini-2.0-flash, gemini-2.0-pro, gemini-1.5-pro
DeepSeekdeepseek-v3, deepseek-r1
Metallama-3.3-70b, llama-3.1-405b, llama-3.1-70b
Mistralmistral-large, mixtral-8x22b, mistral-small

查看全部模型

查看完整列表