聊天接口 /v1/chat/completions
POST
/v1/chat/completionsOpenAI 对话模型接口,兼容文心一言
请求参数
Body Params application/json
model
enum<string> <string>
required
模型
Allowed values:
ernie-boternie-bot-turbo
messages
$ref(#/definitions/49279767)[]
required
消息
#/definitions/49279767
optional
temperature
number <float32>
optional
使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使其更加集中和确定。
top_p
number <float32>
optional
使用温度采样的替代方法称为核心采样,其中模型考虑具有top_p概率质量的令牌的结果。因此,0.1 意味着只考虑包含前 10% 概率质量的代币。
stream
boolean
optional
是否流数据返回,为true则已 sse 流返回数据,sse 请查看 :https://developer.mozilla.org/en-US/docs/Web/API/Server-sent_events/Using_server-sent_events#event_stream_format
user
string <string>
optional
代表最终用户的唯一标识符,可帮助 OpenAI 监控和检测滥用行为。了解更多信息。
Example
{
"model": "ernie-bot",
"messages": [
{
"role": "user",
"content": "讲个笑话"
}
]
}
示例代码
Responses
成功(200)
请求有误(400)
HTTP 状态码: 200
内容格式: JSONapplication/json
Data Schema
id
string
required
object
string
required
created
integer
required
choices
array [object {3}]
required
index
integer
optional
message
object
optional
消息
finish_reason
string
optional
usage
object
required
消耗
prompt_tokens
integer
required
输入 tokens
completion_tokens
integer
required
响应 tokens
total_tokens
integer
required
总消耗 tokens, prompt+completion
Example
{
"id": "chatcmpl-123",
"object": "chat.completion",
"created": 1677652288,
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "\n\nHello there, how may I assist you today?",
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 9,
"completion_tokens": 12,
"total_tokens": 21
}
}
Last modified: 1 年前