聊天接口 /v1/chat/completions
POST
/v1/chat/completionsOpenAI 对话模型接口,兼容文心一言
请求参数
Body 参数application/json
model
enum<string> <string>
模型
枚举值:
ernie-boternie-bot-turbo
messages
$ref(#/definitions/49279767)[]
消息
#/definitions/49279767
可选
temperature
number <float32>
可选
使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使其更加集中和确定。
top_p
number <float32>
可选
使用温度采样的替代方法称为核心采样,其中模型考虑具有top_p概率质量的令牌的结果。因此,0.1 意味着只考虑包含前 10% 概率质量的代币。
stream
boolean
可选
是否流数据返回,为true则已 sse 流返回数据,sse 请查看 :https://developer.mozilla.org/en-US/docs/Web/API/Server-sent_events/Using_server-sent_events#event_stream_format
user
string <string>
可选
代表最终用户的唯一标识符,可帮助 OpenAI 监控和检测滥用行为。了解更多信息。
示例
{
"model": "ernie-bot",
"messages": [
{
"role": "user",
"content": "讲个笑话"
}
]
}
示例代码
返回响应
成功(200)
请求有误(400)
HTTP 状态码: 200
内容格式: JSONapplication/json
数据结构
id
string
必需
object
string
必需
created
integer
必需
choices
array [object {3}]
必需
index
integer
可选
message
object
消息
finish_reason
string
可选
usage
object
消耗
prompt_tokens
integer
输入 tokens
completion_tokens
integer
响应 tokens
total_tokens
integer
必需
总消耗 tokens, prompt+completion
示例
{
"id": "chatcmpl-123",
"object": "chat.completion",
"created": 1677652288,
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "\n\nHello there, how may I assist you today?",
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 9,
"completion_tokens": 12,
"total_tokens": 21
}
}
修改于 1 年前