内容完成接口 /v1/completions
POST
/v1/completions请求参数
Body 参数application/json
model
enum<string> <string>
模型名称
枚举值:
text-davinci-003text-davinci-002text-curie-001text-babbage-001text-ada-001
prompt
string
输入的提示
suffix
string <string>
可选
完成插入文本后的后缀。
max_tokens
integer
可选
最大的 tokens, 每个模型的 tokens 不一样,提示加 max_tokens 的令牌计数不能超过模型的上下文长度。
temperature
number <float32>
可选
使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使其更加集中和确定。
top_p
number <float32>
可选
使用温度采样的替代方法称为核心采样,其中模型考虑具有top_p概率质量的令牌的结果。因此,0.1 意味着只考虑包含前 10% 概率质量的代币。
n
integer
生成内容的条数
stream
boolean
是否为流数据返回
logprobs
integer
可选
包括 logprobs 个最可能的令牌的日志概率,以及所选令牌。例如,如果 logprobs 是 5,则 API 将返回 5 个最可能的令牌的列表。API 将始终返回采样令牌的 logprob ,因此响应中最多可能有 logprobs+1 个元素。
echo
boolean
可选
除了完成之外,还回显提示
stop
array[string <string>]
可选
最多 4 个序列,其中 API 将停止生成更多令牌。返回的文本将不包含停止序列。
presence_penalty
number <float32>
可选
介于 -2.0 和 2.0 之间的数字。正值会根据新标记到目前为止是否出现在文本中来惩罚它们,从而增加模型讨论新主题的可能性。
frequency_penalty
number <float32>
可选
介于 -2.0 和 2.0 之间的数字。正值会根据新标记到目前为止在文本中的现有频率来惩罚新标记,从而降低模型逐字重复同一行的可能性。
best_of
integer
可选
在服务器端生成 best_of 个完成并返回“最佳”(每个令牌的日志概率最高的那个)。无法流式传输结果。
logit_bias
object
可选
额外字段
integer
可选
user
string <string>
可选
示例
{
"model": "text-davinci-003",
"prompt": "Say this is a test"
}
示例代码
返回响应
成功(200)
HTTP 状态码: 200
内容格式: JSONapplication/json
数据结构
id
string
必需
object
string
必需
created
integer
必需
model
string
使用的模型
choices
array [object {4}]
必需
text
string
响应的内容
index
integer
可选
logprobs
null
可选
finish_reason
string
可选
usage
object
消耗
prompt_tokens
integer
必需
输入的 tokens
completion_tokens
integer
必需
响应的 tokens
total_tokens
integer
必需
总的消耗 tokens, prompt+completion
示例
{
"id": "cmpl-uqkvlQyYK7bGYrRHQ0eXlWi7",
"object": "text_completion",
"created": 1589478378,
"model": "text-davinci-003",
"choices": [
{
"text": "\n\nThis is indeed a test",
"index": 0,
"logprobs": null,
"finish_reason": "length"
}
],
"usage": {
"prompt_tokens": 5,
"completion_tokens": 7,
"total_tokens": 12
}
}
最后修改时间: 2 年前