自动完成 Completions

给定一个提示,该模型将返回一个或多个预测的完成,并且还可以返回每个位置的替代标记的概率。 OpenAi 中文官方api文档

创建"自动完成"

post https://api.openai.com/v1/completions

根据提供的提示词和参数创建自动完成

请求示例

bash
Curl
bash
curl https://api.openai.com/v1/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -d '{
    "model": "text-davinci-003",
    "prompt": "Say this is a test",
    "max_tokens": 7,
    "temperature": 0
  }'

参数示例

json
{
  "model": "text-davinci-003",
  "prompt": "Say this is a test",
  "max_tokens": 7,
  "temperature": 0,
  "top_p": 1,
  "n": 1,
  "stream": false,
  "logprobs": null,
  "stop": "\n"
}

响应示例

json
{
  "id": "cmpl-uqkvlQyYK7bGYrRHQ0eXlWi7",
  "object": "text_completion",
  "created": 1589478378,
  "model": "text-davinci-003",
  "choices": [
    {
      "text": "\n\nThis is indeed a test",
      "index": 0,
      "logprobs": null,
      "finish_reason": "length"
    }
  ],
  "usage": {
    "prompt_tokens": 5,
    "completion_tokens": 7,
    "total_tokens": 12
  }
}

请求体

model : string 必需的

要使用的模型的 ID。 您可以使用列出模型 API 查看所有可用模型,或查看我们的模型概述以获得对它们的描述。

prompt : string or array 可选的 默认值:<|endoftext|>

生成完成的提示,编码为字符串、字符串数组、标记数组或标记数组数组。

请注意,<|endoftext|> 是模型在训练期间看到的文档分隔符,因此如果未指定提示,模型将生成新文档的开头。

suffix : string 可选的 默认值:null

插入文本完成后出现的后缀。

max_tokens : integer 可选的 默认值:16

完成时生成的令牌 的最大数量。

提示的标记数加上“max_tokens”不能超过模型的上下文长度。 大多数模型的上下文长度为 2048 个标记(最新模型除外,它支持 4096)。

temperature : number 可选的 默认值:1

使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。

我们通常建议更改此选项或 top_p,但不要同时更改两者。

top_p : number 可选的 默认值:1

一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。 所以 0.1 意味着只考虑构成前 10% 概率质量的标记。

我们通常建议改变这个或“温度”,但不能同时改变两者。

n : integer 可选的 默认值:1

为每个提示生成多少完成。

因为这个参数会产生很多完成,它会很快消耗你的令牌配额。 请谨慎使用并确保您对 max_tokens 和 stop 进行了合理的设置。

stream : boolean 可选的 默认值:false

是否回流部分进度。 如果设置,令牌将作为纯数据 服务器发送事件 发送,因为它们 变得可用,流由 data: DONE 消息终止。

logprobs : integer 可选的 默认值:null

在“logprobs”最有可能的标记以及所选标记上包括对数概率。 例如,如果 logprobs 为 5,API 将返回 5 个最有可能的标记的列表。 API 将始终返回采样令牌的“logprob”,因此响应中最多可能有“logprobs+1”个元素。

logprobs 的最大值为 5。如果您需要更多,请通过我们的帮助中心 联系我们并描述您的用例。

echo : boolean 可选的 默认值:false

除了完成之外回显提示

stop string or array 可选的 默认值:null

API 将停止生成更多令牌的最多 4 个序列。 返回的文本将不包含停止序列。

presence_penalty : number 可选的 默认值:0

-2.0 和 2.0 之间的数字。 正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。请参阅有关频率和存在惩罚的更多信息

frequency_penalty : number 可选的 默认值:0

-2.0 和 2.0 之间的数字。 正值会根据到目前为止文本中的现有频率对新标记进行惩罚,从而降低模型逐字重复同一行的可能性。请参阅有关频率和存在惩罚的更多信息

best_of : integer 可选的 默认值:1

注意: 因为这个参数会产生很多完成,它会很快消耗你的令牌配额。 请谨慎使用并确保您对 max_tokens 和 stop 进行了合理的设置。

logit_bias : map 可选的 默认值:null

修改指定标记出现在完成中的可能性。

接受一个 json 对象,该对象将令牌(由 GPT 令牌生成器中的令牌 ID 指定)映射到从 -100 到 100 的关联偏差值。您可以使用此 [令牌生成器工具](https://platform.openai.com/tokenizer? view=bpe)(适用于 GPT-2 和 GPT-3)将文本转换为令牌 ID。 从数学上讲,偏差会在采样之前添加到模型生成的对数中。 确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性; 像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。

例如,您可以传递 {"50256": -100} 以防止生成 <|endoftext|> 标记。

user : string 可选的

代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。 了解更多