支持的模型
支持 OpenAI 所有模型,请参考下面的文档详情
使用方式
from openai import OpenAI
client = OpenAI(
api_key = "自己的API key",
base_url = "https://api.fe8.cn/v1"
)
chat_completion = client.chat.completions.create(
messages=[
{
"role": "user",
"content": "讲个笑话",
}
],
model="gpt-3.5-turbo",
)
print(chat_completion.choices[0].message.content)
以下是改写成中文版的 Markdown 格式内容:
模型
最新模型 o1 使用方式:
每次接口调用的总消耗情况:
-
消耗 10 次:
- o1-preview
- o1-preview-2024-09-12
-
消耗 4 次:
- o1-mini
- o1-mini-2024-09-12
o1 系列大型语言模型的介绍:
o1 系列的模型通过强化学习训练,旨在执行复杂推理任务。o1 模型在回答用户问题之前,会先进行长时间的内部思考,生成一系列推理链条。
你可以在我们的推理指南中了解 o1 模型的能力和局限性。
今天有两种模型类型可用:
- o1-preview:专为跨领域解决困难问题设计的推理模型。
- o1-mini:更快速、更经济的推理模型,特别擅长编码、数学和科学问题。
模型类型 | 描述 | 上下文窗口 | 最大输出标记数 | 训练数据 |
---|---|---|---|---|
o1-preview | 指向最新的 o1 模型快照: | 128,000 tokens | 32,768 tokens | 截至 2023 年 10 月 |
o1-preview-2024-09-12 | 最新的 o1 模型快照 | 128,000 tokens | 32,768 tokens | 截至 2023 年 10 月 |
o1-mini | 指向最新的 o1-mini 模型快照: | 128,000 tokens | 65,536 tokens | 截至 2023 年 10 月 |
o1-mini-2024-09-12 | 最新的 o1-mini 模型快照 | 128,000 tokens | 65,536 tokens | 截至 2023 年 10 月 |
旗舰模型
GPT-4o
我们的高智能旗舰模型,适用于复杂的多步骤任务
- 支持文本和图像输入,输出文本
- 128k 上下文长度
- 优化智能性,每个令牌价格较高
GPT-4o mini
新发布 - 我们经济实惠且智能的小型模型,适用于快速、轻量级任务
- 支持文本和图像输入,输出文本
- 128k 上下文长度
- 优化速度,每个令牌价格较低
模型概览
OpenAI API 由一系列具有不同能力和价格的模型驱动。您还可以通过微调来为特定用例定制我们的模型。
模型 | 描述 |
---|---|
GPT-4o | 我们的高智能旗舰模型,适用于复杂的多步骤任务 |
GPT-4o mini | 我们经济实惠且智能的小型模型,适用于快速、轻量级任务 |
GPT-4 Turbo 和 GPT-4 | 之前一代的高智能模型 |
GPT-3.5 Turbo | 一个用于简单任务的快速、便宜的模型 |
DALL·E | 一个可以根据自然语言提示生成和编辑图像的模型 |
TTS | 一组可以将文本转换为自然语音的模型 |
Whisper | 一个可以将音频转换为文本的模型 |
Embeddings | 一组可以将文本转换为数值形式的模型 |
Moderation | 一个经过微调的模型,可以检测文本是否敏感或不安全 |
GPT base | 一组没有指令跟随功能的模型,可以理解和生成自然语言或代码 |
已弃用 | 已弃用模型的完整列表及其建议替代品 |
对于 GPT 系列模型,上下文窗口指的是单个请求中可以使用的最大令牌数,包括输入和输出令牌。
我们还发布了开源模型,包括 Point-E、Whisper、Jukebox 和 CLIP。
持续模型升级
gpt-4o
、gpt-4o-mini
、gpt-4-turbo
、gpt-4
和 gpt-3.5-turbo
指向它们各自的最新模型版本。您可以通过查看发送请求后的响应对象来验证这一点。响应将包括使用的特定模型版本(例如 gpt-3.5-turbo-1106
)。chatgpt-4o-latest
模型版本持续指向 ChatGPT 中使用的 GPT-4o 版本,并经常更新。
除了 chatgpt-4o-latest
,我们还提供固定的模型版本,开发者可以在更新的模型引入后至少继续使用三个月。随着新的模型更新节奏,我们还为开发者提供了贡献评估的机会,以帮助我们改进不同用例的模型。如果您感兴趣,请查看 OpenAI Evals 仓库。
了解更多关于模型弃用的信息,请查看我们的弃用页面。
GPT-4o
GPT-4o("o"代表"omni")是我们最先进的模型。它是多模态的(接受文本或图像输入并输出文本),具有与 GPT-4 Turbo 相同的高智能,但效率更高——文本生成速度提高 2 倍,成本降低 50%。此外,GPT-4o 在非英语语言方面具有最佳的视觉和性能表现。GPT-4o 在 OpenAI API 中对付费客户开放。了解如何在我们的文本生成指南中使用 GPT-4o。
模型 | 描述 | 上下文窗口 | 最大输出令牌 | 训练数据 |
---|---|---|---|---|
gpt-4o | GPT-4o:我们的高智能旗舰模型,适用于复杂的多步骤任务。GPT-4o 比 GPT-4 Turbo 更便宜、更快。目前指向 gpt-4o-2024-05-13 [1]。 | 128,000 令牌 | 4,096 令牌 | 截至 2023 年 10 月 |
gpt-4o-2024-05-13 | gpt-4o 目前指向此版本。 | 128,000 令牌 | 4,096 令牌 | 截至 2023 年 10 月 |
gpt-4o-2024-08-06 | 支持结构化输出的最新快照 | 128,000 令牌 | 16,384 令牌 | 截至 2023 年 10 月 |
chatgpt-4o-latest | 动态模型,持续更新为 ChatGPT 中的当前 GPT-4o 版本。用于研究和评估 [2]。 | 128,000 令牌 | 16,384 令牌 | 截至 2023 年 10 月 |
[1] 我们将在更新
gpt-4o
以指向新快照gpt-4o-2024-08-06
之前提供 3 周的通知。[2] 我们发布此模型是为了让开发者和研究人员探索 OpenAI 的最新研究。对于生产用途,OpenAI 建议使用针对 API 使用进行了优化的日期版 GPT 模型。
GPT-4o mini
GPT-4o mini("o"代表"omni")是我们在小型模型类别中最先进的模型,也是我们迄今为止最便宜的模型。它是多模态的(接受文本或图像输入并输出文本),比 gpt-3.5-turbo
具有更高的智能,但速度相同。它适用于较小的任务,包括视觉任务。
我们建议在之前使用 gpt-3.5-turbo
的地方选择 gpt-4o-mini
,因为这个模型更强大且更便宜。
模型 | 描述 | 上下文窗口 | 最大输出令牌 | 训练数据 |
---|---|---|---|---|
gpt-4o-mini | 新发布 GPT-4o-mini 我们经济实惠且智能的小型模型,适用于快速、轻量级任务。GPT-4o mini 比 GPT-3.5 Turbo 更便宜、更强大。目前指向 gpt-4o-mini-2024-07-18 。 | 128,000 令牌 | 16,384 令牌 | 截至 2023 年 10 月 |
gpt-4o-mini-2024-07-18 | gpt-4o-mini 目前指向此版本。 | 128,000 令牌 | 16,384 令牌 | 截至 2023 年 10 月 |
GPT-4 Turbo 和 GPT-4
GPT-4 是一个大型多模态模型(接受文本或图像输入并输出文本),由于其更广泛的通用知识和高级推理能力,它能够比我们之前的任何模型都更准确地解决困难问题。GPT-4 在 OpenAI API 中对付费客户开放。与 gpt-3.5-turbo
一样,GPT-4 针对聊天进行了优化,但使用聊天完成 API 也可以很好地完成传统的完成任务。了解如何在我们的文本生成指南中使用 GPT-4。
模型 | 描述 | 上下文窗口 | 最大输出令牌 | 训练数据 |
---|---|---|---|---|
gpt-4-turbo | 最新的具有视觉能力的 GPT-4 Turbo 模型。视觉请求现在可以使用 JSON 模式和函数调用。目前指向 gpt-4-turbo-2024-04-09 。 | 128,000 令牌 | 4,096 令牌 | 截至 2023 年 12 月 |
gpt-4-turbo-2024-04-09 | 具有视觉能力的 GPT-4 Turbo 模型。视觉请求现在可以使用 JSON 模式和函数调用。gpt-4-turbo 目前指向此版本。 | 128,000 令牌 | 4,096 令牌 | 截至 2023 年 12 月 |
gpt-4-turbo-preview | GPT-4 Turbo 预览模型。目前指向 gpt-4-0125-preview 。 | 128,000 令牌 | 4,096 令牌 | 截至 2023 年 12 月 |
gpt-4-0125-preview | GPT-4 Turbo 预览模型,旨在减少模型不完成任务的"懒惰"情况。了解更多。 | 128,000 令牌 | 4,096 令牌 | 截至 2023 年 12 月 |
gpt-4-1106-preview | GPT-4 Turbo 预览模型,具有改进的指令遵循、JSON 模式、可重现输出、并行函数调用等功能。这是一个预览模型。了解更多。 | 128,000 令牌 | 4,096 令牌 | 截至 2023 年 4 月 |
gpt-4 | 目前指向 gpt-4-0613 。参见持续模型升级。 | 8,192 令牌 | 8,192 令牌 | 截至 2021 年 9 月 |
gpt-4-0613 | 2023 年 6 月 13 日的 gpt-4 快照,具有改进的函数调用支持。 | 8,192 令牌 | 8,192 令牌 | 截至 2021 年 9 月 |
gpt-4-0314 | 已过时 2023 年 3 月 14 日的 gpt-4 快照。 | 8,192 令牌 | 8,192 令牌 | 截至 2021 年 9 月 |
对于许多基本任务,GPT-4 和 GPT-3.5 模型之间的差异并不显著。然而,在更复杂的推理情况下,GPT-4 比我们之前的任何模型都要强大得多。
多语言能力
GPT-4 在英语和其他语言方面都优于之前的大型语言模型,以及截至 2023 年的大多数最先进系统(这些系统通常针对特定基准进行训练或手工工程)。在 MMLU 基准测试中(这是一个涵盖 57 个科目的英语多项选择题集),GPT-4 不仅在英语方面大幅超越现有模型,而且在其他语言方面也表现出色。
GPT-3.5 Turbo
GPT-3.5 Turbo 模型可以理解和生成自然语言或代码,并已针对使用聊天完成 API 进行聊天进行了优化,但也适用于非聊天任务。
注意:截至 2024 年 7 月,应该使用
gpt-4o-mini
替代gpt-3.5-turbo
,因为它更便宜、更强大、支持多模态输入,且速度相同。gpt-3.5-turbo
在 API 中仍然可用。
模型 | 描述 | 上下文窗口 | 最大输出令牌 | 训练数据 |
---|---|---|---|---|
gpt-3.5-turbo-0125 | 最新的 GPT-3.5 Turbo 模型,在按要求格式响应方面具有更高的准确性,并修复了导致非英语语言函数调用出现文本编码问题的错误。了解更多。 | 16,385 令牌 | 4,096 令牌 | 截至 2021 年 9 月 |
gpt-3.5-turbo | 目前指向 gpt-3.5-turbo-0125 。 | 16,385 令牌 | 4,096 令牌 | 截至 2021 年 9 月 |
gpt-3.5-turbo-1106 | 具有改进的指令遵循、JSON 模式、可重现输出、并行函数调用等功能的 GPT-3.5 Turbo 模型。了解更多。 | 16,385 令牌 | 4,096 令牌 | 截至 2021 年 9 月 |
gpt-3.5-turbo-instruct | 具有与 GPT-3 时代模型类似的能力。与传统的 Completions 端点兼容,而不是 Chat Completions。 | 4,096 令牌 | 4,096 令牌 | 截至 2021 年 9 月 |
DALL·E
DALL·E 是一个 AI 系统,可以根据自然语言描述创建逼真的图像和艺术作品。DALL·E 3 目前支持根据提示创建特定尺寸的新图像。DALL·E 2 还支持编辑现有图像或创建用户提供图像的变体。
DALL·E 3 可通过我们的 Images API 使用,同时还有 DALL·E 2。您可以通过 ChatGPT Plus 试用 DALL·E 3。
模型 | 描述 |
---|---|
dall-e-3 | 2023 年 11 月发布的最新 DALL·E 模型。了解更多。 |
dall-e-2 | 2022 年 11 月发布的前一代 DALL·E 模型。DALL·E 的第二次迭代,与原始模型相比,生成的图像更逼真、准确,分辨率提高了 4 倍。 |
TTS
TTS 是一个可以将文本转换为自然语音的 AI 模型。我们提供两种不同的模型变体,tts-1
针对实时文本转语音用例进行了优化,而 tts-1-hd
则针对质量进行了优化。这些模型可以与 Audio API 中的 Speech 端点 一起使用。
模型 | 描述 |
---|---|
tts-1 | 最新的文本转语音模型,针对速度进行了优化。 |
tts-1-hd | 最新的文本转语音模型,针对质量进行了优化。 |
Whisper
Whisper 是一个通用的语音识别模型。它在多样化的音频数据集上进行训练,同时也是一个多任务模型,可以执行多语言语音识别、语音翻译和语言识别。Whisper v2-large 模型目前可通过我们的 API 使用,模型名称为 whisper-1
。
目前,Whisper 的开源版本与我们 API 中提供的版本没有区别。然而,通过我们的 API,我们提供了优化的推理过程,使得通过我们的 API 运行 Whisper 比通过其他方式快得多。有关 Whisper 的更多技术细节,您可以阅读论文。
Embeddings
Embeddings 是文本的数值表示,可用于测量两段文本之间的相关性。Embeddings 对于搜索、聚类、推荐、异常检测和分类任务很有用。您可以在公告博文中阅读有关我们最新嵌入模型的更多信息。
模型 | 描述 | 输出维度 |
---|---|---|
text-embedding-3-large | 最强大的嵌入模型,适用于英语和非英语任务 | 3,072 |
text-embedding-3-small | 相比第二代 ada 嵌入模型性能提升 | 1,536 |
text-embedding-ada-002 | 最强大的第二代嵌入模型,替代了 16 个第一代模型 | 1,536 |
Moderation
Moderation 模型旨在检查内容是否符合 OpenAI 的使用政策。这些模型提供分类功能,可以检测以下类别的内容:仇恨、仇恨/威胁、自残、性、性/未成年人、暴力和暴力/血腥。您可以在我们的内容审核指南中了解更多信息。
Moderation 模型接受任意大小的输入,自动分成 4,096 个令牌的块。在输入超过 32,768 个令牌的情况下,会使用截断,这在极少数情况下可能会导致少量令牌被遗漏在内容审核检查之外。
内容审核端点的每个请求的最终结果显示了每个类别的最大值。例如,如果一个 4K 令牌的块在某个类别的得分为 0.9901,而另一个块的得分为 0.1901,API 响应中会显示 0.9901,因为它更高。
模型 | 描述 | 最大令牌数 |
---|---|---|
text-moderation-latest | 目前指向 text-moderation-007 。 | 32,768 |
text-moderation-stable | 目前指向 text-moderation-007 。 | 32,768 |
text-moderation-007 | 在所有类别中最强大的内容审核模型。 | 32,768 |
GPT base
GPT base 模型可以理解和生成自然语言或代码,但没有经过指令遵循训练。这些模型旨在替代我们最初的 GPT-3 base 模型,并使用传统的 Completions API。大多数客户应该使用 GPT-3.5 或 GPT-4。
模型 | 描述 | 最大令牌数 | 训练数据 |
---|---|---|---|
babbage-002 | 替代 GPT-3 的 ada 和 babbage base 模型。 | 16,384 令牌 | 截至 2021 年 9 月 |
davinci-002 | 替代 GPT-3 的 curie 和 davinci base 模型。 | 16,384 令牌 | 截至 2021 年 9 月 |
我们如何使用您的数据
您的数据就是您的数据。
从 2023 年 3 月 1 日起,发送到 OpenAI API 的数据将不会用于训练或改进 OpenAI 模型(除非您明确选择加入)。选择加入的一个优势是,模型可能会随着时间的推移更好地适应您的用例。
为了帮助识别滥用,API 数据可能会保留最多 30 天,之后将被删除(除非法律另有要求)。对于具有敏感应用的受信任客户,可能提供零数据保留。在零数据保留的情况下,请求和响应主体不会持久化到任何日志记录机制,仅存在于内存中以服务请求。
请注意,此数据政策不适用于 OpenAI 的非 API 消费者服务,如 ChatGPT 或 DALL·E Labs。
按端点的默认使用政策
端点 | 用于训练的数据 | 默认保留期 | 是否符合零保留资格 |
---|---|---|---|
/v1/chat/completions * | 否 | 30 天 | 是,除了 (a) 图像输入或 (b) 为结构化输出提供的模式* |
/v1/assistants | 否 | 30 天 ** | 否 |
/v1/threads | 否 | 30 天 ** | 否 |
/v1/threads/messages | 否 | 30 天 ** | 否 |
/v1/threads/runs | 否 | 30 天 ** | 否 |
/v1/vector_stores | 否 | 30 天 ** | 否 |
/v1/threads/runs/steps | 否 | 30 天 ** | 否 |
/v1/images/generations | 否 | 30 天 | 否 |
/v1/images/edits | 否 | 30 天 | 否 |
/v1/images/variations | 否 | 30 天 | 否 |
/v1/embeddings | 否 | 30 天 | 是 |
/v1/audio/transcriptions | 否 | 零数据保留 | - |
/v1/audio/translations | 否 | 零数据保留 | - |
/v1/audio/speech | 否 | 30 天 | 是 |
/v1/files | 否 | 直到客户删除 | 否 |
/v1/fine_tuning/jobs | 否 | 直到客户删除 | 否 |
/v1/batches | 否 | 直到客户删除 | 否 |
/v1/moderations | 否 | 零数据保留 | - |
/v1/completions | 否 | 30 天 | 是 |
- 通过
gpt-4o
、gpt-4o-mini
、chatgpt-4o-latest
或gpt-4-turbo
模型(或之前的gpt-4-vision-preview
)的图像输入不符合零保留资格。 当启用结构化输出时,提供的模式(无论是作为response_format
还是在函数定义中)不符合零保留资格,但完成本身是符合的。
** 与 Assistants API 相关的对象在您通过 API 或仪表板删除它们 30 天后从我们的服务器上删除。未通过 API 或仪表板删除的对象将无限期保留。
有关详细信息,请参阅我们的 API 数据使用政策。要了解更多关于零保留的信息,请联系我们的销售团队。
模型端点兼容性
端点 | 最新模型 |
---|---|
/v1/assistants | 所有 GPT-4o(除了 chatgpt-4o-latest )、GPT-4o-mini、GPT-4 和 GPT-3.5 Turbo 模型。retrieval 工具需要 gpt-4-turbo-preview (及后续日期版本)或 gpt-3.5-turbo-1106 (及后续版本)。 |
/v1/audio/transcriptions | whisper-1 |
/v1/audio/translations | whisper-1 |
/v1/audio/speech | tts-1 、tts-1-hd |
/v1/chat/completions | 所有 GPT-4o、GPT-4o-mini、GPT-4 和 GPT-3.5 Turbo 模型及其日期版本。chatgpt-4o-latest 动态模型。[微调](https://platform.openai.com/docs/guides |