推理模型 测试版
OpenAI o1系列模型是经过强化学习训练的新型大型语言模型,旨在执行复杂的推理。o1 模型在回答之前会考虑,能够在回应用户之前生成长长的内在思维链。o1 模型在科学推理方面表现出色,在竞争编程问题(Codeforces)中排名第 89 百分位,在美国数学奥林匹克(AIME)的资格赛中名列前 500 名学生,并在物理、生物和化学问题的基准(GPQA)中超过人类博士水平的准确性。
API 中有两个推理模型可用:
o1-preview
:我们 o1 模型的早期预览,旨在利用广泛的世界常识推理复杂的问题。o1-mini
:o1 的一个更快、更便宜的版本,特别擅长编码、数学和科学任务,在这些任务中对广泛常识的需求较低。o1 模型在推理方面提供了显著的 进展,但它们 并不打算在所有用例中替代 GPT-4o。
对于需要图像输入、函数调用或始终快速响应时间的应用程序,GPT-4o 和 GPT-4o mini 模型将继续是合适的选择。然而,如果您旨在开发需要深度推理并能够适应较长响应时间的应用程序,o1 模型可能是一个绝佳选择。我们期待看到您用它们创造的作品!
🧪 o1 模型当前处于测试阶段o1 模型目前处于 测试版,功能有限。访问仅限于 第 5 层级 的开发者(请在 这里 检查您的使用层级),并且速率限制较低(20 RPM)。我们正在努力添加更多功能、提高速率限制,并在未来几周内扩大对更多开发者的访问权限!
快速入门
o1-preview
和 o1-mini
都可以通过 聊天完成 端点使用。
from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create(
model="o1-preview",
messages=[
{
"role": "user",
"content": "Write a bash script that takes a matrix represented as a string with format '[1,2],[3,4],[5,6]' and prints the transpose in the same format."
}
]
)
print(response.choices[0].message.content)
根据模型解决问题所需的推理量,这些请求可能需要从几秒到几分钟不等的时间。
在测试阶段,许多聊天完成 API 参数尚不可用。最显着的是:
temperature
、top_p
和 n
固定为 1
,而 presence_penalty
和 frequency_penalty
固定为 0
。