Основной эндпоинт для генерации текста и диалогов
| Параметр | Тип | Описание |
|---|---|---|
model | string | ID модели из списка моделей |
| Параметр | Тип | Описание |
|---|---|---|
messages | array | Массив сообщений диалога (рекомендуется) |
prompt | string | Простой текстовый промпт (альтернатива messages) |
| Параметр | Тип | По умолчанию | Описание |
|---|---|---|---|
max_tokens | integer | Без лимита | Максимум токенов в ответе |
max_completion_tokens | integer | Без лимита | Альтернатива max_tokens |
temperature | float (0-2) | 1.0 | Температура (0=детерминированный, 2=креативный) |
top_p | float (0-1) | 1.0 | Nucleus sampling |
top_k | integer | — | Top-K sampling |
frequency_penalty | float (-2..2) | 0 | Штраф за повторение слов |
presence_penalty | float (-2..2) | 0 | Штраф за повторение токенов |
stop | string/array | — | Стоп-последовательности |
seed | integer | — | Seed для воспроизводимости |
| Параметр | Тип | Описание |
|---|---|---|
stream | boolean | Включить streaming (SSE) |
reasoning | object | Настройки reasoning tokens |
tools | array | Доступные функции для вызова |
tool_choice | string/object | Выбор инструмента: “none”, “auto”, “required” |
response_format | object | Формат ответа: text, json_object, json_schema, grammar |
web_search_options | object | Встроенный веб-поиск |
provider | object | Конфигурация роутинга по провайдерам |
plugins | array | Подключение плагинов |
modalities | array | Выходные модальности: “text”, “image”, “audio” |
audio | object | Конфигурация аудио-вывода (voice, format) |
user | string | Идентификатор конечного пользователя |
stream: true ответ приходит в формате Server-Sent Events:
text, json_object, json_schema, grammar (GBNF).
| Параметр | Тип | Описание |
|---|---|---|
effort | string | Уровень усилий: xhigh, high, medium, low, minimal, none |
max_tokens | integer | Максимум токенов на рассуждения |
summary | string | Детализация: auto, concise, detailed |
enabled | boolean | Включить/выключить рассуждения |
exclude | boolean | Скрыть рассуждения из ответа |
Идентификатор модели для использования
"openai/gpt-4o"
Массив сообщений для отправки модели (обязателен если не указан prompt)
[
{
"role": "system",
"content": "Ты полезный ассистент"
},
{
"role": "user",
"content": "Привет! Как дела?"
}
]Текстовый промпт (альтернатива messages). Если указан, будет преобразован в messages с role=user
"Напиши стихотворение про кота"
Максимальное количество токенов для генерации
x >= 11000
Максимальное количество токенов для completion (альтернатива max_tokens)
x >= 11000
Температура сэмплинга (0-2). Более высокие значения делают вывод более случайным
0 <= x <= 21
Nucleus sampling: вероятностная масса для рассмотрения (0-1)
0 <= x <= 11
Штраф за частоту использования токенов (-2 до 2)
-2 <= x <= 20
Штраф за присутствие токенов (-2 до 2)
-2 <= x <= 20
Формат ответа модели
Настройки провайдера для роутинга и фильтрации
Определения инструментов (tools) для function calling
Выбор инструмента: none, auto, required или named function
"auto"
Настройки reasoning для reasoning моделей
Плагины для расширения функциональности
Настройки встроенного веб-поиска (для моделей с нативной поддержкой)
Уникальный идентификатор конечного пользователя для отслеживания и предотвращения злоупотреблений
"user-123"
Включить потоковую передачу ответа
false
Настройки обработки изображений
{ "quality": "high", "size": 512 }Типы вывода модели
text, image, audio ["text", "audio"]Настройки аудио выхода для моделей с поддержкой аудио (gpt-audio и др.)
Уникальный идентификатор генерации
"gen_581761234567890123"
Тип объекта
"chat.completion"
Временная метка создания (Unix timestamp)
1703001234
ID модели, которая сгенерировала ответ
"openai/gpt-4o"
Массив вариантов ответа
Информация об использовании токенов