Polza.AI
Polza.ai Logo

Начните пользоваться прямо сейчас

Единый API для 400+ моделей ИИ. Создавайте тексты, код, изображения, аудио и видео в одном интерфейсе.

TelegramXInstagramYouTubeVK
© 2025 Polza Ai • Все права защищены
К списку моделей
OpenAI: gpt-oss-120b

OpenAI: gpt-oss-120b

ID: openai/gpt-oss-120b

Попробовать

9,34 ₽

Запрос/ 1М

70,06 ₽

Ответ / 1М

Изображение вход /1М

Изображение выход /1М

131K

Контекст

131K

Макс. ответ

Описание

Технический обзор GPT-OSS-120B: Мощная MoE модель для продакшн-задач

1. Введение и общее описание

GPT-OSS-120B — это передовая языковая модель с открытыми весами, разработанная OpenAI. Модель позиционируется как решение для высокопроизводительных продакшн-задач, требующих сложного рассуждения, агентного поведения и универсальности. Основные характеристики GPT-OSS-120B включают архитектуру Mixture-of-Experts (MoE) и 117 миллиардов параметров. Важной особенностью является активация лишь 5.1 миллиарда параметров за один прямой проход (forward pass), что оптимизирует производительность. Модель демонстрирует выдающиеся способности в работе с текстом, поддержке глубоких рассуждений (configurable reasoning depth), доступе к полным цепочкам рассуждений (chain-of-thought) и нативной интеграции инструментов, включая вызов функций, браузинг и генерацию структурированного вывода.

GPT-OSS-120B нацелена на разработчиков, исследователей и предприятия, которым требуется высокопроизводительное ИИ-решение для сложных задач. Открытый характер модели способствует ее адаптации и применению в широком спектре инновационных проектов.

2. Технические характеристики

Архитектура

GPT-OSS-120B построена на архитектуре Mixture-of-Experts (MoE). В отличие от плотных (dense) моделей, где каждый входной сигнал обрабатывается всеми параметрами, MoE модели используют несколько "экспертных" подсетей. Специальный маршрутизатор (router) направляет каждый входной токен к наиболее подходящим экспертам. Это позволяет значительно увеличить общее количество параметров модели, сохраняя при этом относительно небольшую вычислительную стоимость за проход. В GPT-OSS-120B задействовано 117 миллиардов параметров, однако во время обработки каждого запроса активно используется только 5.1 миллиарда параметров. Эта особенность делает модель более эффективной по сравнению с плотными моделями со схожим общим количеством параметров.

Параметры модели

Общее количество параметров модели составляет 117 миллиардов. Важно отметить, что во время каждого прямого прохода (forward pass) для обработки входных данных активируется около 5.1 миллиарда параметров. Такая оптимизация достигается благодаря архитектуре Mixture-of-Experts.

Контекстное окно

Размер контекстного окна модели на данный момент составляет 32,768 токенов. Это обеспечивает возможность обрабатывать и генерировать большие объемы текста, сохраняя при этом целостность контекста в сложных диалогах или при анализе объемных документов.

Требования к развертыванию

Модель оптимизирована для работы на однопользовательских GPU NVIDIA H100. Особое внимание уделено поддержке нативной квантизации MXFP4. MXFP4 — это формат с фиксированной точкой (fixed-point) с 4 битами на вес, который позволяет значительно уменьшить объем памяти, необходимый для хранения весов модели, и ускорить инференс, минимизируя при этом потерю точности. Использование MXFP4 квантизации позволяет эффективно развертывать модель даже на одном H100 GPU, что делает ее доступной для более широкого круга пользователей, несмотря на внушительный размер.

Объем вывода

Максимальный объем генерируемого вывода (максимальное количество токенов за один проход) не указан в исходном описании, но обычно модели такого класса поддерживают генерацию от нескольких тысяч до десятков тысяч токенов, что соответствует размеру контекстного окна.

Поддерживаемые форматы

GPT-OSS-120B в первую очередь ориентирована на обработку и генерацию текстовой информации. Однако, наличие функций вроде "browsing" и "structured output generation" подразумевает способность работать с различными форматами данных, такими как URL-адреса, JSON, XML и другими структурированными форматами.

Языковая поддержка

В исходном описании не уточняется количество поддерживаемых языков. Однако, учитывая разработчика (OpenAI) и общую направленность модели на универсальность, можно предположить, что GPT-OSS-120B обладает сильной поддержкой английского языка и, вероятно, значительной поддержкой других популярных языков. Точная степень многоязычности требует дополнительного тестирования.

3. Показатели производительности (бенчмарки)

К сожалению, подробные, опубликованные бенчмарки для конкретной версии GPT-OSS-120B в открытом доступе отсутствуют. Однако, исходя из описания (высокое качество рассуждения, использование MoE, нацеленность на продакшн), можно предположить, что модель демонстрирует высокие результаты в задачах, где требуется глубокое понимание контекста и логическое мышление.

  • Математические задачи (AIME, GSM8K): MoE архитектуры часто показывают хорошие результаты в задачах, требующих пошаговых рассуждений. Ожидается, что GPT-OSS-120B сможет решать сложные математические задачи на уровне, сопоставимом с ведущими моделями, благодаря своей способности к "chain-of-thought" рассуждениям.
  • Научные вопросы (MMLU, GPQA): Высокая пропускная способность модели (117B параметров) и оптимизация для рассуждений предполагают конкурентоспособную производительность в задачах, требующих знаний из различных областей науки.
  • Программирование (HumanEval, SWE-Bench): Поддержка "native tool use" и "function calling" указывает на сильные стороны в задачах, связанных с кодом. Способность генерировать структурированный вывод и выполнять конкретные действия (например, вызов API) делает ее потенциально очень эффективной для автоматизации задач разработки.
  • Рассуждение: Это заявленная ключевая сильная сторона модели. Благодаря MoE архитектуре и оптимизации для "configurable reasoning depth", GPT-OSS-120B должна превосходить многие стандартные модели в сложных сценариях, требующих последовательного логического вывода.
  • Мультимодальность: В исходном описании нет упоминаний о поддержке изображений или других модальностей. Модель, судя по всему, является чисто текстовой.

Комментарий: Отсутствие опубликованных бенчмарков затрудняет точную оценку. Однако, позиционирование как "high-reasoning, agentic, and general-purpose production use cases" и технические особенности (MoE, MXFP4 quantization, 32k context) указывают на стремление OpenAI создать высокопроизводительную и эффективную модель для реальных приложений. Для точной оценки необходимо дождаться независимых тестов.

4. Ключевые возможности

GPT-OSS-120B обладает рядом выдающихся возможностей, делающих ее мощным инструментом для решения сложных задач:

  1. Продвинутые рассуждения (Advanced Reasoning): Модель способна выполнять многошаговые логические построения, демонстрируя глубокое понимание контекста и причинно-следственных связей. Это позволяет решать задачи, требующие сложного анализа и планирования, недоступные для более простых моделей.
    • Пример сценария: Автоматизация процесса принятия решений в финансовом анализе. Модель может анализировать рыночные данные, отчеты компаний и новости, синтезировать информацию и предлагать обоснованные рекомендации по инвестициям, объясняя каждый шаг своего анализа.
  2. Агентное поведение (Agentic Capabilities): Благодаря поддержке "native tool use", модель может автономно взаимодействовать с внешними инструментами и сервисами. Это включает вызов функций, доступ к веб-ресурсам и использование API, что позволяет ей действовать как интеллектуальный агент.
    • Пример промпта: "Найди последние новости о компании X, проанализируй их влияние на цену акций за последние 24 часа и подготовь краткий отчет в формате JSON." Модель сначала вызовет функцию для поиска новостей, затем, возможно, функцию для анализа цен акций, и, наконец, структурирует результат.
  3. Нативное использование инструментов (Native Tool Use): Прямая интеграция с функциями, такими как вызов функций (function calling), браузинг и генерация структурированного вывода, упрощает создание сложных приложений. Разработчикам не нужно заниматься сложной обвязкой для интеграции с внешними системами.
  4. Оптимизированная производительность (Optimized Performance): Активная активация лишь 5.1 миллиарда параметров за проход в сочетании с MXFP4 квантизацией на H100 GPU обеспечивает высокую скорость инференса при работе с такой большой моделью.
  5. Гибкая глубина рассуждений (Configurable Reasoning Depth): Возможность настраивать глубину рассуждений позволяет пользователям балансировать между скоростью и качеством ответа, адаптируя модель под конкретные требования задачи.
  6. Доступ к полным цепочкам рассуждений (Full Chain-of-Thought Access): Прозрачность процесса мышления модели путем предоставления полного лога "chain-of-thought" улучшает интерпретируемость и позволяет отлаживать ее поведение.
  7. Большое контекстное окно (Large Context Window): Контекстное окно в 32,768 токенов позволяет модели обрабатывать и анализировать объемные документы, поддерживать длительные диалоги и сохранять полную картину в сложных задачах.

5. Оптимальные случаи использования

GPT-OSS-120B идеально подходит для широкого спектра задач, где требуется высокая производительность, сложное рассуждение и интеграция с внешними системами:

  • Разработка ПО и автоматизация: Генерация кода, рефакторинг, написание юнит-тестов, автоматизация задач DevOps.
  • Интеллектуальные агенты: Создание автономных систем, способных планировать, выполнять действия и взаимодействовать с внешним миром (например, управление умным домом, персональные ассистенты).
  • Анализ данных: Обработка и анализ больших объемов текстовых данных, извлечение информации, генерация отчетов.
  • Исследования и разработки: Помощь в научных исследованиях, моделирование сложных систем, анализ научной литературы.
  • Поддержка клиентов: Создание продвинутых чат-ботов, способных решать сложные запросы и интегрироваться с базами знаний и CRM-системами.
  • Финансовый анализ: Обработка финансовых отчетов, новостей, прогнозирование рыночных тенденций.
  • Образовательные платформы: Персонализированное обучение, генерация учебных материалов, проверка знаний.
  • Создание контента: Написание сложных статей, сценариев, создание детализированных описаний продуктов.

Кому подходит идеально vs. Кому не стоит использовать

Кому подходит идеальноКому не стоит использовать
Разработчики, создающие AI-агентов.Пользователям, которым нужен простой "чат-бот".
Исследователи, работающие над сложными задачами.Для генерации исключительно креативного контента.
Компании, внедряющие ИИ в продакшн.Для задач, критичных к отсутствию "галлюцинаций".
Проекты, требующие интеграции с внешними API.При ограниченных аппаратных ресурсах (требует H100).
Приложения, нуждающиеся в глубоком логическом выводе.Для многоязычных задач без дополнительной доработки.
Для задач с большим объемом обрабатываемого текста.

6. Сравнение с конкурентами

Сравнение GPT-OSS-120B с другими ведущими моделями highlights its strengths and unique position in the LLM landscape.

GPT-OSS-120B vs. Llama 3 (70B)

  • Преимущества GPT-OSS-120B:
    • Архитектура MoE: Благодаря MoE, GPT-OSS-120B может предложить лучшую производительность в задачах, требующих сложного рассуждения, при меньшей вычислительной нагрузке за проход по сравнению с плотной моделью Llama 3 70B (активируется 5.1B против 70B).
    • Агентные возможности: Нативная поддержка инструментов и вызова функций может упростить интеграцию и создание сложных ИИ-агентов по сравнению с Llama 3.
    • Глубина рассуждений: Настраиваемая глубина рассуждений дает больше контроля над процессом генерации.
  • Преимущества Llama 3:
    • Большое сообщество и доступность: Llama 3 имеет широкую поддержку сообщества и может быть проще в развертывании на различном оборудовании.
    • Мультимодальность (будущее): Meta планирует более широкую поддержку мультимодальности в будущих версиях Llama.
    • Производительность: Llama 3 70B демонстрирует очень высокие показатели на многих бенчмарках.

GPT-OSS-120B vs. Claude 3 Opus

  • Преимущества GPT-OSS-120B:
    • Открытые веса: Возможность модификации и полного контроля над моделью.
    • MXFP4 Квантизация: Оптимизация для эффективного инференса на H100 GPU.
    • Структурированный вывод: Нативная поддержка генерации структурированных данных.
  • Преимущества Claude 3 Opus:
    • Мультимодальность: Claude 3 Opus обладает сильными возможностями в обработке изображений.
    • Контекстное окно: Claude 3 Opus также предлагает большое контекстное окно (200K, с возможностью расширения до 1M).
    • Общая производительность: Opus показывает очень высокие результаты на широком спектре задач, часто превосходя конкурентов.

GPT-OSS-120B vs. GPT-4

  • Преимущества GPT-OSS-120B:
    • Открытые веса: Главное отличие, позволяющее полную кастомизацию и независимость от API-провайдера.
    • Оптимизация под H100: Специализированная оптимизация для конкретного (хотя и мощного) оборудования.
    • MoE Архитектура: Потенциально более эффективный инференс при заданном общем количестве параметров.
  • Преимущества GPT-4:
    • Универсальность и уровень: GPT-4 остается эталоном по многим показателям, включая креативность, общее знание и безопасность.
    • Мультимодальность: GPT-4 поддерживает ввод изображений.
    • Доступность: Широкая доступность через API OpenAI.

Ключевые отличия GPT-OSS-120B: Основной упор на открытость, эффективность инференса на H100 с MXFP4 квантизацией и мощные агентные возможности благодаря нативной интеграции инструментов. Это делает ее привлекательной для разработчиков, которым нужен контроль над моделью и оптимизированное исполнение в специфических продакшн-средах.

7. Ограничения

Несмотря на свои передовые возможности, GPT-OSS-120B, как и любая другая большая языковая модель, имеет ряд ограничений:

  • Склонность к "галлюцинациям": Как и все LLM, GPT-OSS-120B может генерировать фактически неверную или выдуманную информацию. Это особенно вероятно в областях, где модель имеет ограниченные знания, или при генерации длинных, сложных текстов.
  • Требования к оборудованию: Оптимизация под NVIDIA H100 GPU означает, что для эффективного развертывания требуется доступ к дорогостоящему и специализированному оборудованию. Хотя MXFP4 квантизация снижает требования к VRAM, базовые аппаратные потребности остаются высокими.
  • Безопасность и предвзятость: Модели, обученные на больших объемах данных из интернета, могут наследовать и воспроизводить существующие в этих данных предвзятости (bias) и генерировать небезопасный контент. Хотя OpenAI предпринимает шаги для снижения этих рисков, они не могут быть полностью устранены.
  • Сложность настройки и промптинга: Для полного раскрытия потенциала модели, особенно в части "configurable reasoning depth" и "agentic capabilities", может потребоваться глубокое понимание ее архитектуры и тонкая настройка промптов.
  • Ограниченная мультимодальность: В текущем виде модель ориентирована на текст. Отсутствие поддержки изображений или других модальностей ограничивает ее применение в мультимодальных сценариях.
  • Языковая поддержка: Хотя модель, вероятно, поддерживает несколько языков, ее производительность может быть неравномерной, с максимальной эффективностью на английском языке.

Провайдеры для OpenAI: gpt-oss-120b

Parasail

Статус

9,341 ₽Запрос/ 1М
70,061 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
131KМакс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningstructured_outputsmax_tokenstemperaturetop_pfrequency_penaltypresence_penaltyrepetition_penaltyseedstoptop_klogit_biasresponse_format

Phala

Статус

9,341 ₽Запрос/ 1М
45,773 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
131KМакс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningmax_tokenstemperaturetop_pstopfrequency_penaltypresence_penaltyseedtop_kmin_prepetition_penaltytoolstool_choice

SambaNova

Статус

13,078 ₽Запрос/ 1М
88,744 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
131KМакс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningmax_tokenstemperaturetop_ptop_kstoptoolstool_choice

SiliconFlow

Статус

4,671 ₽Запрос/ 1М
42,037 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
8KМакс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningstructured_outputsresponse_formattemperaturetop_ptop_kfrequency_penalty

Together

Статус

14,012 ₽Запрос/ 1М
56,049 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
Макс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningstructured_outputsmax_tokenstemperaturetop_pstopfrequency_penaltypresence_penaltytop_krepetition_penaltylogit_biasmin_ptoolstool_choice

WandB

Статус

14,012 ₽Запрос/ 1М
56,049 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
131KМакс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningstructured_outputsresponse_formatmax_tokenstemperaturetop_ptop_krepetition_penaltyfrequency_penaltypresence_penaltystopseedtoolstool_choice

Crusoe

Статус

14,012 ₽Запрос/ 1М
56,049 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
131KМакс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

7,473 ₽Кэш чтение /1М

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningstructured_outputsresponse_formatmax_tokenstemperaturetop_pstopfrequency_penaltypresence_penaltyseedlogprobstop_logprobsmin_prepetition_penaltytop_klogit_biasreasoning_effort

DeepInfra

Статус

14,012 ₽Запрос/ 1М
56,049 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
Макс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningresponse_formatmax_tokenstemperaturetop_pstopfrequency_penaltypresence_penaltyrepetition_penaltytop_kseedmin_ptoolstool_choice

Fireworks

Статус

14,012 ₽Запрос/ 1М
56,049 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
Макс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

1,308 ₽Кэш чтение /1М

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningmax_tokenstemperaturetop_pstopfrequency_penaltypresence_penaltytop_krepetition_penaltylogit_biastoolstool_choice

Google

Статус

8,407 ₽Запрос/ 1М
33,629 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
131KМакс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningstructured_outputsresponse_formatmax_tokenstemperaturetop_pseedrepetition_penaltytop_k

Groq

Статус

14,012 ₽Запрос/ 1М
56,049 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
66KМакс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

7,006 ₽Кэш чтение /1М

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningmax_tokenstemperaturetop_pstopseedresponse_formattoolstool_choicestructured_outputs

NCompass

Статус

4,671 ₽Запрос/ 1М
26,156 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
131KМакс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningmax_tokenstemperaturetop_pstopfrequency_penaltypresence_penaltyseedtop_kmin_prepetition_penaltytoolstool_choiceresponse_formatstructured_outputs

Nebius

Статус

14,012 ₽Запрос/ 1М
56,049 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
Макс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningmax_tokenstemperaturetop_pfrequency_penaltypresence_penaltytop_krepetition_penaltytoolstool_choiceresponse_formatstructured_outputs

Novita

Статус

4,671 ₽Запрос/ 1М
23,354 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
33KМакс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningmax_tokenstemperaturetop_pstopfrequency_penaltypresence_penaltyseedtop_krepetition_penaltyresponse_formatstructured_outputstoolstool_choice

Amazon Bedrock

Статус

14,012 ₽Запрос/ 1М
56,049 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
Макс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningmax_tokenstemperaturetop_ptop_kstop

AtlasCloud

Статус

9,341 ₽Запрос/ 1М
37,366 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
131KМакс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

9,341 ₽Кэш чтение /1М

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningmax_tokenstemperaturetop_ptop_kmin_pfrequency_penaltypresence_penaltyrepetition_penaltyseedlogit_biasstructured_outputs

BaseTen

Статус

9,341 ₽Запрос/ 1М
46,707 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
128KКонтекст
128KМакс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningmax_tokenstemperaturestopresponse_formatstructured_outputstoolstool_choice

Cerebras

Статус

32,695 ₽Запрос/ 1М
70,061 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
41KМакс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

32,695 ₽Кэш чтение /1М

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningstructured_outputsresponse_formatmax_tokenstemperaturetop_pstopseedlogprobstop_logprobstoolstool_choice

Chutes

Статус

8,407 ₽Запрос/ 1М
33,629 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
66KМакс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

4,204 ₽Кэш чтение /1М

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningmax_tokenstemperaturetop_pstopfrequency_penaltypresence_penaltyseedtop_krepetition_penaltyresponse_formatstructured_outputstoolstool_choice

Clarifai

Статус

8,407 ₽Запрос/ 1М
33,629 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
131KМакс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningtemperaturemax_tokenstop_preasoning_effortstoptoolstool_choiceresponse_formatstructured_outputs

Io Net

Статус

15,88 ₽Запрос/ 1М
57,917 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
131KКонтекст
131KМакс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

7,94 ₽Кэш чтение /1М

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

reasoninginclude_reasoningmax_tokenstemperaturetop_ptop_kstopfrequency_penaltypresence_penaltyseedresponse_formattoolstool_choice

API и примеры кода

Наш сервис предоставляет единый API, совместимый с OpenAI SDK. Просто укажите наш base_url и используйте ключ, полученный в личном кабинете.

import OpenAI from 'openai';

const openai = new OpenAI({
  baseURL: 'https://polza.ai/api/v1',
  apiKey: '<POLZA_AI_API_KEY>'
});

async function main() {
  const completion = await openai.chat.completions.create({
    model: 'openai/gpt-oss-120b',
    messages: [{
      role: 'user',
      content: 'Что думаешь об этой жизни?',
    }],
  });
  console.log(completion.choices[0].message);
}

main();
SelectВыбор за вами
Polza.AI Logo

Polza.AI — лучший выбор

для

Воспользуйтесь сервисом прямо сейчас. А если остались вопросы - запишитесь на демо

OpenAI: gpt-oss-120b — цены, контекст, API | Polza AI