К списку моделей
Выбор за вами
Google: Gemma 4 26B A4B
ID: google/gemma-4-26b-a4b-it
6,96 ₽
Запрос / 1М
30,43 ₽
Ответ / 1М
—
Изображение вход / 1М
—
Изображение выход / 1М
262K
Контекст
—
Макс. ответ
Провайдеры для Google: Gemma 4 26B A4B
DeepInfra
Статус
6,955 ₽Запрос / 1М
30,429 ₽Ответ / 1М
—Изображение вход / 1М
—Изображение выход / 1М
262KКонтекст
—Макс. ответ
Статус работы провайдера
Нет данных — 14 апр., 16:10 – 16:20
Дополнительные цены
0,869 ₽Кэш чтение / 1М
Политика в отношении данных
Prompt Training:-
Prompt Logging:-
Moderation:Not moderated
Поддерживаемые параметры
reasoningВключает режим размышлений (chain-of-thought), где модель показывает ход рассуждений.include_reasoningВключает вывод рассуждений модели в ответ.max_tokensЭто устанавливает верхний предел для количества токенов, которые модель может генерировать в ответ. Больше этого предела выдаваться не будет. Максимальное значение - это длина контекста за вычетом длины запроса.temperatureУправляет случайностью ответа. Низкие значения (0.0–0.3) делают ответ более детерминированным, высокие (0.7–1.0) — более креативным.top_pNucleus sampling — ограничивает выбор токенов по совокупной вероятности. Значение 0.9 означает, что модель рассматривает только токены, составляющие 90% вероятности.stopСписок строк, при встрече которых модель прекращает генерацию.frequency_penaltyСнижает вероятность повторения уже использованных токенов.presence_penaltyПоощряет модель использовать новые темы в ответе.repetition_penaltytop_kОграничивает выбор токенов фиксированным количеством наиболее вероятных вариантов.seedФиксирует генерацию для воспроизводимых результатов.min_presponse_formatЗадаёт формат ответа: текст или структурированный JSON.tool_choiceУправляет тем, должна ли модель вызывать инструмент, и если да — какой именно.toolsПозволяет модели вызывать внешние функции (function calling) для получения данных или выполнения действий.structured_outputsГарантирует, что ответ модели соответствует заданной JSON-схеме.
Io Net
Статус
12,606 ₽Запрос / 1М
43,47 ₽Ответ / 1М
—Изображение вход / 1М
—Изображение выход / 1М
262KКонтекст
262KМакс. ответ
Статус работы провайдера
Нет данных — 14 апр., 16:10 – 16:20
Дополнительные цены
6,955 ₽Кэш чтение / 1М
Политика в отношении данных
Prompt Training:-
Prompt Logging:-
Moderation:Not moderated
Поддерживаемые параметры
reasoningВключает режим размышлений (chain-of-thought), где модель показывает ход рассуждений.include_reasoningВключает вывод рассуждений модели в ответ.max_tokensЭто устанавливает верхний предел для количества токенов, которые модель может генерировать в ответ. Больше этого предела выдаваться не будет. Максимальное значение - это длина контекста за вычетом длины запроса.temperatureУправляет случайностью ответа. Низкие значения (0.0–0.3) делают ответ более детерминированным, высокие (0.7–1.0) — более креативным.top_pNucleus sampling — ограничивает выбор токенов по совокупной вероятности. Значение 0.9 означает, что модель рассматривает только токены, составляющие 90% вероятности.top_kОграничивает выбор токенов фиксированным количеством наиболее вероятных вариантов.stopСписок строк, при встрече которых модель прекращает генерацию.frequency_penaltyСнижает вероятность повторения уже использованных токенов.presence_penaltyПоощряет модель использовать новые темы в ответе.seedФиксирует генерацию для воспроизводимых результатов.tool_choiceУправляет тем, должна ли модель вызывать инструмент, и если да — какой именно.toolsПозволяет модели вызывать внешние функции (function calling) для получения данных или выполнения действий.response_formatЗадаёт формат ответа: текст или структурированный JSON.
Ionstream
Статус
10,433 ₽Запрос / 1М
34,776 ₽Ответ / 1М
—Изображение вход / 1М
—Изображение выход / 1М
262KКонтекст
262KМакс. ответ
Статус работы провайдера
Нет данных — 14 апр., 16:10 – 16:20
Дополнительные цены
—
Политика в отношении данных
Prompt Training:-
Prompt Logging:-
Moderation:Not moderated
Поддерживаемые параметры
reasoningВключает режим размышлений (chain-of-thought), где модель показывает ход рассуждений.include_reasoningВключает вывод рассуждений модели в ответ.max_tokensЭто устанавливает верхний предел для количества токенов, которые модель может генерировать в ответ. Больше этого предела выдаваться не будет. Максимальное значение - это длина контекста за вычетом длины запроса.temperatureУправляет случайностью ответа. Низкие значения (0.0–0.3) делают ответ более детерминированным, высокие (0.7–1.0) — более креативным.top_pNucleus sampling — ограничивает выбор токенов по совокупной вероятности. Значение 0.9 означает, что модель рассматривает только токены, составляющие 90% вероятности.frequency_penaltyСнижает вероятность повторения уже использованных токенов.presence_penaltyПоощряет модель использовать новые темы в ответе.stopСписок строк, при встрече которых модель прекращает генерацию.seedФиксирует генерацию для воспроизводимых результатов.tool_choiceУправляет тем, должна ли модель вызывать инструмент, и если да — какой именно.toolsПозволяет модели вызывать внешние функции (function calling) для получения данных или выполнения действий.structured_outputsГарантирует, что ответ модели соответствует заданной JSON-схеме.
NextBit
Статус
11,302 ₽Запрос / 1М
34,776 ₽Ответ / 1М
—Изображение вход / 1М
—Изображение выход / 1М
262KКонтекст
262KМакс. ответ
Статус работы провайдера
Нет данных — 14 апр., 16:10 – 16:20
Дополнительные цены
6,955 ₽Кэш чтение / 1М
Политика в отношении данных
Prompt Training:-
Prompt Logging:-
Moderation:Not moderated
Поддерживаемые параметры
reasoningВключает режим размышлений (chain-of-thought), где модель показывает ход рассуждений.include_reasoningВключает вывод рассуждений модели в ответ.max_tokensЭто устанавливает верхний предел для количества токенов, которые модель может генерировать в ответ. Больше этого предела выдаваться не будет. Максимальное значение - это длина контекста за вычетом длины запроса.temperatureУправляет случайностью ответа. Низкие значения (0.0–0.3) делают ответ более детерминированным, высокие (0.7–1.0) — более креативным.top_pNucleus sampling — ограничивает выбор токенов по совокупной вероятности. Значение 0.9 означает, что модель рассматривает только токены, составляющие 90% вероятности.stopСписок строк, при встрече которых модель прекращает генерацию.frequency_penaltyСнижает вероятность повторения уже использованных токенов.presence_penaltyПоощряет модель использовать новые темы в ответе.response_formatЗадаёт формат ответа: текст или структурированный JSON.structured_outputsГарантирует, что ответ модели соответствует заданной JSON-схеме.repetition_penaltyseedФиксирует генерацию для воспроизводимых результатов.logprobsВозвращает логарифмические вероятности выбранных токенов.top_logprobstoolsПозволяет модели вызывать внешние функции (function calling) для получения данных или выполнения действий.tool_choiceУправляет тем, должна ли модель вызывать инструмент, и если да — какой именно.
Novita
Статус
11,302 ₽Запрос / 1М
34,776 ₽Ответ / 1М
—Изображение вход / 1М
—Изображение выход / 1М
262KКонтекст
131KМакс. ответ
Статус работы провайдера
Нет данных — 14 апр., 16:10 – 16:20
Дополнительные цены
—
Политика в отношении данных
Prompt Training:-
Prompt Logging:-
Moderation:Not moderated
Поддерживаемые параметры
reasoningВключает режим размышлений (chain-of-thought), где модель показывает ход рассуждений.include_reasoningВключает вывод рассуждений модели в ответ.max_tokensЭто устанавливает верхний предел для количества токенов, которые модель может генерировать в ответ. Больше этого предела выдаваться не будет. Максимальное значение - это длина контекста за вычетом длины запроса.temperatureУправляет случайностью ответа. Низкие значения (0.0–0.3) делают ответ более детерминированным, высокие (0.7–1.0) — более креативным.top_pNucleus sampling — ограничивает выбор токенов по совокупной вероятности. Значение 0.9 означает, что модель рассматривает только токены, составляющие 90% вероятности.stopСписок строк, при встрече которых модель прекращает генерацию.frequency_penaltyСнижает вероятность повторения уже использованных токенов.presence_penaltyПоощряет модель использовать новые темы в ответе.seedФиксирует генерацию для воспроизводимых результатов.top_kОграничивает выбор токенов фиксированным количеством наиболее вероятных вариантов.repetition_penaltytoolsПозволяет модели вызывать внешние функции (function calling) для получения данных или выполнения действий.tool_choiceУправляет тем, должна ли модель вызывать инструмент, и если да — какой именно.
Parasail
Статус
11,302 ₽Запрос / 1М
34,776 ₽Ответ / 1М
—Изображение вход / 1М
—Изображение выход / 1М
262KКонтекст
262KМакс. ответ
Статус работы провайдера
Нет данных — 14 апр., 16:10 – 16:20
Дополнительные цены
5,216 ₽Кэш чтение / 1М
Политика в отношении данных
Prompt Training:-
Prompt Logging:-
Moderation:Not moderated
Поддерживаемые параметры
reasoningВключает режим размышлений (chain-of-thought), где модель показывает ход рассуждений.include_reasoningВключает вывод рассуждений модели в ответ.max_tokensЭто устанавливает верхний предел для количества токенов, которые модель может генерировать в ответ. Больше этого предела выдаваться не будет. Максимальное значение - это длина контекста за вычетом длины запроса.temperatureУправляет случайностью ответа. Низкие значения (0.0–0.3) делают ответ более детерминированным, высокие (0.7–1.0) — более креативным.top_pNucleus sampling — ограничивает выбор токенов по совокупной вероятности. Значение 0.9 означает, что модель рассматривает только токены, составляющие 90% вероятности.frequency_penaltyСнижает вероятность повторения уже использованных токенов.presence_penaltyПоощряет модель использовать новые темы в ответе.repetition_penaltyseedФиксирует генерацию для воспроизводимых результатов.stopСписок строк, при встрече которых модель прекращает генерацию.top_kОграничивает выбор токенов фиксированным количеством наиболее вероятных вариантов.logit_biasstructured_outputsГарантирует, что ответ модели соответствует заданной JSON-схеме.response_formatЗадаёт формат ответа: текст или структурированный JSON.
Venice
Статус
14,128 ₽Запрос / 1М
43,47 ₽Ответ / 1М
—Изображение вход / 1М
—Изображение выход / 1М
256KКонтекст
8KМакс. ответ
Статус работы провайдера
Нет данных — 14 апр., 16:10 – 16:20
Дополнительные цены
—
Политика в отношении данных
Prompt Training:-
Prompt Logging:-
Moderation:Not moderated
Поддерживаемые параметры
reasoningВключает режим размышлений (chain-of-thought), где модель показывает ход рассуждений.include_reasoningВключает вывод рассуждений модели в ответ.max_tokensЭто устанавливает верхний предел для количества токенов, которые модель может генерировать в ответ. Больше этого предела выдаваться не будет. Максимальное значение - это длина контекста за вычетом длины запроса.temperatureУправляет случайностью ответа. Низкие значения (0.0–0.3) делают ответ более детерминированным, высокие (0.7–1.0) — более креативным.top_pNucleus sampling — ограничивает выбор токенов по совокупной вероятности. Значение 0.9 означает, что модель рассматривает только токены, составляющие 90% вероятности.stopСписок строк, при встрече которых модель прекращает генерацию.frequency_penaltyСнижает вероятность повторения уже использованных токенов.presence_penaltyПоощряет модель использовать новые темы в ответе.top_kОграничивает выбор токенов фиксированным количеством наиболее вероятных вариантов.response_formatЗадаёт формат ответа: текст или структурированный JSON.structured_outputsГарантирует, что ответ модели соответствует заданной JSON-схеме.toolsПозволяет модели вызывать внешние функции (function calling) для получения данных или выполнения действий.tool_choiceУправляет тем, должна ли модель вызывать инструмент, и если да — какой именно.logprobsВозвращает логарифмические вероятности выбранных токенов.top_logprobs
API и примеры кода
Наш сервис предоставляет единый API, совместимый с OpenAI SDK. Просто укажите наш base_url и используйте ключ, полученный
в личном кабинете.

Polza.AI — лучший выбор
для
Воспользуйтесь сервисом прямо сейчас. А если остались вопросы - запишитесь на демо