К списку моделей
Google
Выбор за вами
Meta: Llama 4 Scout
ID: meta-llama/llama-4-scout
7,34 ₽
Запрос / 1М
27,54 ₽
Ответ / 1М
—
Изображение вход / 1М
—
Изображение выход / 1М
328K
Контекст
16K
Макс. ответ
Провайдеры для Meta: Llama 4 Scout
DeepInfra
Статус
7,344 ₽Запрос / 1М
27,54 ₽Ответ / 1М
—Изображение вход / 1М
—Изображение выход / 1М
328KКонтекст
16KМакс. ответ
Статус работы провайдера
Нет данных — 13 мая, 20:00 – 20:10
Дополнительные цены
—
Политика в отношении данных
Prompt Training:-
Prompt Logging:-
Moderation:Not moderated
Поддерживаемые параметры
max_tokensЭто устанавливает верхний предел для количества токенов, которые модель может генерировать в ответ. Больше этого предела выдаваться не будет. Максимальное значение - это длина контекста за вычетом длины запроса.temperatureУправляет случайностью ответа. Низкие значения (0.0–0.3) делают ответ более детерминированным, высокие (0.7–1.0) — более креативным.top_pNucleus sampling — ограничивает выбор токенов по совокупной вероятности. Значение 0.9 означает, что модель рассматривает только токены, составляющие 90% вероятности.stopСписок строк, при встрече которых модель прекращает генерацию.frequency_penaltyСнижает вероятность повторения уже использованных токенов.presence_penaltyПоощряет модель использовать новые темы в ответе.repetition_penaltytop_kОграничивает выбор токенов фиксированным количеством наиболее вероятных вариантов.seedФиксирует генерацию для воспроизводимых результатов.min_presponse_formatЗадаёт формат ответа: текст или структурированный JSON.logit_biasstructured_outputsГарантирует, что ответ модели соответствует заданной JSON-схеме.
Friendli
Статус
9,18 ₽Запрос / 1М
55,08 ₽Ответ / 1М
—Изображение вход / 1М
—Изображение выход / 1М
447KКонтекст
447KМакс. ответ
Статус работы провайдера
Нет данных — 13 мая, 20:00 – 20:10
Дополнительные цены
9,18 ₽Кэш чтение / 1М
Политика в отношении данных
Prompt Training:-
Prompt Logging:-
Moderation:Not moderated
Поддерживаемые параметры
structured_outputsГарантирует, что ответ модели соответствует заданной JSON-схеме.response_formatЗадаёт формат ответа: текст или структурированный JSON.max_tokensЭто устанавливает верхний предел для количества токенов, которые модель может генерировать в ответ. Больше этого предела выдаваться не будет. Максимальное значение - это длина контекста за вычетом длины запроса.temperatureУправляет случайностью ответа. Низкие значения (0.0–0.3) делают ответ более детерминированным, высокие (0.7–1.0) — более креативным.top_pNucleus sampling — ограничивает выбор токенов по совокупной вероятности. Значение 0.9 означает, что модель рассматривает только токены, составляющие 90% вероятности.stopСписок строк, при встрече которых модель прекращает генерацию.frequency_penaltyСнижает вероятность повторения уже использованных токенов.presence_penaltyПоощряет модель использовать новые темы в ответе.seedФиксирует генерацию для воспроизводимых результатов.top_kОграничивает выбор токенов фиксированным количеством наиболее вероятных вариантов.min_prepetition_penalty
Статус
22,95 ₽Запрос / 1М
64,26 ₽Ответ / 1М
—Изображение вход / 1М
—Изображение выход / 1М
1MКонтекст
8KМакс. ответ
Статус работы провайдера
Нет данных — 13 мая, 20:00 – 20:10
Дополнительные цены
—
Политика в отношении данных
Prompt Training:-
Prompt Logging:-
Moderation:Not moderated
Поддерживаемые параметры
structured_outputsГарантирует, что ответ модели соответствует заданной JSON-схеме.response_formatЗадаёт формат ответа: текст или структурированный JSON.max_tokensЭто устанавливает верхний предел для количества токенов, которые модель может генерировать в ответ. Больше этого предела выдаваться не будет. Максимальное значение - это длина контекста за вычетом длины запроса.temperatureУправляет случайностью ответа. Низкие значения (0.0–0.3) делают ответ более детерминированным, высокие (0.7–1.0) — более креативным.top_pNucleus sampling — ограничивает выбор токенов по совокупной вероятности. Значение 0.9 означает, что модель рассматривает только токены, составляющие 90% вероятности.seedФиксирует генерацию для воспроизводимых результатов.top_kОграничивает выбор токенов фиксированным количеством наиболее вероятных вариантов.frequency_penaltyСнижает вероятность повторения уже использованных токенов.presence_penaltyПоощряет модель использовать новые темы в ответе.stopСписок строк, при встрече которых модель прекращает генерацию.toolsПозволяет модели вызывать внешние функции (function calling) для получения данных или выполнения действий.tool_choiceУправляет тем, должна ли модель вызывать инструмент, и если да — какой именно.
Groq
Статус
10,098 ₽Запрос / 1М
31,212 ₽Ответ / 1М
—Изображение вход / 1М
—Изображение выход / 1М
131KКонтекст
8KМакс. ответ
Статус работы провайдера
Нет данных — 13 мая, 20:00 – 20:10
Дополнительные цены
—
Политика в отношении данных
Prompt Training:-
Prompt Logging:-
Moderation:Not moderated
Поддерживаемые параметры
max_tokensЭто устанавливает верхний предел для количества токенов, которые модель может генерировать в ответ. Больше этого предела выдаваться не будет. Максимальное значение - это длина контекста за вычетом длины запроса.temperatureУправляет случайностью ответа. Низкие значения (0.0–0.3) делают ответ более детерминированным, высокие (0.7–1.0) — более креативным.top_pNucleus sampling — ограничивает выбор токенов по совокупной вероятности. Значение 0.9 означает, что модель рассматривает только токены, составляющие 90% вероятности.stopСписок строк, при встрече которых модель прекращает генерацию.seedФиксирует генерацию для воспроизводимых результатов.response_formatЗадаёт формат ответа: текст или структурированный JSON.toolsПозволяет модели вызывать внешние функции (function calling) для получения данных или выполнения действий.tool_choiceУправляет тем, должна ли модель вызывать инструмент, и если да — какой именно.
Novita
Статус
16,524 ₽Запрос / 1М
54,162 ₽Ответ / 1М
—Изображение вход / 1М
—Изображение выход / 1М
131KКонтекст
131KМакс. ответ
Статус работы провайдера
Нет данных — 13 мая, 20:00 – 20:10
Дополнительные цены
—
Политика в отношении данных
Prompt Training:-
Prompt Logging:-
Moderation:Not moderated
Поддерживаемые параметры
max_tokensЭто устанавливает верхний предел для количества токенов, которые модель может генерировать в ответ. Больше этого предела выдаваться не будет. Максимальное значение - это длина контекста за вычетом длины запроса.temperatureУправляет случайностью ответа. Низкие значения (0.0–0.3) делают ответ более детерминированным, высокие (0.7–1.0) — более креативным.top_pNucleus sampling — ограничивает выбор токенов по совокупной вероятности. Значение 0.9 означает, что модель рассматривает только токены, составляющие 90% вероятности.stopСписок строк, при встрече которых модель прекращает генерацию.frequency_penaltyСнижает вероятность повторения уже использованных токенов.presence_penaltyПоощряет модель использовать новые темы в ответе.seedФиксирует генерацию для воспроизводимых результатов.top_kОграничивает выбор токенов фиксированным количеством наиболее вероятных вариантов.repetition_penalty
Together
Статус
16,524 ₽Запрос / 1М
54,162 ₽Ответ / 1М
—Изображение вход / 1М
—Изображение выход / 1М
1MКонтекст
—Макс. ответ
Статус работы провайдера
Нет данных — 13 мая, 20:00 – 20:10
Дополнительные цены
—
Политика в отношении данных
Prompt Training:-
Prompt Logging:-
Moderation:Not moderated
Поддерживаемые параметры
max_tokensЭто устанавливает верхний предел для количества токенов, которые модель может генерировать в ответ. Больше этого предела выдаваться не будет. Максимальное значение - это длина контекста за вычетом длины запроса.temperatureУправляет случайностью ответа. Низкие значения (0.0–0.3) делают ответ более детерминированным, высокие (0.7–1.0) — более креативным.top_pNucleus sampling — ограничивает выбор токенов по совокупной вероятности. Значение 0.9 означает, что модель рассматривает только токены, составляющие 90% вероятности.stopСписок строк, при встрече которых модель прекращает генерацию.frequency_penaltyСнижает вероятность повторения уже использованных токенов.presence_penaltyПоощряет модель использовать новые темы в ответе.top_kОграничивает выбор токенов фиксированным количеством наиболее вероятных вариантов.repetition_penaltylogit_biasmin_ptoolsПозволяет модели вызывать внешние функции (function calling) для получения данных или выполнения действий.tool_choiceУправляет тем, должна ли модель вызывать инструмент, и если да — какой именно.
WandB
Статус
15,606 ₽Запрос / 1М
60,588 ₽Ответ / 1М
—Изображение вход / 1М
—Изображение выход / 1М
64KКонтекст
64KМакс. ответ
Статус работы провайдера
Нет данных — 13 мая, 20:00 – 20:10
Дополнительные цены
15,606 ₽Кэш чтение / 1М
Политика в отношении данных
Prompt Training:-
Prompt Logging:-
Moderation:Not moderated
Поддерживаемые параметры
structured_outputsГарантирует, что ответ модели соответствует заданной JSON-схеме.max_tokensЭто устанавливает верхний предел для количества токенов, которые модель может генерировать в ответ. Больше этого предела выдаваться не будет. Максимальное значение - это длина контекста за вычетом длины запроса.temperatureУправляет случайностью ответа. Низкие значения (0.0–0.3) делают ответ более детерминированным, высокие (0.7–1.0) — более креативным.top_pNucleus sampling — ограничивает выбор токенов по совокупной вероятности. Значение 0.9 означает, что модель рассматривает только токены, составляющие 90% вероятности.top_kОграничивает выбор токенов фиксированным количеством наиболее вероятных вариантов.repetition_penaltyfrequency_penaltyСнижает вероятность повторения уже использованных токенов.presence_penaltyПоощряет модель использовать новые темы в ответе.stopСписок строк, при встрече которых модель прекращает генерацию.seedФиксирует генерацию для воспроизводимых результатов.toolsПозволяет модели вызывать внешние функции (function calling) для получения данных или выполнения действий.tool_choiceУправляет тем, должна ли модель вызывать инструмент, и если да — какой именно.
API и примеры кода
Наш сервис предоставляет единый API, совместимый с OpenAI SDK. Просто укажите наш base_url и используйте ключ, полученный
в личном кабинете.

Polza.AI — лучший выбор
для
Воспользуйтесь сервисом прямо сейчас. А если остались вопросы - запишитесь на демо