Polza.AI
Polza.ai Logo

Начните пользоваться прямо сейчас

Единый API для 400+ моделей ИИ. Создавайте тексты, код, изображения, аудио и видео в одном интерфейсе.

TelegramXInstagramYouTubeVK
© 2025 Polza Ai • Все права защищены
К списку моделей
LiquidAI: LFM2-24B-A2B

LiquidAI: LFM2-24B-A2B

ID: liquid/lfm-2-24b-a2b

Попробовать

2,8 ₽

Запрос/ 1М

11,21 ₽

Ответ / 1М

Изображение вход /1М

Изображение выход /1М

33K

Контекст

Макс. ответ

Описание

Технический обзор нейросетевой модели LFM2-24B-A2B

1. Введение и общее описание

LFM2-24B-A2B — это флагманская модель в семействе Liquid Foundation Models (LFM2), разработанная компанией Liquid AI. Данная нейросеть представляет собой инновационную гибридную архитектуру, специально спроектированную для эффективного развертывания на периферийных устройствах (edge devices).

Основное позиционирование модели — обеспечение производительности уровня крупных языковых моделей при радикальном снижении вычислительных затрат. Благодаря использованию архитектуры типа Mixture-of-Experts (MoE) с крайне эффективной схемой активации экспертов, LFM2-24B-A2B позволяет запускать сложные интеллектуальные задачи локально на потребительских ноутбуках и рабочих станциях. Модель ориентирована на разработчиков, исследователей в области ИИ и компании, обеспокоенные вопросами приватности данных при работе с локальными LLM.

2. Технические характеристики

  • Архитектура: Гибридная модель, сочетающая свёрточные блоки и механизм внимания. В основе лежит Sparse Mixture of Experts (MoE) с глубокой интеграцией Gated Short-Convolution blocks.
  • Параметры: Общее количество параметров составляет 24 миллиарда, однако при генерации каждого токена активируется только порядка 2,3 млрд параметров, что обеспечивает высокую скорость работы.
  • Конструктив: Модель состоит из 40 слоев, где 30 слоев отданы под свёрточные структуры, а 10 слоев задействуют Grouped Query Attention (GQA).
  • Контекстное окно: 32 000 токенов, что позволяет эффективно обрабатывать длинные документы и сложные контексты.
  • Требования к железу: Оптимизирована для работы на системах с 32 ГБ оперативной памяти. Поддерживает работу на CPU благодаря высокой эффективности, а также на GPU и NPU.
  • Форматы: Работает как специализированный инструмент для задач обработки естественного языка (NLP), генерации кода и RAG-систем. Поддерживает квантованные форматы (GGUF), обеспечивая гибкость при развертывании в llama.cpp, vLLM и SGLang.

3. Показатели производительности (бенчмарки)

Семейство моделей LFM2 демонстрирует логарифмически линейный рост качества при масштабировании параметров. LFM2-24B-A2B показывает высокие результаты в широком спектре тестов, подтверждая состоятельность гибридного подхода.

БенчмаркСтатус/Результат (усредненный)
MMLU-ProВысокий уровень понимания общих знаний
GSM8KВысокая точность в математических задачах
IFEvalОтличная способность следовать инструкциям
MATH-500Стабильное решение школьных и олимпиадных задач

Производительность модели при генерации впечатляет: в тестах на аппаратном обеспечении с CPU (например, AMD Ryzen AI) она способна выдавать более 100 токенов в секунду, что значительно превосходит показатели классических плотных (dense) моделей аналогичного размера.

4. Ключевые возможности

  1. Локальное выполнение: Способность запуска на обычном «железе» без доступа к облачным API.
  2. Энергоэффективность: Благодаря активации только ~2.3 млрд параметров, нейросеть потребляет минимум электроэнергии при высокой скорости декодирования.
  3. Гибридный контекст: Эффективная работа с длинными текстами за счет чередования свёрточных слоев и GQA.
  4. Специализация на инструкциях: Модель обучалась как инструктивная (instruct), что делает её готовой к решению конкретных пользовательских задач сразу после развертывания.
  5. Интеграция с RAG: За счет 32k контекстного окна модель идеально подходит для создания локальных систем «вопрос-ответ» по собственным базам знаний.

Пример использования (Prompt Engineering): Сценарий RAG: «Ты — эксперт по технической документации. Используя предоставленный контекст из базы знаний [вставить текст], ответь на вопрос клиента о настройке сетевого оборудования. Если данных недостаточно, укажи, что вопрос требует уточнения».

5. Оптимальные случаи использования

LFM2-24B-A2B отлично справляется с задачами, требующими баланса между ценой вычислений и качеством ответа.

  • Локальные RAG-системы: Создание приватных баз знаний для анализа документов без отправки данных в облако.
  • Автоматизация написания кода: Помощь разработчикам в написании функций, модульное тестирование.
  • Анализ данных: Классификация и извлечение сущностей из больших объемов текста в локальной сети компании.
  • Edge-решения: Встраивание продвинутого ИИ в устройства интернета вещей (IoT) и специализированные терминалы.

Кому подходит идеально: Разработчикам приложений с повышенными требованиями к конфиденциальности, пользователям с лимитированным железом. Кому не стоит использовать: Тем, кто ищет модель для глубокого творческого «литературного» письма или задач, требующих гигантских специфических знаний вне рамок стандартных датасетов.

6. Ограничения

  • Галлюцинации: Как любая LLM, модель может генерировать фактологически неверные данные, если информация отсутствует в контексте.
  • Сложность дообучения: Несмотря на наличие инструктивной версии, процесс «дообучения» (Fine-tuning) гибридной архитектуры требует более глубоких знаний в архитектуре Liquid AI, чем обучение стандартных трансформеров.
  • Ограниченная мультимодальность: В данной версии упор сделан на текстовую составляющую, поэтому для задач распознавания сложных изображений или видео потребуются другие решения в линейке LFM2 (например, LFM2-VL).
  • Зависимость от квантования: Хотя LFM2-24B-A2B спроектирована эффективно, использование сильных уровней квантования может незначительно снижать точность «рассуждений» (reasoning) модели.

Источники для дальнейшего изучения включают официальный блог liquid.ai и технический отчет на arxiv.org, содержащий детали исследования архитектуры.

Провайдеры для LiquidAI: LFM2-24B-A2B

Together

Статус

2,802 ₽Запрос/ 1М
11,21 ₽Ответ / 1М
Изображение вход /1М
Изображение выход /1М
33KКонтекст
Макс. ответ

Статус работы провайдера

Нет данных 29 мар., 16:50 – 17:00

Дополнительные цены

Политика в отношении данных

Prompt Training:-
Prompt Logging:-
Moderation:Not moderated

Поддерживаемые параметры

max_tokenstemperaturetop_pstopfrequency_penaltypresence_penaltytop_krepetition_penaltylogit_biasmin_p

API и примеры кода

Наш сервис предоставляет единый API, совместимый с OpenAI SDK. Просто укажите наш base_url и используйте ключ, полученный в личном кабинете.

import OpenAI from 'openai';

const openai = new OpenAI({
  baseURL: 'https://polza.ai/api/v1',
  apiKey: '<POLZA_AI_API_KEY>'
});

async function main() {
  const completion = await openai.chat.completions.create({
    model: 'liquid/lfm-2-24b-a2b',
    messages: [{
      role: 'user',
      content: 'Что думаешь об этой жизни?',
    }],
  });
  console.log(completion.choices[0].message);
}

main();
SelectВыбор за вами
Polza.AI Logo

Polza.AI — лучший выбор

для

Воспользуйтесь сервисом прямо сейчас. А если остались вопросы - запишитесь на демо

LiquidAI: LFM2-24B-A2B — цены, контекст, API | Polza AI