LiquidAI: LFM2-24B-A2B
ID: liquid/lfm-2-24b-a2b
2,8 ₽
Запрос/ 1М
11,21 ₽
Ответ / 1М
—
Изображение вход /1М
—
Изображение выход /1М
33K
Контекст
—
Макс. ответ
Описание
Технический обзор нейросетевой модели LFM2-24B-A2B
1. Введение и общее описание
LFM2-24B-A2B — это флагманская модель в семействе Liquid Foundation Models (LFM2), разработанная компанией Liquid AI. Данная нейросеть представляет собой инновационную гибридную архитектуру, специально спроектированную для эффективного развертывания на периферийных устройствах (edge devices).
Основное позиционирование модели — обеспечение производительности уровня крупных языковых моделей при радикальном снижении вычислительных затрат. Благодаря использованию архитектуры типа Mixture-of-Experts (MoE) с крайне эффективной схемой активации экспертов, LFM2-24B-A2B позволяет запускать сложные интеллектуальные задачи локально на потребительских ноутбуках и рабочих станциях. Модель ориентирована на разработчиков, исследователей в области ИИ и компании, обеспокоенные вопросами приватности данных при работе с локальными LLM.
2. Технические характеристики
- Архитектура: Гибридная модель, сочетающая свёрточные блоки и механизм внимания. В основе лежит Sparse Mixture of Experts (MoE) с глубокой интеграцией Gated Short-Convolution blocks.
- Параметры: Общее количество параметров составляет 24 миллиарда, однако при генерации каждого токена активируется только порядка 2,3 млрд параметров, что обеспечивает высокую скорость работы.
- Конструктив: Модель состоит из 40 слоев, где 30 слоев отданы под свёрточные структуры, а 10 слоев задействуют Grouped Query Attention (GQA).
- Контекстное окно: 32 000 токенов, что позволяет эффективно обрабатывать длинные документы и сложные контексты.
- Требования к железу: Оптимизирована для работы на системах с 32 ГБ оперативной памяти. Поддерживает работу на CPU благодаря высокой эффективности, а также на GPU и NPU.
- Форматы: Работает как специализированный инструмент для задач обработки естественного языка (NLP), генерации кода и RAG-систем. Поддерживает квантованные форматы (GGUF), обеспечивая гибкость при развертывании в llama.cpp, vLLM и SGLang.
3. Показатели производительности (бенчмарки)
Семейство моделей LFM2 демонстрирует логарифмически линейный рост качества при масштабировании параметров. LFM2-24B-A2B показывает высокие результаты в широком спектре тестов, подтверждая состоятельность гибридного подхода.
| Бенчмарк | Статус/Результат (усредненный) |
|---|---|
| MMLU-Pro | Высокий уровень понимания общих знаний |
| GSM8K | Высокая точность в математических задачах |
| IFEval | Отличная способность следовать инструкциям |
| MATH-500 | Стабильное решение школьных и олимпиадных задач |
Производительность модели при генерации впечатляет: в тестах на аппаратном обеспечении с CPU (например, AMD Ryzen AI) она способна выдавать более 100 токенов в секунду, что значительно превосходит показатели классических плотных (dense) моделей аналогичного размера.
4. Ключевые возможности
- Локальное выполнение: Способность запуска на обычном «железе» без доступа к облачным API.
- Энергоэффективность: Благодаря активации только ~2.3 млрд параметров, нейросеть потребляет минимум электроэнергии при высокой скорости декодирования.
- Гибридный контекст: Эффективная работа с длинными текстами за счет чередования свёрточных слоев и GQA.
- Специализация на инструкциях: Модель обучалась как инструктивная (instruct), что делает её готовой к решению конкретных пользовательских задач сразу после развертывания.
- Интеграция с RAG: За счет 32k контекстного окна модель идеально подходит для создания локальных систем «вопрос-ответ» по собственным базам знаний.
Пример использования (Prompt Engineering): Сценарий RAG: «Ты — эксперт по технической документации. Используя предоставленный контекст из базы знаний [вставить текст], ответь на вопрос клиента о настройке сетевого оборудования. Если данных недостаточно, укажи, что вопрос требует уточнения».
5. Оптимальные случаи использования
LFM2-24B-A2B отлично справляется с задачами, требующими баланса между ценой вычислений и качеством ответа.
- Локальные RAG-системы: Создание приватных баз знаний для анализа документов без отправки данных в облако.
- Автоматизация написания кода: Помощь разработчикам в написании функций, модульное тестирование.
- Анализ данных: Классификация и извлечение сущностей из больших объемов текста в локальной сети компании.
- Edge-решения: Встраивание продвинутого ИИ в устройства интернета вещей (IoT) и специализированные терминалы.
Кому подходит идеально: Разработчикам приложений с повышенными требованиями к конфиденциальности, пользователям с лимитированным железом. Кому не стоит использовать: Тем, кто ищет модель для глубокого творческого «литературного» письма или задач, требующих гигантских специфических знаний вне рамок стандартных датасетов.
6. Ограничения
- Галлюцинации: Как любая LLM, модель может генерировать фактологически неверные данные, если информация отсутствует в контексте.
- Сложность дообучения: Несмотря на наличие инструктивной версии, процесс «дообучения» (Fine-tuning) гибридной архитектуры требует более глубоких знаний в архитектуре Liquid AI, чем обучение стандартных трансформеров.
- Ограниченная мультимодальность: В данной версии упор сделан на текстовую составляющую, поэтому для задач распознавания сложных изображений или видео потребуются другие решения в линейке LFM2 (например, LFM2-VL).
- Зависимость от квантования: Хотя LFM2-24B-A2B спроектирована эффективно, использование сильных уровней квантования может незначительно снижать точность «рассуждений» (reasoning) модели.
Источники для дальнейшего изучения включают официальный блог liquid.ai и технический отчет на arxiv.org, содержащий детали исследования архитектуры.
Провайдеры для LiquidAI: LFM2-24B-A2B
Together
Статус
API и примеры кода
Наш сервис предоставляет единый API, совместимый с OpenAI SDK. Просто укажите наш base_url и используйте ключ, полученный в личном кабинете.
import OpenAI from 'openai';
const openai = new OpenAI({
baseURL: 'https://polza.ai/api/v1',
apiKey: '<POLZA_AI_API_KEY>'
});
async function main() {
const completion = await openai.chat.completions.create({
model: 'liquid/lfm-2-24b-a2b',
messages: [{
role: 'user',
content: 'Что думаешь об этой жизни?',
}],
});
console.log(completion.choices[0].message);
}
main();
Polza.AI — лучший выбор
для
Воспользуйтесь сервисом прямо сейчас. А если остались вопросы - запишитесь на демо