LangFlow — это бесплатный open‑source‑фреймворк, позволяющий собирать и запускать цепочки из больших языковых моделей без единой строки кода. Drag‑&‑drop‑редактор, поддержка Model Context Protocol (MCP) и готовый Docker‑образ делают его идеальным решением для быстрого прототипирования чат‑ботов, RAG‑систем и агентных сервисов.

LangFlow

Установка и первый запуск

Установка через pip

Самый лёгкий способ — установить Python‑виртуальное окружение и выполнить две команды:

python -m venv .venv && source .venv/bin/activate
pip install langflow
langflow run

Команда langflow run поднимает локальный сервер http://localhost:7860, где открывается UI‑редактор.

Docker‑контейнер (рекомендовано для продакшн)

Если нужен надёжный и масштабируемый сервис, достаточно одного образа:

docker pull langflow/langflow:latest
docker run -p 7860:7860 -v $(pwd)/flows:/app/flows langflow/langflow

Контейнер уже содержит FastAPI, React‑frontend и все зависимости. При монтировании каталога /app/flows вы получаете постоянное хранилище ваших workflow‑файлов.

Desktop‑версия (Electron)

Для тех, кто не хочет управлять сервером, существует готовый LangFlow Desktop — исполняемый файл (Windows/macOS/Linux). После установки открывается то же самое веб‑окно, но в собственном окне приложения.

Работа с API и Model Context Protocol (MCP)

API‑endpoint

МетодURLНазначение
POST/api/v1/flows/runЗапуск сохранённого flow и получение ответа.
GET/api/v1/flows/{flow_id}Получить JSON‑описание workflow.
POST/api/v1/mcp/executeВыполнить запрос через Model Context Protocol.

Пример запроса

{
  "flow_id": "my_chatbot",
  "inputs": { "user_message": "Привет!" }
}

Ответ содержит assistant_message и массив intermediate_steps, что удобно использовать в интерактивных чат‑виджетах.

Что такое MCP?

Model Context Protocol — единый формат обмена контекстом между разными LLM‑агентами. Вместо пересылки полной истории диалога каждый агент получает лишь необходимые «тезисы» (например, текущий заказ пользователя) и возвращает их следующему агенту. В LangFlow MCP реализован как отдельный тип узла MCP Connector, автоматически сериализующий/десериализующий контекст в JSON.

Практический пример: RAG‑чат‑бот с Pinecone

  1. Создаём узлы:
    • PineconeVectorStore — подключаем свой API‑ключ.
    • PromptTemplate — запрос к базе: «Найди документы, связанные с запросом: {{question}}».
    • LLM (OpenAI gpt‑4‑turbo) — генерируем ответ.
    • MCP Connector — передаём найденные фрагменты в LLM.
  2. Связываем их стрелками: пользователь → PromptTemplateVectorStoreMCPLLMChatOutput.
  3. Тестируем в Playground: вводим вопрос «Как оформить возврат в магазине?». Векторный поиск возвращает 3‑4 релевантных фрагмента, LLM генерирует готовый ответ с ссылкой на политику возврата.
  4. Экспортируем flow (Export → JSON) и подключаем к бекенду через /api/v1/flows/run. Любой сайт теперь может задавать вопросы без дополнительного кода.

Сравнение с n8n: в чём выгода LangFlow?

ПараметрLangFlown8n
ФокусLLM‑pipeline, agents, RAGУниверсальная автоматизация (APIs, DB, файлы)
Поддержка LLMНативные узлы LangChain, MCPЧерез HTTP‑запросы, плагины
UIReact Flow — прямой просмотр скриптовБлоки “node‑based”, без готовых LLM‑шаблонов
РазвёртываниеDocker, pip, desktopDocker, Kubernetes, n8n.cloud
Стоимость100 % open‑sourceБесплатный план ограничен 2 000 задач/мес, платные тарифы

Если ваша задача — быстро собрать AI‑workflow, готовые компоненты LangFlow и возможность передавать контекст между агентами (MCP) дают ощутимое преимущество.

Заключение

LangFlow превращает сложные цепочки LLM‑моделей, векторных баз и агентов в набор визуальных блоков, экономя недели разработки и упрощая прототипирование. Установить его можно в три клика (pip, Docker или Desktop), а готовый flow экспортируется в JSON и обслуживается через простой FastAPI‑API. Встроенный API + MCP дают гибкость и масштабируемость, а открытый код обеспечивает полную независимость от конкретных провайдеров LLM.

Попробуйте собрать свой первый RAG‑бот уже сегодня — и убедитесь, что «код без кода» действительно работает.

Егор Левин

Дата публикации:

Обновлено:

Свежие записи в нашем блоге

68f203f78e9e4.jpeg

Установка и настройка OpenGL в дистрибутивах Linux

Егор Левин

OpenGL (Open Graphics Library) — это кроссплатформенный программный интерфейс для разработки приложений, использующих двумерную и трёхмерную графику. В Linux-системах реализация OpenGL предоставляется...

68f1774178044.jpg

Windows 11 25H2: всё, что важно знать о обновлении

LevPRO AI

Очередной крупный апдейт Windows 11 с кодовым названием 25H2 уже будоражит умы пользователей. В сети полно запросов о дате выхода, новых функциях и, конечно же, о том, как его заполучить...

68e82edfbb122.jpg

Полное руководство по установке и использованию Wine

Егор Левин

Wine — это мощный инструмент, позволяющий запускать Windows-приложения на Linux и других POSIX-совместимых операционных системах без необходимости установки самой Windows. Данное руководство предостав...

68e268741ab83.png

РОСА Linux: российский дистрибутив, который не боится сложностей

Егор Левин

Когда заходит речь о российском ПО, у многих возникает образ чего-то обязательного, неудобного и созданного «для галочки». РОСА Linux — приятное исключение из этого правила. Это не просто сборник прог...

68dfc4eb04edc.jpeg

Alt Linux: полное руководство по установке, настройке и использованию

Егор Левин

Alt Linux — это семейство российских операционных систем на базе Linux, которое активно используется в государственных учреждениях, образовательных организациях и корпоративной среде. В этом подробном...

Другая полезная информация