LangFlow — это бесплатный open‑source‑фреймворк, позволяющий собирать и запускать цепочки из больших языковых моделей без единой строки кода. Drag‑&‑drop‑редактор, поддержка Model Context Protocol (MCP) и готовый Docker‑образ делают его идеальным решением для быстрого прототипирования чат‑ботов, RAG‑систем и агентных сервисов.

Установка и первый запуск
Установка через pip
Самый лёгкий способ — установить Python‑виртуальное окружение и выполнить две команды:
python -m venv .venv && source .venv/bin/activate
pip install langflow
langflow run
Команда langflow run поднимает локальный сервер
http://localhost:7860, где открывается UI‑редактор.
Docker‑контейнер (рекомендовано для продакшн)
Если нужен надёжный и масштабируемый сервис, достаточно одного образа:
docker pull langflow/langflow:latest
docker run -p 7860:7860 -v $(pwd)/flows:/app/flows langflow/langflow
Контейнер уже содержит FastAPI, React‑frontend и все зависимости. При монтировании
каталога /app/flows вы получаете постоянное хранилище ваших workflow‑файлов.
Desktop‑версия (Electron)
Для тех, кто не хочет управлять сервером, существует готовый LangFlow Desktop — исполняемый файл (Windows/macOS/Linux). После установки открывается то же самое веб‑окно, но в собственном окне приложения.
Работа с API и Model Context Protocol (MCP)
API‑endpoint
| Метод | URL | Назначение |
|---|---|---|
| POST | /api/v1/flows/run | Запуск сохранённого flow и получение ответа. |
| GET | /api/v1/flows/{flow_id} | Получить JSON‑описание workflow. |
| POST | /api/v1/mcp/execute | Выполнить запрос через Model Context Protocol. |
Пример запроса
{
"flow_id": "my_chatbot",
"inputs": { "user_message": "Привет!" }
}
Ответ содержит assistant_message и массив intermediate_steps,
что удобно использовать в интерактивных чат‑виджетах.
Что такое MCP?
Model Context Protocol — единый формат обмена контекстом между разными LLM‑агентами. Вместо пересылки полной истории диалога каждый агент получает лишь необходимые «тезисы» (например, текущий заказ пользователя) и возвращает их следующему агенту. В LangFlow MCP реализован как отдельный тип узла MCP Connector, автоматически сериализующий/десериализующий контекст в JSON.
Практический пример: RAG‑чат‑бот с Pinecone
- Создаём узлы:
PineconeVectorStore— подключаем свой API‑ключ.PromptTemplate— запрос к базе: «Найди документы, связанные с запросом: {{question}}».LLM (OpenAI gpt‑4‑turbo)— генерируем ответ.MCP Connector— передаём найденные фрагменты в LLM.
- Связываем их стрелками:
пользователь →
PromptTemplate→VectorStore→MCP→LLM→ChatOutput. - Тестируем в Playground: вводим вопрос «Как оформить возврат в магазине?». Векторный поиск возвращает 3‑4 релевантных фрагмента, LLM генерирует готовый ответ с ссылкой на политику возврата.
- Экспортируем flow (Export → JSON) и подключаем к бекенду через
/api/v1/flows/run. Любой сайт теперь может задавать вопросы без дополнительного кода.
Сравнение с n8n: в чём выгода LangFlow?
| Параметр | LangFlow | n8n |
|---|---|---|
| Фокус | LLM‑pipeline, agents, RAG | Универсальная автоматизация (APIs, DB, файлы) |
| Поддержка LLM | Нативные узлы LangChain, MCP | Через HTTP‑запросы, плагины |
| UI | React Flow — прямой просмотр скриптов | Блоки “node‑based”, без готовых LLM‑шаблонов |
| Развёртывание | Docker, pip, desktop | Docker, Kubernetes, n8n.cloud |
| Стоимость | 100 % open‑source | Бесплатный план ограничен 2 000 задач/мес, платные тарифы |
Если ваша задача — быстро собрать AI‑workflow, готовые компоненты LangFlow и возможность передавать контекст между агентами (MCP) дают ощутимое преимущество.
Заключение
LangFlow превращает сложные цепочки LLM‑моделей, векторных баз и агентов в набор
визуальных блоков, экономя недели разработки и упрощая прототипирование. Установить
его можно в три клика (pip, Docker или Desktop), а готовый flow
экспортируется в JSON и обслуживается через простой FastAPI‑API. Встроенный API + MCP
дают гибкость и масштабируемость, а открытый код обеспечивает полную независимость от
конкретных провайдеров LLM.
Попробуйте собрать свой первый RAG‑бот уже сегодня — и убедитесь, что «код без кода» действительно работает.