Skip to main content
Glama

TxtAI MCP Server

by neuml

txtai — это комплексная среда искусственного интеллекта для семантического поиска, оркестровки LLM и рабочих процессов языковой модели.

архитектураархитектура

Ключевым компонентом txtai является база данных вложений, которая представляет собой объединение векторных индексов (разреженных и плотных), графовых сетей и реляционных баз данных.

Эта основа позволяет осуществлять векторный поиск и/или служит мощным источником знаний для приложений большой языковой модели (LLM).

Создавайте автономные агенты, процессы расширенной генерации данных (RAG), многомодельные рабочие процессы и многое другое.

Краткое описание возможностей txtai:

  • 🔎 Векторный поиск с SQL, хранилищем объектов, тематическим моделированием, анализом графов и мультимодальным индексированием
  • 📄 Создавайте вставки для текста, документов, аудио, изображений и видео
  • 💡 Конвейеры на основе языковых моделей, которые запускают подсказки LLM, вопросы и ответы, маркировку, транскрипцию, перевод, реферирование и многое другое
  • ↪️️ Рабочие процессы для объединения конвейеров и агрегации бизнес-логики. Процессы txtai могут быть простыми микросервисами или многомодельными рабочими процессами.
  • 🤖 Агенты, которые интеллектуально связывают встраивания, конвейеры, рабочие процессы и других агентов вместе для автономного решения сложных задач
  • ⚙️ API Web и Model Context Protocol (MCP). Доступны привязки для JavaScript , Java , Rust и Go .
  • 🔋 В комплект поставки входят батареи по умолчанию для быстрого начала работы
  • ☁️ Запуск локально или масштабирование с помощью оркестровки контейнеров

txtai создан с использованием Python 3.10+, Hugging Face Transformers , Sentence Transformers и FastAPI . txtai имеет открытый исходный код под лицензией Apache 2.0.

Интересуетесь простым и безопасным способом запуска размещенных приложений txtai? Тогда присоединяйтесь к предварительному просмотру txtai.cloud , чтобы узнать больше.

Почему TXTAI?

почемупочему

Новые векторные базы данных, фреймворки LLM и все, что между ними, появляются ежедневно. Зачем разрабатывать с txtai?

  • Запуск за считанные минуты с помощью pip или Docker
# Get started in a couple lines import txtai embeddings = txtai.Embeddings() embeddings.index(["Correct", "Not what we hoped"]) embeddings.search("positive", 1) #[(0, 0.29862046241760254)]
  • Встроенный API упрощает разработку приложений с использованием выбранного вами языка программирования.
# app.yml embeddings: path: sentence-transformers/all-MiniLM-L6-v2
CONFIG=app.yml uvicorn "txtai.api:app" curl -X GET "http://localhost:8000/search?query=positive"
  • Работает локально — нет необходимости отправлять данные в разрозненные удаленные службы
  • Работа с микромоделями вплоть до больших языковых моделей (LLM)
  • Низкий уровень энергопотребления — устанавливайте дополнительные зависимости и масштабируйте по мере необходимости
  • Учитесь на примерах — ноутбуки охватывают все доступные функции

Варианты использования

В следующих разделах представлены общие случаи использования txtai. Также доступен полный набор из более чем 60 примеров блокнотов и приложений .

Семантический поиск

Создавайте приложения семантического/сходного/векторного/нейронного поиска.

демо

Традиционные поисковые системы используют ключевые слова для поиска данных. Семантический поиск понимает естественный язык и находит результаты, имеющие одинаковое значение, не обязательно одинаковые ключевые слова.

поискпоиск

Начните со следующих примеров.

|Блокнот|Описание| |:---|:---|---:| |Представляем txtai ▶️|Обзор функциональных возможностей, предоставляемых txtai|| |Поиск сходства с изображениями|Встраивайте изображения и текст в одно и то же пространство для поиска|| |Создание базы данных контроля качества|Сопоставление вопросов с семантическим поиском|| |Семантические графы|Изучите темы, возможности подключения к данным и проведите сетевой анализ||

Магистр права (LLM) по оркестровке

Автономные агенты, расширенная генерация данных (RAG), чат с вашими данными, конвейеры и рабочие процессы, взаимодействующие с большими языковыми моделями (LLM).

ллм

Более подробную информацию смотрите ниже.

|Блокнот|Описание| |:---|:---|---:| |Шаблоны подсказок и цепочки задач|Создавайте подсказки для моделей и связывайте задачи с рабочими процессами|| |Интеграция фреймворков LLM|Интеграция llama.cpp, LiteLLM и пользовательских фреймворков генерации|| |Создавайте графы знаний с помощью LLM|Создавайте графы знаний с помощью извлечения сущностей на основе LLM|| |Анализ звезд с помощью txtai|Изучите график астрономических знаний известных звезд, планет и галактик.||

Агенты

Агенты объединяют встраивания, конвейеры, рабочие процессы и других агентов для автономного решения сложных задач.

агент

Агенты txtai построены на основе фреймворка smolagents . Он поддерживает все LLM, поддерживаемые txtai (Hugging Face, llama.cpp, OpenAI / Claude / AWS Bedrock через LiteLLM).

Более подробную информацию можно узнать по ссылке ниже.

|Блокнот|Описание| |:---|:---|---:| |Анализ постов с объятиями с помощью графиков и агентов|Исследуйте богатый набор данных с помощью графического анализа и агентов|| |Предоставление автономии агентам|Агенты, которые итеративно решают проблемы так, как считают нужным|| |Анализ публикаций компании в LinkedIn с помощью графиков и агентов|Изучение того, как улучшить взаимодействие в социальных сетях с помощью ИИ||

Дополненная генерация поиска

Дополненная генерация поиска (RAG) снижает риск галлюцинаций LLM, ограничивая вывод базой знаний в качестве контекста. RAG обычно используется для «чата с вашими данными».

тряпкатряпка

Новой функцией txtai является то, что он может предоставить как ответ, так и ссылку на источник.

|Блокнот|Описание| |:---|:---|---:| |Создание RAG-конвейеров с помощью txtai|Руководство по поиску дополненной реальности, включая создание ссылок|| |Разделение данных на части для RAG|Извлечение, фрагментация и индексация контента для эффективного поиска|| |Расширенный RAG с обходом пути графа|Обход пути графа для сбора сложных наборов данных для расширенного RAG|| |Речь в речь RAG ▶️|Полный цикл речевого рабочего процесса с RAG||

Рабочие процессы языковой модели

Рабочие процессы языковых моделей, также известные как семантические рабочие процессы, объединяют языковые модели для создания интеллектуальных приложений.

потокипотоки

Хотя LLM являются мощными, есть множество меньших, более специализированных моделей, которые работают лучше и быстрее для определенных задач. Это включает модели для извлекаемых вопросов-ответов, автоматического реферирования, преобразования текста в речь, транскрипции и перевода.

|Блокнот|Описание| |:---|:---|---:| |Запуск рабочих процессов конвейера ▶️|Простые, но мощные конструкции для эффективной обработки данных|| |Создание абстрактных текстовых резюме|Выполнить абстрактное резюмирование текста|| |Транскрибировать аудио в текст|Конвертировать аудиофайлы в текст|| |Перевод текста между языками|Оптимизируйте машинный перевод и определение языка||

Установка

установитьустановить

Самый простой способ установки — через pip и PyPI.

pip install txtai

Поддерживается Python 3.10+. Рекомендуется использовать виртуальную среду Python.

Подробные инструкции по установке содержат дополнительную информацию о дополнительных зависимостях , предварительных условиях для конкретной среды , установке из исходного кода , поддержке conda и о том, как работать с контейнерами .

Модель руководства

модели

См. таблицу ниже для текущих рекомендуемых моделей. Все эти модели допускают коммерческое использование и предлагают сочетание скорости и производительности.

Модели можно загрузить как путь из Hugging Face Hub или локального каталога. Пути к моделям необязательны, если не указано иное, загружаются значения по умолчанию. Для задач без рекомендуемой модели txtai использует модели по умолчанию, как показано в руководстве Hugging Face Tasks.

Более подробную информацию можно узнать по следующим ссылкам.

При поддержке txtai

Следующие приложения работают на базе txtai.

приложения

ПриложениеОписание
тряпкаПриложение Retrieval Augmented Generation (RAG)
ragdataСоздание баз знаний для RAG
бумагаaiСемантический поиск и рабочие процессы для медицинских/научных статей
аннотацииАвтоматически аннотировать статьи с LLM

В дополнение к этому списку существует также множество других проектов с открытым исходным кодом , опубликованных исследований и закрытых проприетарных/коммерческих проектов, которые построены на TXTAI в производстве.

Дальнейшее чтение

дальшедальше

Документация

Доступна полная документация по txtai, включая параметры конфигурации для встраивания, конвейеров, рабочих процессов, API, а также раздел часто задаваемых вопросов и ответов на распространенные проблемы.

Внося вклад

Для тех, кто хотел бы внести свой вклад в txtai, пожалуйста, ознакомьтесь с этим руководством .

-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

txtai — это комплексная база данных вложений для семантического поиска, оркестровки LLM и рабочих процессов языковой модели. Все функции могут обслуживаться через ее API, а API поддерживает MCP.

Документы: https://neuml.github.io/txtai/api/mcp/

  1. Варианты использования
    1. Семантический поиск
    2. Магистр права (LLM) по оркестровке
    3. Рабочие процессы языковой модели
  2. Установка
    1. Модель руководства
      1. При поддержке txtai
        1. Дальнейшее чтение
          1. Документация
            1. Внося вклад

              Related MCP Servers

              • -
                security
                F
                license
                -
                quality
                A production-ready MCP server built with FastAPI, providing an enhanced tool registry for creating, managing, and documenting AI tools for Large Language Models (LLMs).
                Last updated -
                13
                Python
              • -
                security
                A
                license
                -
                quality
                An MCP server aimed to be portable, local, easy and convenient to support semantic/graph based retrieval of txtai "all in one" embeddings database. Any txtai embeddings db in tar.gz form can be loaded
                Last updated -
                26
                Python
                MIT License
                • Linux
                • Apple
              • -
                security
                F
                license
                -
                quality
                An MCP server that integrates real-time web search capabilities into AI assistants using the Exa API, providing both basic and advanced search functionality with formatted markdown results.
                Last updated -
                119
                Python
                • Linux
                • Apple
              • -
                security
                F
                license
                -
                quality
                Model Context Protocol (MCP) server implementation for semantic search and memory management using TxtAI. This server provides a robust API for storing, retrieving, and managing text-based memories with semantic search capabilities. You can use Claude and Cline AI Also
                Last updated -
                4
                Python
                • Apple

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/neuml/txtai'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server