TxtAI MCP Server

Official
by neuml

Integrations

  • Hosts tutorial content for txtai with guides on implementation and usage

  • Built with FastAPI to provide web API endpoints for all txtai functionality

  • Enables workflows to analyze GitHub data, demonstrated in examples for exploring and analyzing repository content

txtai ist ein All-in-One-KI-Framework für semantische Suche, LLM-Orchestrierung und Sprachmodell-Workflows.

Die Schlüsselkomponente von txtai ist eine Einbettungsdatenbank, die eine Vereinigung von Vektorindizes (dünn und dicht), Graphnetzwerken und relationalen Datenbanken ist.

Diese Grundlage ermöglicht die Vektorsuche und/oder dient als leistungsstarke Wissensquelle für Anwendungen großer Sprachmodelle (LLM).

Erstellen Sie autonome Agenten, Retrieval Augmented Generation (RAG)-Prozesse, Multimodell-Workflows und mehr.

Zusammenfassung der txtai-Funktionen:

  • 🔎 Vektorsuche mit SQL, Objektspeicher, Themenmodellierung, Graphenanalyse und multimodaler Indizierung
  • 📄 Erstellen Sie Einbettungen für Text, Dokumente, Audio, Bilder und Videos
  • 💡 Pipelines, die von Sprachmodellen unterstützt werden und LLM-Eingabeaufforderungen, Fragen-Antworten, Beschriftungen, Transkriptionen, Übersetzungen, Zusammenfassungen und mehr ausführen
  • ↪️️ Workflows zum Zusammenführen von Pipelines und Aggregieren der Geschäftslogik. TXTAI-Prozesse können einfache Microservices oder Multimodell-Workflows sein.
  • 🤖 Agenten, die Einbettungen, Pipelines, Workflows und andere Agenten intelligent miteinander verbinden, um komplexe Probleme autonom zu lösen
  • ⚙️ Web- und Model Context Protocol (MCP)-APIs. Bindungen verfügbar für JavaScript , Java , Rust und Go .
  • 🔋 Batterien sind standardmäßig im Lieferumfang enthalten, damit Sie schnell einsatzbereit sind
  • ☁️ Lokal ausführen oder mit Container-Orchestrierung skalieren

txtai basiert auf Python 3.10+, Hugging Face Transformers , Sentence Transformers und FastAPI . txtai ist Open Source unter einer Apache 2.0-Lizenz.

Interessiert an einer einfachen und sicheren Möglichkeit, gehostete txtai-Anwendungen auszuführen? Dann nehmen Sie an der txtai.cloud -Vorschau teil, um mehr zu erfahren.

Warum txtai?

Täglich entstehen neue Vektordatenbanken, LLM-Frameworks und vieles mehr. Warum mit txtai entwickeln?

  • Mit Pip oder Docker in wenigen Minuten einsatzbereit
# Get started in a couple lines import txtai embeddings = txtai.Embeddings() embeddings.index(["Correct", "Not what we hoped"]) embeddings.search("positive", 1) #[(0, 0.29862046241760254)]
  • Die integrierte API erleichtert die Entwicklung von Anwendungen in der Programmiersprache Ihrer Wahl
# app.yml embeddings: path: sentence-transformers/all-MiniLM-L6-v2
CONFIG=app.yml uvicorn "txtai.api:app" curl -X GET "http://localhost:8000/search?query=positive"
  • Lokal ausführen – keine Notwendigkeit, Daten an unterschiedliche Remote-Dienste zu senden
  • Arbeiten mit Mikromodellen bis hin zu großen Sprachmodellen (LLMs)
  • Geringer Platzbedarf – installieren Sie zusätzliche Abhängigkeiten und skalieren Sie nach Bedarf
  • Lernen Sie anhand von Beispielen – Notebooks decken alle verfügbaren Funktionen ab

Anwendungsfälle

Die folgenden Abschnitte stellen gängige txtai-Anwendungsfälle vor. Darüber hinaus steht ein umfassender Satz von über 60 Beispiel-Notebooks und -Anwendungen zur Verfügung.

Semantische Suche

Erstellen Sie semantische/Ähnlichkeits-/Vektor-/neuronale Suchanwendungen.

Herkömmliche Suchsysteme verwenden Schlüsselwörter, um Daten zu finden. Die semantische Suche versteht die natürliche Sprache und identifiziert Ergebnisse mit gleicher Bedeutung, nicht unbedingt mit denselben Schlüsselwörtern.

Beginnen Sie mit den folgenden Beispielen.

|Notizbuch|Beschreibung| |:---|:---|---:| |Einführung von txtai ▶️|Übersicht über die von txtai bereitgestellten Funktionen|| |Ähnlichkeitssuche mit Bildern|Betten Sie Bilder und Text für die Suche im selben Bereich ein|| |Erstellen Sie eine QA-Datenbank|Fragenabgleich mit der semantischen Suche|| |Semantische Graphen|Erkunden Sie Themen, Datenkonnektivität und führen Sie Netzwerkanalysen durch||

LLM-Orchestrierung

Autonome Agenten, Retrieval Augmented Generation (RAG), Chat mit Ihren Daten, Pipelines und Workflows, die mit großen Sprachmodellen (LLMs) interagieren.

Weitere Informationen finden Sie weiter unten.

|Notizbuch|Beschreibung| |:---|:---|---:| |Eingabeaufforderungsvorlagen und Aufgabenketten|Erstellen Sie Modelleingabeaufforderungen und verknüpfen Sie Aufgaben mit Workflows|| |LLM-Frameworks integrieren|Integrieren Sie llama.cpp, LiteLLM und benutzerdefinierte Generierungsframeworks|| |Erstellen Sie Wissensgraphen mit LLMs|Erstellen Sie Wissensgraphen mit LLM-gesteuerter Entitätsextraktion|| |Analysieren der Sterne mit txtai|Erkunden Sie einen astronomischen Wissensgraphen bekannter Sterne, Planeten und Galaxien||

Agenten

Agenten verbinden Einbettungen, Pipelines, Workflows und andere Agenten miteinander, um komplexe Probleme autonom zu lösen.

txtai-Agenten basieren auf dem smolagents -Framework. Dieses unterstützt alle von txtai unterstützten LLMs (Hugging Face, llama.cpp, OpenAI / Claude / AWS Bedrock über LiteLLM).

Weitere Informationen finden Sie unter dem folgenden Link.

|Notizbuch|Beschreibung| |:---|:---|---:| |Analysieren von Hugging Face-Posts mit Graphen und Agenten|Erkunden Sie einen umfangreichen Datensatz mit Graphanalyse und Agenten|| |Gewährung von Autonomie für Agenten|Agenten, die Probleme iterativ nach eigenem Ermessen lösen|| |Analysieren von LinkedIn-Unternehmensbeiträgen mit Diagrammen und Agenten|Erkunden, wie sich das Social-Media-Engagement mithilfe von KI verbessern lässt||

Retrieval-erweiterte Generierung

Retrieval Augmented Generation (RAG) reduziert das Risiko von LLM-Halluzinationen, indem es die Ausgabe mit einer Wissensbasis als Kontext einschränkt. RAG wird häufig verwendet, um „mit Ihren Daten zu chatten“.

Eine neuartige Funktion von txtai besteht darin, dass es sowohl eine Antwort als auch eine Quellenangabe bereitstellen kann.

|Notizbuch|Beschreibung| |:---|:---|---:| |Erstellen Sie RAG-Pipelines mit txtai|Leitfaden zur erweiterten Abfragegenerierung, einschließlich der Erstellung von Zitaten|| |Aufteilen Ihrer Daten für RAG|Extrahieren, Chunken und Indexieren von Inhalten für einen effektiven Abruf|| |Erweitertes RAG mit Graphpfad-Traversierung|Graph-Pfaddurchquerung zum Sammeln komplexer Datensätze für erweitertes RAG|| |Speech-to-Speech-RAG ▶️|Vollständiger Sprach-zu-Sprache-Workflow mit RAG||

Sprachmodell-Workflows

Sprachmodell-Workflows, auch als semantische Workflows bekannt, verbinden Sprachmodelle miteinander, um intelligente Anwendungen zu erstellen.

Obwohl LLMs leistungsstark sind, gibt es viele kleinere, spezialisiertere Modelle, die für bestimmte Aufgaben besser und schneller funktionieren. Dazu gehören Modelle für die extraktiven Fragen und Antworten, automatische Zusammenfassung, Text-to-Speech, Transkription und Übersetzung.

|Notizbuch|Beschreibung| |:---|:---|---:| |Pipeline-Workflows ausführen ▶️|Einfache, aber leistungsstarke Konstrukte zur effizienten Datenverarbeitung|| |Erstellen abstrakter Textzusammenfassungen|Führen Sie eine abstrakte Textzusammenfassung durch|| |Audio in Text transkribieren|Audiodateien in Text konvertieren|| |Übersetzen Sie Text zwischen Sprachen|Optimieren Sie die maschinelle Übersetzung und Spracherkennung||

Installation

Die einfachste Möglichkeit zur Installation ist über Pip und PyPI

pip install txtai

Python 3.10+ wird unterstützt. Die Verwendung einer virtuellen Python-Umgebung wird empfohlen.

Weitere Informationen zu optionalen Abhängigkeiten , umgebungsspezifischen Voraussetzungen , Installation aus der Quelle , Conda-Unterstützung und Ausführung mit Containern finden Sie in den ausführlichen Installationsanweisungen .

Modellhandbuch

Die aktuell empfohlenen Modelle finden Sie in der folgenden Tabelle. Diese Modelle sind alle für den gewerblichen Einsatz geeignet und bieten eine Kombination aus Geschwindigkeit und Leistung.

KomponenteModell(e)
Einbettungenall-MiniLM-L6-v2
BildunterschriftenBLIP
Etiketten - Zero ShotBART-Groß-MNLI
Etiketten – behobenFeinabstimmung mit der Trainingspipeline
Großes Sprachmodell (LLM)Lama 3.1-Anweisung
ZusammenfassungDistilBART
Text-to-SpeechESPnet JETS
TranskriptionFlüstern
ÜbersetzungOPUS-Modellreihe

Modelle können entweder über einen Pfad vom Hugging Face Hub oder über ein lokales Verzeichnis geladen werden. Modellpfade sind optional. Standardmodelle werden geladen, wenn sie nicht angegeben sind. Für Aufgaben ohne empfohlenes Modell verwendet txtai die Standardmodelle gemäß der Anleitung zu Hugging Face-Aufgaben.

Weitere Informationen finden Sie unter den folgenden Links.

Unterstützt von txtai

Die folgenden Anwendungen werden von txtai unterstützt.

AnwendungBeschreibung
LappenRetrieval Augmented Generation (RAG)-Anwendung
RagdataAufbau von Wissensdatenbanken für RAG
paperaiSemantische Suche und Workflows für medizinisch-wissenschaftliche Arbeiten
annotateaiAutomatische Kommentierung von Dokumenten mit LLMs

Zusätzlich zu dieser Liste gibt es auch viele andere Open-Source-Projekte , veröffentlichte Forschungsergebnisse und geschlossene proprietäre/kommerzielle Projekte, die in der Produktion auf txtai aufgebaut sind.

Weitere Informationen

Dokumentation

Eine vollständige Dokumentation zu txtai, einschließlich Konfigurationseinstellungen für Einbettungen, Pipelines, Workflows, API und einer FAQ mit häufig gestellten Fragen/Problemen, ist verfügbar.

Beitragen

Wer zu txtai beitragen möchte, findet in diesem Leitfaden weitere Informationen.

-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

txtai ist eine All-in-One-Embedding-Datenbank für semantische Suche, LLM-Orchestrierung und Sprachmodell-Workflows. Alle Funktionen können über die API bereitgestellt werden, die MCP unterstützt.

Dokumente: https://neuml.github.io/txtai/api/mcp/

  1. Anwendungsfälle
    1. Semantische Suche
    2. LLM-Orchestrierung
    3. Sprachmodell-Workflows
  2. Installation
    1. Modellhandbuch
      1. Unterstützt von txtai
        1. Weitere Informationen
          1. Dokumentation
            1. Beitragen

              Related MCP Servers

              • -
                security
                A
                license
                -
                quality
                A Model Context Protocol (MCP) server that enables semantic search and retrieval of documentation using a vector database (Qdrant). This server allows you to add documentation from URLs or local files and then search through them using natural language queries.
                Last updated -
                14
                74
                JavaScript
                Apache 2.0
                • Apple
              • -
                security
                A
                license
                -
                quality
                An MCP server implementation that provides tools for retrieving and processing documentation through vector search, enabling AI assistants to augment their responses with relevant documentation context. Uses Ollama or OpenAI to generate embeddings. Docker files included
                Last updated -
                19
                14
                TypeScript
                MIT License
                • Apple
                • Linux
              • A
                security
                A
                license
                A
                quality
                An MCP server that connects to Tana's Input API, allowing Large Language Models and other MCP clients to create and manipulate data in Tana workspaces.
                Last updated -
                11
                13
                4
                TypeScript
                MIT License
                • Linux
                • Apple
              • -
                security
                F
                license
                -
                quality
                A TypeScript-based MCP server that enables LLM agents to interact with Gel databases through natural language, providing tools to learn database schemas, validate and execute EdgeQL queries.
                Last updated -
                5
                TypeScript

              View all related MCP servers

              ID: s7xgb8h2zz