Skip to main content
Glama

txtai は、セマンティック検索、LLM オーケストレーション、言語モデル ワークフローのためのオールインワン AI フレームワークです。

建築建築

txtai の主要コンポーネントは、ベクトル インデックス (スパースとデンス)、グラフ ネットワーク、およびリレーショナル データベースの結合である埋め込みデータベースです。

この基盤により、ベクトル検索が可能になり、大規模言語モデル (LLM) アプリケーションのための強力な知識ソースとして機能します。

自律エージェント、検索拡張生成 (RAG) プロセス、マルチモデル ワークフローなどを構築します。

txtai の機能の概要:

  • 🔎 SQL、オブジェクトストレージ、トピックモデリング、グラフ分析、マルチモーダルインデックスを使用したベクトル検索

  • 📄 テキスト、ドキュメント、オーディオ、画像、ビデオの埋め込みを作成する

  • 💡 LLMプロンプト、質問応答、ラベル付け、文字起こし、翻訳、要約などを実行する言語モデルを搭載したパイプライン

  • ↪️️ パイプラインを結合してビジネス ロジックを集約するワークフロー。txtai プロセスは、単純なマイクロサービスまたはマルチモデル ワークフローにすることができます。

  • 🤖 埋め込み、パイプライン、ワークフロー、その他のエージェントをインテリジェントに接続し、複雑な問題を自律的に解決するエージェント

  • ⚙️ Web および Model Context Protocol (MCP) API。JavaScript、 JavaRustGoバインディングが利用可能です。

  • 🔋 すぐに起動できるようにバッテリーが標準装備されています

  • ☁️ コンテナ オーケストレーションを使用してローカルで実行またはスケールアウトする

txtai は、Python 3.10+、 Hugging Face TransformersSentence TransformersFastAPIを使用して構築されています。txtai は、Apache 2.0 ライセンスに基づくオープンソースです。

ホストされた txtai アプリケーションを簡単かつ安全に実行する方法に興味がありますか?

なぜtxtaiなのか?

なぜなぜ

新しいベクターデータベース、LLMフレームワーク、そしてその間のあらゆるものが日々誕生しています。なぜtxtaiで構築するのでしょうか?

  • pipまたはDockerを使えば数分で起動して実行できます

# Get started in a couple lines import txtai embeddings = txtai.Embeddings() embeddings.index(["Correct", "Not what we hoped"]) embeddings.search("positive", 1) #[(0, 0.29862046241760254)]
  • 組み込みAPIにより、お好みのプログラミング言語を使用してアプリケーションを簡単に開発できます。

# app.yml embeddings: path: sentence-transformers/all-MiniLM-L6-v2
CONFIG=app.yml uvicorn "txtai.api:app" curl -X GET "http://localhost:8000/search?query=positive"
  • ローカルで実行 - 異なるリモート サービスにデータを送信する必要がない

  • マイクロモデルから大規模言語モデル(LLM)までを扱う

  • フットプリントが小さい - 追加の依存関係をインストールし、必要に応じてスケールアップします

  • 例で学ぶ- ノートブックは利用可能なすべての機能をカバーします

Related MCP server: ReActMCP Web Search

ユースケース

以下のセクションでは、txtaiの一般的な使用例を紹介します。60を超える包括的なサンプルノートブックとアプリケーションもご用意しています。

セマンティック検索

セマンティック/類似性/ベクトル/ニューラル検索アプリケーションを構築します。

デモ

従来の検索システムは、キーワードを使ってデータを検索します。セマンティック検索は自然言語を理解し、必ずしも同じキーワードではなく、同じ意味を持つ結果を識別します。

検索検索

次の例から始めましょう。

|ノート|説明| |:---|:---|---:| |txtaiのご紹介▶️|txtaiが提供する機能の概要|Colabで開く| |画像による類似検索|画像とテキストを同じスペースに埋め込んで検索する|Colabで開く| |QAデータベースを構築する|セマンティック検索による質問マッチング|Colabで開く| |セマンティックグラフ|トピック、データの接続性を探索し、ネットワーク分析を実行する|Colabで開く|

LLMオーケストレーション

自律エージェント、検索拡張生成 (RAG)、データとのチャット、大規模言語モデル (LLM) とインターフェースするパイプラインおよびワークフロー。

法学博士

詳細については以下を参照してください。

|ノート|説明| |:---|:---|---:| |プロンプトテンプレートとタスクチェーン|モデルプロンプトを構築し、ワークフローを使用してタスクを接続する|Colabで開く| |LLMフレームワークを統合する|llama.cpp、LiteLLM、カスタム生成フレームワークを統合する|Colabで開く| |LLMで知識グラフを構築する|LLM 駆動型エンティティ抽出によるナレッジ グラフの構築|Colabで開く| |txtaiで星を解析する|既知の星、惑星、銀河の天文学的知識グラフを探索する|Colabで開く|

エージェント

エージェントは、埋め込み、パイプライン、ワークフロー、およびその他のエージェントを接続して、複雑な問題を自律的に解決します。

エージェント

txtaiエージェントはsmolagentsフレームワーク上に構築されています。txtaiがサポートするすべてのLLM(Hugging Face、llama.cpp、OpenAI / Claude / AWS Bedrock(LiteLLM経由))をサポートします。

詳細については、以下のリンクをご覧ください。

|ノート|説明| |:---|:---|---:| |グラフとエージェントを用いたハグフェイス投稿の分析|グラフ分析とエージェントで豊富なデータセットを探索する|Colabで開く| |エージェントに自律性を与える|問題を適切に反復的に解決するエージェント|Colabで開く| |LinkedIn の企業投稿をグラフとエージェントで分析する|AIを活用してソーシャルメディアのエンゲージメントを向上させる方法を探る|Colabで開く|

検索拡張生成

検索拡張生成(RAG)は、知識ベースをコンテキストとして出力を制約することで、LLM幻覚のリスクを軽減します。RAGは一般的に「データとチャットする」ために使用されます。

ぼろ布ぼろ布

txtai の新しい機能は、回答とソースの引用の両方を提供できることです。

|ノート|説明| |:---|:---|---:| |txtaiでRAGパイプラインを構築する|引用の作成方法を含む検索拡張生成に関するガイド|Colabで開く| |RAG 用にデータをチャンク化する|効果的な検索のためにコンテンツを抽出、チャンク化、インデックス化する|Colabで開く| |グラフパストラバーサルを備えた高度なRAG|高度なRAGのための複雑なデータセットを収集するためのグラフパストラバーサル|Colabで開く| |スピーチ・トゥ・スピーチ RAG ▶️|RAG を使用したフルサイクルの音声対音声ワークフロー|Colabで開く|

言語モデルワークフロー

言語モデル ワークフロー (セマンティック ワークフローとも呼ばれます) は、言語モデルを接続してインテリジェントなアプリケーションを構築します。

流れ流れ

LLMは強力ですが、特定のタスクにおいてより効率的かつ高速に動作する、より小規模で特化したモデルも数多く存在します。これには、抽出型質問応答、自動要約、音声合成、文字起こし、翻訳などのモデルが含まれます。

|ノート|説明| |:---|:---|---:| |パイプラインワークフローを実行する▶️|データを効率的に処理するためのシンプルかつ強力な構造|Colabで開く| |抽象的なテキスト要約の作成|抽象的なテキスト要約を実行する|Colabで開く| |音声をテキストに書き起こす|オーディオファイルをテキストに変換する|Colabで開く| |言語間でテキストを翻訳する|機械翻訳と言語検出を効率化|Colabで開く|

インストール

インストールインストール

最も簡単な方法はpipとPyPIを使うことです

pip install txtai

Python 3.10以降がサポートされています。Python仮想環境の使用をお勧めします。

オプションの依存関係環境固有の前提条件ソースからのインストールconda のサポートコンテナーでの実行方法などの詳細については、詳細なインストール手順を参照してください。

モデルガイド

モデル

現在推奨されているモデルについては、以下の表をご覧ください。これらのモデルはすべて商用利用が可能で、速度とパフォーマンスのバランスが取れています。

モデルは、Hugging Face Hubからのパスまたはローカルディレクトリから読み込むことができます。モデルパスの指定は任意で、指定がない場合はデフォルトのモデルが読み込まれます。推奨モデルが指定されていないタスクの場合、txtaiはHugging Face Tasksガイドに記載されているデフォルトのモデルを使用します。

詳細については、次のリンクを参照してください。

txtaiによって提供

以下のアプリケーションはtxtaiによって提供されています。

アプリ

応用

説明

ぼろ布

検索拡張生成(RAG)アプリケーション

ラグデータ

RAGの知識ベースを構築する

ペーパーアイ

医学/科学論文のためのセマンティック検索とワークフロー

注釈

LLMで論文に自動注釈を付ける

このリストに加えて、txtai をベースに製品を構築した他のオープンソース プロジェクト公開された研究、およびクローズドなプロプライエタリ/商用プロジェクトも多数あります。

さらに読む

さらに遠くさらに遠く

ドキュメント

埋め込み、パイプライン、ワークフロー、API の構成設定や、よくある質問/問題に関する FAQ など、 txtai に関する完全なドキュメントが利用可能です。

貢献

txtai に貢献したい方は、このガイドをご覧ください。

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/neuml/txtai'

If you have feedback or need assistance with the MCP directory API, please join our Discord server