livechat-mcp
livechat-mcp
Ein Model Context Protocol (MCP) Server, der es dir ermöglicht, eine kontinuierliche Sprachkonversation mit deinem KI-Coding-Assistenten zu führen. Du sprichst, deine Sprache wird lokal mit Whisper transkribiert und jede Äußerung wird an den Assistenten übermittelt, als hättest du sie getippt. Kein Tab-Wechsel, kein Kopieren/Einfügen, keine Batch-Aufnahme.
Funktioniert mit jedem MCP-Host. Erstklassige Unterstützung für:
Claude Code
Codex CLI
Gemini CLI
Anforderungen
macOS, Linux oder Windows (nativ via PowerShell oder unter WSL2 / Git Bash).
Python 3.10+
Ein installierter MCP-Host (Claude Code, Codex, Gemini, etc.)
Ein funktionierendes Mikrofon
~500 MB Speicherplatz für den Whisper-Modell-Cache + Abhängigkeiten
uvfür das Projektmanagement (empfohlen)
Schnellinstallation (empfohlen)
Von einem Klon des Repositories aus:
# macOS / Linux / Git Bash on Windows
./install.sh# Native Windows PowerShell
.\install.ps1Der Bootstrap erkennt das Betriebssystem, installiert bei Bedarf Portaudio (brew / apt / dnf / pacman / zypper — Windows-Wheels enthalten es bereits), installiert uv, falls es fehlt, führt uv sync aus, legt den Wizard in ~/.local/bin ab und startet den interaktiven Einrichtungsassistenten.
Windows: Die native Sperrung verwendet
msvcrtund die Übernahmesignalisierung ist dateibasiert, daher gibt es keinefcntl-Abhängigkeit. Der interaktive Wizard ist ein Bash-Skript —install.ps1ruft es über Git Bash auf, dessen Installation viawingetangeboten wird, falls es fehlt.
Manuelle Einrichtung
Wenn du die Installation lieber Schritt für Schritt durchführen möchtest, hier ist, was install.sh tut:
1. Portaudio installieren
sounddevice benötigt Portaudio.
macOS:
brew install portaudioDebian/Ubuntu:
sudo apt-get install libportaudio2 portaudio19-devFedora/RHEL:
sudo dnf install portaudio portaudio-develArch:
sudo pacman -S portaudio
2. uv installieren, falls nicht vorhanden
curl -LsSf https://astral.sh/uv/install.sh | sh3. Klonen und Abhängigkeiten installieren
cd livechat-mcp
uv syncDies erstellt .venv/ und installiert mcp, faster-whisper, sounddevice, silero-vad, torch usw.
4. Einrichtungsassistent ausführen
install -m 0755 bin/livechat-mcp ~/.local/bin/livechat-mcp
livechat-mcp setupDer Assistent wird:
Fragen, für welche Assistenten die Installation erfolgen soll (Claude Code / Codex / Gemini, jede Kombination).
Die Slash-Befehle
/livechatund/endlivechatin Hosts kopieren, die benutzerdefinierte Slash-Befehle unterstützen. Für Codex installiert er sowohl Legacy-Prompt-Dateien als auch einenlivechat-Skill, da aktuelle Codex CLI-Releases keine benutzerdefinierten Prompts als/livechatbereitstellen.Den MCP-Server in der Konfigurationsdatei jedes Hosts registrieren.
Dich durch die anpassbaren Umgebungsvariablen führen (Stille-Schwellenwert, Whisper-Modell usw.) — drücke Enter, um die Standardwerte beizubehalten.
Stelle sicher, dass ~/.local/bin in deinem PATH enthalten ist (dies ist bereits der Fall, wenn du den offiziellen uv-Installer verwendet hast).
Wenn du die Dinge lieber manuell konfigurieren möchtest, findest du die manuellen Schritte für jeden Host unten.
5. Mikrofonberechtigung erteilen
macOS: Wenn der Server zum ersten Mal versucht, Audio aufzunehmen, wird macOS deine Terminal-App (Terminal, iTerm, Ghostty, Warp usw.) nach dem Mikrofonzugriff fragen. Wenn du die Aufforderung verpasst, aktiviere sie manuell:
Systemeinstellungen → Datenschutz & Sicherheit → Mikrofon → für dein Terminal aktivieren
Wenn du dies überspringst, liefert die Audioaufnahme lautlos Stille und nichts wird transkribiert.
Windows: Einstellungen → Datenschutz & Sicherheit → Mikrofon → Desktop-Apps den Zugriff auf das Mikrofon erlauben (und sicherstellen, dass dein Terminal berechtigt ist).
Linux: Normalerweise keine Aufforderung — stelle nur sicher, dass dein Benutzer den richtigen ALSA- / PulseAudio- / Pipewire-Zugriff hat (normalerweise die
audio-Gruppe).
6. Whisper-Modell vorab herunterladen (optional)
Der erste Durchlauf lädt base.en (~150 MB) herunter. Du kannst es vorab laden:
uv run python -c "from faster_whisper import WhisperModel; WhisperModel('base.en', device='cpu', compute_type='int8')"Manuelle Installation (überspringen, wenn du livechat-mcp setup verwendet hast)
Claude Code
Kopiere die Slash-Befehle:
mkdir -p ~/.claude/commands
cp commands/livechat.md ~/.claude/commands/
cp commands/endlivechat.md ~/.claude/commands/Registriere den MCP-Server:
claude mcp add livechat -- uv --directory "$(pwd)" run livechat-mcpOder bearbeite ~/.claude.json direkt:
{
"mcpServers": {
"livechat": {
"command": "uv",
"args": ["--directory", "/absolute/path/to/livechat-mcp", "run", "livechat-mcp"]
}
}
}Codex CLI
Installiere den Codex-Skill und die Legacy-Prompt-Dateien:
mkdir -p ~/.codex/skills/livechat
cp skills/livechat/SKILL.md ~/.codex/skills/livechat/
mkdir -p ~/.codex/prompts
cp commands/livechat.md ~/.codex/prompts/
cp commands/endlivechat.md ~/.codex/prompts/Registriere den MCP-Server in ~/.codex/config.toml:
[mcp_servers.livechat]
command = "uv"
args = ["--directory", "/absolute/path/to/livechat-mcp", "run", "livechat-mcp"]Gemini CLI
Gemini verwendet TOML für benutzerdefinierte Befehle. Der Wizard generiert diese für dich; um es manuell zu tun, siehe commands/gemini/livechat.toml.template (erstellt durch einmaliges Ausführen von livechat-mcp setup).
Registriere den MCP-Server in ~/.gemini/settings.json:
{
"mcpServers": {
"livechat": {
"command": "uv",
"args": ["--directory", "/absolute/path/to/livechat-mcp", "run", "livechat-mcp"]
}
}
}Verwendung
Öffne das CLI deines Assistenten in einem beliebigen Terminal:
claude # or: codex or: geminiDann im Prompt des Assistenten:
/livechat # Claude Code, Gemini CLI
use livechat # Codex CLICodex-Neustart erforderlich. Codex lädt Skills und MCP-Server nur beim Start. Wenn du den Wizard bei geöffnetem Codex ausgeführt hast, beende ihn und starte ihn neu, bevor du
use livechatverwendest.
Codex 0.128.0 unterstützt keine benutzerdefinierten /livechat Slash-Befehle; / ist derzeit für die eingebauten Befehle von Codex reserviert. Die Einrichtung installiert stattdessen einen auffindbaren livechat-Skill, sodass du use livechat eingeben oder /skills öffnen und livechat auswählen kannst.
Der Assistent ruft get_voice_input auf und beginnt zuzuhören. Sprich normal. Wenn du für ca. 1,5 Sekunden pausierst, wird deine Äußerung abgeschlossen, transkribiert und als Prompt gesendet. Der Assistent antwortet und hört dann sofort auf die nächste Äußerung.
Während der Assistent eine Antwort generiert, ist das Mikrofon weiterhin aktiv — alles, was du während dieser Zeit sagst, wird in die Warteschlange gestellt und beim nächsten get_voice_input-Aufruf auf einmal übermittelt.
Eine Sitzung beenden
Drei Möglichkeiten:
/endlivechat— am saubersten, wird vom Prompt des Assistenten aus ausgeführt. (Du musst zuerst die aktuelle Antwort unterbrechen, falls sie gerade generiert wird.)Wake-Phrase — sage
terminate voice session now. Die Transkription löst das Herunterfahren aus. Die Phrase ist absichtlich umständlich gewählt, um Kollisionen mit echtem Review-Inhalt zu vermeiden. Konfigurierbar überLIVECHAT_END_PHRASE.Strg+C — beendet den MCP-Server. Der Assistent sieht beim nächsten Aufruf einen Tool-Fehler und beendet die Schleife.
Konfiguration
Alle anpassbaren Werte befinden sich in livechat_mcp/config.py und können über Umgebungsvariablen überschrieben werden:
Variable | Standardwert | Hinweise |
|
| Nur Englisch: |
|
| Sprachcode ( |
|
|
|
|
|
|
|
| Stille nach dem Sprechen, um eine Äußerung zu beenden |
|
| Silero VAD Sprachwahrscheinlichkeitsschwellenwert |
|
| Minimale Äußerungslänge (filtert Husten) |
|
| Erzwingt das Abschneiden zu langer Äußerungen |
|
| Wie lange |
|
| Gesprochene Phrase zum Beenden der Sitzung |
| nicht gesetzt | Auf |
Der einfache Weg, diese zu setzen, ist livechat-mcp set KEY VALUE — dies bearbeitet den env-Block in jeder gefundenen Host-Konfiguration (Claude / Codex / Gemini).
livechat-mcp show # print current env block(s)
livechat-mcp set LIVECHAT_SILENCE_SEC 1.5
livechat-mcp unset LIVECHAT_DEBUGStarte dein Assistenten-CLI nach jeder Änderung neu — MCP-Umgebungsvariablen werden vom Server beim Start gelesen.
Um es manuell zu tun, bearbeite das env-Feld des Livechat-MCP-Eintrags in der Konfiguration jedes Hosts. Beispiel für Claude Code:
{
"mcpServers": {
"livechat": {
"command": "uv",
"args": ["--directory", "/abs/path", "run", "livechat-mcp"],
"env": {
"LIVECHAT_WHISPER_MODEL": "small.en",
"LIVECHAT_DEBUG": "1"
}
}
}
}Fehlerbehebung
Nichts passiert, wenn ich spreche.
Überprüfe (in dieser Reihenfolge): Mikrofonberechtigung für deine Terminal-App, Mikrofon-Eingangspegel (Systemeinstellungen → Ton), setze LIVECHAT_DEBUG=1 und beobachte stderr auf VAD-Ereignisse, senke LIVECHAT_VAD_THRESHOLD auf 0.3.
Transkriptionen sind ungenau.
Modell aktualisieren: LIVECHAT_WHISPER_MODEL=small.en oder medium.en. medium.en ist auf der CPU spürbar langsamer (immer noch nahezu in Echtzeit), aber viel besser für technisches Vokabular.
Äußerung endet zu schnell / zu langsam.
Optimiere LIVECHAT_SILENCE_SEC (oder führe livechat-mcp set LIVECHAT_SILENCE_SEC 1.5 aus). 1.0–4.5 ist der nützliche Bereich — niedriger fühlt sich reaktionsschneller an, riskiert aber das Abschneiden bei Pausen mitten im Gedanken.
uv nicht gefunden.
Installiere entweder uv (empfohlen) oder ändere den MCP-Konfigurationsbefehl command in einen direkten Aufruf von python -m livechat_mcp.server aus einem aktivierten venv heraus.
Der Server startet, aber der Assistent ruft das Tool nie auf.
Stelle sicher, dass /livechat aufgerufen wurde. Ohne den Slash-Befehl hat der Assistent keine Anweisung, in die Schleife einzutreten.
Server-Logs landen als Müll in der UI des Assistenten / unterbrechen das Protokoll.
Dies sollte nicht passieren — alle Server-Logs gehen an stderr. Wenn du es siehst, melde einen Bug. Stelle sicher, dass du keine print(...)-Anweisungen ohne file=sys.stderr hinzugefügt hast.
portaudio-Fehler beim Start.
Installiere es: brew install portaudio. Wenn es installiert ist und immer noch fehlschlägt, versuche brew reinstall portaudio und installiere sounddevice neu: uv sync --reinstall.
Funktionsweise (Kurzfassung)
[mic] → [Silero VAD] → [Whisper] → [queue] ← [get_voice_input tool] ← [Assistant]
↑________background thread, always running________↑Die Audio-Pipeline ist vom MCP-Tool entkoppelt, sodass das Mikrofon immer aktiv ist, während der Server läuft. Äußerungen, die gesprochen werden, während der Assistent eine Antwort generiert, werden in die Warteschlange gestellt und beim nächsten Tool-Aufruf übermittelt.
Lizenz
MIT.
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/brunocramos/livechat-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server