đȘ ImageSorcery MCP
ComputerVision-basierte đȘ Zauberei der Bilderkennungs- und Bearbeitungstools fĂŒr KI-Assistenten
â Ohne ImageSorcery MCP
Bei der Arbeit mit Bildern sind KI-Assistenten eingeschrÀnkt:
â Bilder können nicht direkt geĂ€ndert oder analysiert werden
â Keine Möglichkeit zum Zuschneiden, Ăndern der GröĂe oder Verarbeiten von Bildern
â Einige LLMs können keine Objekte erkennen oder Text aus Bildern extrahieren
â BeschrĂ€nkt auf verbale Beschreibungen ohne visuelle Manipulation
Related MCP server: AI Development Assistant MCP Server
â Mit ImageSorcery MCP
đȘ ImageSorcery stattet KI-Assistenten mit leistungsstarken Bildverarbeitungsfunktionen aus:
â Bilder prĂ€zise zuschneiden, skalieren und drehen
â Zeichnen Sie Text und Formen auf Bilder
â Erkennen Sie Objekte mit modernsten Modellen
â Extrahieren Sie Text aus Bildern mit OCR
â Erhalten Sie detaillierte Bildmetadaten
â Nutzen Sie eine breite Palette vortrainierter Modelle fĂŒr Objekterkennung, OCR und mehr
Bitten Sie Ihre KI einfach um Hilfe bei Bildaufgaben:
"Fotos mit Haustieren aus dem Ordner
photos" in den Ordnerpets" kopieren"
âSuchen Sie eine Katze im Foto.jpg und schneiden Sie das Bild in der Höhe und Breite auf die HĂ€lfte zu, damit die Katze zentriert wird.â
đ Tipp:
âNummerieren Sie die Formularfelder in diesem
form.jpgmit dem Modellfoduucom/web-form-ui-field-detectionund fĂŒllen Sie dieform.mdmit einer Liste der beschriebenen Felder.âđ Tipp:
đ Tipp:
Ihr Tool kombiniert mehrere der unten aufgefĂŒhrten Tools, um Ihr Ziel zu erreichen.
đ ïž VerfĂŒgbare Tools
Werkzeug | Beschreibung | Beispiel-Eingabeaufforderung |
| Beschneidet ein Bild mit dem NumPy-Slicing-Ansatz von OpenCV | âBeschneide mein Bild âinput.pngâ von den Koordinaten (10,10) bis (200,200) und speichere es als âcropped.pngâ.â |
| Ăndert die GröĂe eines Bildes mit OpenCV | âĂndern Sie die GröĂe meines Bilds âphoto.jpgâ auf 800 x 600 Pixel und speichern Sie es als âresized_photo.jpgâ.â |
| Dreht ein Bild mit der Funktion imutils.rotate_bound | âDrehe mein Bild âphoto.jpgâ um 45 Grad und speichere es als ârotated_photo.jpgââ |
| Zeichnet mit OpenCV Text auf ein Bild | âFĂŒgen Sie den Text âHello Worldâ an Position (50,50) und âCopyright 2023â in der unteren rechten Ecke meines Bildes âphoto.jpgâ hinzu.â |
| Zeichnet mit OpenCV Rechtecke auf ein Bild | âZeichnen Sie auf meinem Bild âphoto.jpgâ ein rotes Rechteck von (50,50) bis (150,100) und ein ausgefĂŒlltes blaues Rechteck von (200,150) bis (300,250)â |
| Ruft Metadateninformationen zu einer Bilddatei ab | âMetadateninformationen zu meinem Bild âphoto.jpgâ abrufenâ |
| Erkennt Objekte in einem Bild mithilfe von Modellen von Ultralytics | âErkenne Objekte in meinem Bild âphoto.jpgâ mit einer Konfidenzschwelle von 0,4â |
| Findet Objekte in einem Bild basierend auf einer Textbeschreibung | âFinde alle Hunde in meinem Bild âphoto.jpgâ mit einer Konfidenzschwelle von 0,4â |
| Listet alle verfĂŒgbaren Modelle im Modellverzeichnis auf | "Alle verfĂŒgbaren Modelle im Modellverzeichnis auflisten" |
| FĂŒhrt optische Zeichenerkennung (OCR) auf einem Bild mit EasyOCR durch | âExtrahieren Sie Text aus meinem Bild âdocument.jpgâ mit OCR in englischer Sprache.â |
đ Hinweis:
đ Erste Schritte
Anforderungen
Python 3.10oder höherClaude.app,Clineoder ein anderer MCP-Client
Installation

Erstellen und aktivieren Sie eine virtuelle Umgebung (dringend empfohlen): FĂŒr eine zuverlĂ€ssige Installation aller Komponenten, insbesondere des
clipPakets (installiert ĂŒber das Post-Install-Skript), wird dringend empfohlen, das in Python integrierte .python -m venv imagesorcery-mcp source imagesorcery-mcp/bin/activate # For Linux/macOS # source imagesorcery-mcp\Scripts\activate # For WindowsInstallieren Sie das Paket in der aktivierten virtuellen Umgebung: Sie können
pipoderuv pipverwenden.pip install imagesorcery-mcp # OR, if you prefer using uv for installation into the venv: # uv pip install imagesorcery-mcpFĂŒhren Sie das Post-Installationsskript aus: Dieser Schritt ist entscheidend. Es lĂ€dt die erforderlichen Modelle herunter und versucht, das
clipPython-Paket von GitHub in der aktiven virtuellen Umgebung zu installieren.imagesorcery-mcp --post-install
Erstellt ein
models(normalerweise im Site-Packages-Verzeichnis Ihrer virtuellen Umgebung oder an einem benutzerspezifischen Speicherort bei globaler Installation), um vortrainierte Modelle zu speichern.Generiert dort eine erste Datei
models/model_descriptions.json.LĂ€dt die vom
detectbenötigten Standard-YOLO-Modelle (yoloe-11l-seg-pf.pt,yoloe-11s-seg-pf.pt,yoloe-11l-seg.pt,yoloe-11s-seg.pt) in diesesmodelsherunter.Versucht, das Python-Paket â . Dies ist fĂŒr die Texteingabefunktion im
finderforderlich.LĂ€dt die vom
findbenötigte CLIP-Modelldatei in dasmodelsherunter.
Sie können diesen Vorgang jederzeit ausfĂŒhren, um die Standardmodelle wiederherzustellen und clip Installation zu versuchen.
Verwenden von Tests haben gezeigt, dass mit
uv venverstellte virtuelle Umgebungenpipmöglicherweise nicht so enthalten, dass das Skriptimagesorcery-mcp --post-installdasclipPaket von GitHub automatisch installieren kann (wĂ€hrend derclip-Installation kann die Fehlermeldung âKein Modul mit dem Namen pipâ auftreten). Wenn SieErstellen und aktivieren Sie Ihr
uv venv.Installieren Sie
imagesorcery-mcp:uv pip install imagesorcery-mcp.Installieren Sie das
clip-Paket manuell in Ihrem aktivenuv venv:uv pip install git+https://github.com/ultralytics/CLIP.gitFĂŒhren Sie
imagesorcery-mcp --post-installaus. Dadurch werden Modelle heruntergeladen, die Installation des Python-Pakets fĂŒr denclipschlĂ€gt jedoch möglicherweise fehl. FĂŒr eine reibungslosere automatisierteclip-Installation ĂŒber das Post-Install-Skript empfiehlt sich die Verwendungpython -m venv(wie in Schritt 1 oben beschrieben) zum Erstellen der virtuellen Umgebung.
Verwenden von Wenn Sie das Post-Installationsskript direkt mit
uvxausfĂŒhren (z. B.uvx imagesorcery-mcp --post-install), schlĂ€gt die Installation des Python-Paketsclipwahrscheinlich fehl. Dies liegt daran, dass die vonuvxerstellte temporĂ€re Umgebung normalerweise keinpipin einer vom Skript nutzbaren Weise zur VerfĂŒgung stellt. Modelle werden heruntergeladen, aber dasclipPaket wird durch diesen Befehl nicht installiert. Wenn Sieuvxzum AusfĂŒhren des Hauptservers vonimagesorcery-mcpverwenden möchten undclipFunktionalitĂ€t benötigen, mĂŒssen Sie sicherstellen, dass dasclipPaket in einer zugĂ€nglichen Python-Umgebung installiert ist, dieuvxfinden kann, oder erwĂ€gen Sie die Installationimagesorcery-mcpin einer persistenten Umgebung, die mitpython -m venverstellt wurde.
âïž Konfiguration MCP-Client
FĂŒgen Sie Ihrem MCP-Client diese Einstellungen hinzu. Wenn imagesorcery-mcp nach der Installation im Pfad Ihres Systems enthalten ist, können Sie imagesorcery-mcp direkt als Befehl verwenden. Andernfalls mĂŒssen Sie den vollstĂ€ndigen Pfad zur ausfĂŒhrbaren Datei angeben.
đŠ ZusĂ€tzliche Modelle
FĂŒr einige Tools mĂŒssen bestimmte Modelle im models verfĂŒgbar sein:
Beim Herunterladen von Modellen aktualisiert das Skript automatisch die Datei models/model_descriptions.json :
FĂŒr Ultralytics-Modelle: Beschreibungen sind in
src/imagesorcery_mcp/scripts/create_model_descriptions.pyvordefiniert und enthalten detaillierte Informationen zu Zweck, GröĂe und Eigenschaften jedes Modells.FĂŒr Hugging Face-Modelle: Beschreibungen werden automatisch aus der Modellkarte im Hugging Face Hub extrahiert. Das Skript versucht, den Modellnamen aus dem Modellindex oder der ersten Zeile der Beschreibung zu verwenden.
Nach dem Herunterladen der Modelle wird empfohlen, die Beschreibungen in models/model_descriptions.json zu ĂŒberprĂŒfen und sie bei Bedarf anzupassen, um genauere oder detailliertere Informationen zu den Funktionen und AnwendungsfĂ€llen der Modelle bereitzustellen.
đ€ Beitragen
Verzeichnisstruktur
Dieses Repository ist wie folgt organisiert:
Entwicklungs-Setup
Klonen Sie das Repository:
(Empfohlen) Erstellen und aktivieren Sie eine virtuelle Umgebung:
Installieren Sie das Paket im bearbeitbaren Modus zusammen mit den EntwicklungsabhÀngigkeiten:
Dadurch werden imagesorcery-mcp und alle AbhĂ€ngigkeiten von [project.dependencies] und [project.optional-dependencies].dev (einschlieĂlich build und twine ) installiert.
Regeln
Diese Regeln gelten fĂŒr alle Mitwirkenden: Menschen und KI.
Lesen Sie alle
README.md-Dateien im Projekt. Machen Sie sich mit der Projektstruktur und dem Zweck vertraut. Machen Sie sich mit den Richtlinien fĂŒr BeitrĂ€ge vertraut. Ăberlegen Sie, wie sich dies auf Ihre Aufgabe bezieht und wie Sie entsprechende Ănderungen vornehmen können.Lesen Sie
pyproject.toml. Beachten Sie die Abschnitte:[tool.ruff],[tool.ruff.lint],[project.optional-dependencies]und[project]dependencies. Halten Sie sich strikt an den inpyproject.tomldefinierten Codestil. Halten Sie sich an den inpyproject.tomldefinierten Stack der AbhĂ€ngigkeiten und fĂŒgen Sie ohne triftigen Grund keine neuen AbhĂ€ngigkeiten hinzu.Schreiben Sie Ihren Code in neue und bestehende Dateien. Falls neue AbhĂ€ngigkeiten benötigt werden, aktualisieren Sie
pyproject.tomlund installieren Sie diese ĂŒberpip install -e .oderpip install -e ".[dev]". Installieren Sie sie nicht direkt ĂŒberpip install. Beispiele finden Sie in vorhandenen Quellcodes (z. B.src/imagesorcery_mcp/server.py,src/imagesorcery_mcp/tools/crop.py). Halten Sie sich an den Codestil, die Namenskonventionen, die Ein- und Ausgabedatenformate, die Codecode-Struktur, die Architektur usw. des bestehenden Codes.Aktualisieren Sie die zugehörigen
README.mdDateien mit Ihren Ănderungen. Behalten Sie das Format und die Struktur der vorhandenenREADME.mdDateien bei.Schreiben Sie Tests fĂŒr Ihren Code. Sehen Sie sich vorhandene Tests als Beispiele an (z. B.
tests/test_server.py,tests/tools/test_crop.py). Halten Sie sich an den Codestil, die Namenskonventionen, die Ein- und Ausgabedatenformate, die Codecode-Struktur, die Architektur usw. der vorhandenen Tests.FĂŒhren Sie Tests und Linter durch, um sicherzustellen, dass alles funktioniert:
Bei Fehlern korrigieren Sie den Code und die Tests. Es ist unbedingt erforderlich , dass der gesamte neue Code den Linter-Regeln entspricht und alle Tests besteht.
Codierungshinweise
Verwenden Sie gegebenenfalls Typhinweise
Verwenden Sie pydantic zur Datenvalidierung und -serialisierung
đ Fragen?
Wenn Sie Fragen, Probleme oder VorschlÀge zu diesem Projekt haben, können Sie sich gerne an folgende Adresse wenden:
Sie können im Repository auch ein Problem fĂŒr Fehlerberichte oder Funktionsanfragen öffnen.
đ Lizenz
Dieses Projekt steht unter der MIT-Lizenz. Das bedeutet, dass Sie die Software unter den Bedingungen der MIT-Lizenz frei verwenden, Ă€ndern und verbreiten dĂŒrfen.

đ Tipp:
đ Tipp: