Integrations
Enables execution of code in Docker containers, allowing LLMs to run isolated code environments for data processing or computation tasks.
Provides video processing capabilities including transcription and frame extraction to prepare video content for LLM analysis.
Allows querying and analyzing repository data using Git tools, enabling statistical analysis of commits and other Git operations.
GenAIScript
Eingabeaufforderung ist Codierung
Erstellen Sie programmgesteuert Eingabeaufforderungen für LLMs mit JavaScript. Orchestrieren Sie LLMs, Tools und Daten im Code.
- JavaScript-Toolbox zum Arbeiten mit Eingabeaufforderungen
- Abstraktion, um es einfach und produktiv zu machen
- Nahtlose Visual Studio Code-Integration oder flexible Befehlszeile
- Integrierte Unterstützung für GitHub Copilot und GitHub Models, OpenAI, Azure OpenAI, Anthropic und mehr
- 📄 Lesen Sie die ONLINE-DOKUMENTATION unter microsoft.github.io/genaiscript
- 💬 Treten Sie dem Discord-Server bei
- 📝 Lesen Sie den Blog für die neuesten Nachrichten
- 📺 Sehen Sie sich Mr. Maedas gemütliche KI-Küche an
- 🤖 Agenten - lesen Sie die llms-full.txt
Hallo Welt
Angenommen, Sie möchten ein LLM-Skript erstellen, das ein „Hallo Welt“-Gedicht generiert. Sie können das folgende Skript schreiben:
Die Funktion $
ist ein Vorlagentag, der eine Eingabeaufforderung erstellt. Diese wird dann an das von Ihnen konfigurierte LLM gesendet, das das Gedicht generiert.
Machen wir es interessanter, indem wir Dateien, Daten und strukturierte Ausgabe hinzufügen. Angenommen, Sie möchten eine Datei in die Eingabeaufforderung einbinden und die Ausgabe in einer Datei speichern. Sie können das folgende Skript schreiben:
Die Funktion def
bindet den Inhalt der Datei ein und optimiert ihn gegebenenfalls für das Ziel-LLM. Das GenAIScript-Skript analysiert außerdem die LLM-Ausgabe und extrahiert die Datei data.json
automatisch.
🚀 Kurzanleitung
Legen Sie schnell los, indem Sie die Visual Studio Code-Erweiterung installieren oder die Befehlszeile verwenden.
✨ Funktionen
🎨 Stilisiertes JavaScript und TypeScript
Erstellen Sie Eingabeaufforderungen programmgesteuert mit JavaScript oder TypeScript .
🚀 Schnelle Entwicklungsschleife
Bearbeiten, debuggen , ausführen und testen Sie Ihre Skripts in Visual Studio Code oder mit der Befehlszeile .
🔗 Skripte wiederverwenden und teilen
Skripte sind Dateien ! Sie können versioniert, geteilt und geforkt werden.
📋 Datenschemata
Definieren, validieren und reparieren Sie Daten mithilfe von Schemata . Integrierte Zod-Unterstützung.
📄 Text aus PDFs, DOCX, ... aufnehmen
Bearbeiten Sie PDFs , DOCX , ...
📊 Tabellen aus CSV, XLSX, ... aufnehmen
Bearbeiten Sie tabellarische Daten aus CSV , XLSX , ...
📝 Dateien generieren
Extrahieren Sie Dateien und vergleichen Sie sie mit der LLM-Ausgabe. Zeigen Sie Änderungen in der Refactoring-Benutzeroberfläche in der Vorschau an.
🔍 Dateisuche
Grep- oder Fuzz- Suchdateien .
Klassifizieren
Klassifizieren Sie Text, Bilder oder eine Mischung aus allem.
LLM-Tools
Registrieren Sie JavaScript-Funktionen als Tools (mit Fallback für Modelle, die keine Tools unterstützen). Model Context Protocol (MCP)-Tools werden ebenfalls unterstützt.
LLM-Agenten
Registrieren Sie JavaScript-Funktionen als Tools und kombinieren Sie Tools + Eingabeaufforderung zu Agenten.
dann benutze es als Werkzeug
Siehe die Git-Agent-Quelle .
🔍 RAG integriert
🐙 GitHub Models und GitHub Copilot
Führen Sie Modelle über GitHub Models oder GitHub Copilot aus.
💻 Lokale Modelle
Führen Sie Ihre Skripte mit Open-Source-Modellen wie Phi-3 unter Verwendung von Ollama und LocalAI aus.
🐍 Code-Interpreter
Lassen Sie den LLM Code in einer Sandbox-Ausführungsumgebung ausführen.
🐳 Behälter
Führen Sie Code in Docker -Containern aus.
Videoverarbeitung
Transkribieren Sie Ihre Videos und machen Sie Screenshots, damit Sie sie effizient in Ihre LLM-Anfragen einspeisen können.
🧩 LLM-Komposition
Führen Sie LLMs aus , um Ihre LLM-Eingabeaufforderungen zu erstellen.
🅿️ Schnelle Unterstützung
Führen Sie auch Ihre Prompty- Dateien aus!
Pluggable Secret Scanning
Scannen Sie Ihre Chats mithilfe der Geheimscanfunktion nach Geheimnissen.
⚙ Automatisieren mit CLI oder API
Automatisieren Sie mithilfe der CLI oder API .
Sicherheit geht vor!
GenAIScript bietet integrierte Eingabeaufforderungen des Responsible AI-Systems und Azure Content Safety-Unterstützung zur Validierung der Inhaltssicherheit .
💬 Pull Request-Überprüfungen
Integrieren Sie Checks in Ihre Pull Requests durch Kommentare, Reviews oder Beschreibungsaktualisierungen. Unterstützt GitHub Actions und Azure DevOps-Pipelines.
⭐ Tests und Evaluierungen
Erstellen Sie zuverlässige Eingabeaufforderungen mithilfe von Tests und Auswertungen, die von promptfoo unterstützt werden.
LLM-freundliche Dokumente
Der gesamte Inhalt der Dokumentation wird unter https://microsoft.github.io/genaiscript/llms-full.txt in Markdown gerendert. Sie können ihn direkt in Ihr bevorzugtes RAG-System einspeisen.
Wenn Sie ein LLM-Crawler sind, fügen Sie den Dokumentations-URLs die Endung .md
hinzu, um einen unverarbeiteten Markdown-Inhalt zu erhalten. Beispiel: https://microsoft.github.io/genaiscript/guides/prompt-as-code.md (beachten Sie die Endung .md).
Beitragen
Wir freuen uns über Beiträge! Weitere Informationen und Informationen zur Entwicklereinrichtung finden Sie auf der Seite „Beiträge“ .
Marken
Dieses Projekt kann Marken oder Logos für Projekte, Produkte oder Dienste enthalten. Die autorisierte Verwendung von Microsoft-Marken oder -Logos unterliegt den Marken- und Markenrichtlinien von Microsoft und muss diese einhalten. Die Verwendung von Microsoft-Marken oder -Logos in modifizierten Versionen dieses Projekts darf weder Verwirrung stiften noch eine Förderung durch Microsoft implizieren. Jede Verwendung von Marken oder Logos Dritter unterliegt den Richtlinien dieser Dritten.
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
GenAIScript ist eine JavaScript-Laufzeitumgebung zum Erstellen zuverlässiger, automatisierbarer LLM-Skripte. Jedes GenAIScript kann automatisch als MCP-Server bereitgestellt werden.
- Eingabeaufforderung ist Codierung
- Hallo Welt
- 🚀 Kurzanleitung
- ✨ Funktionen
- Klassifizieren
- LLM-Tools
- LLM-Agenten
- 🔍 RAG integriert
- 🐙 GitHub Models und GitHub Copilot
- 💻 Lokale Modelle
- 🐍 Code-Interpreter
- 🐳 Behälter
- Videoverarbeitung
- 🧩 LLM-Komposition
- 🅿️ Schnelle Unterstützung
- Pluggable Secret Scanning
- ⚙ Automatisieren mit CLI oder API
- Sicherheit geht vor!
- 💬 Pull Request-Überprüfungen
- ⭐ Tests und Evaluierungen
- LLM-freundliche Dokumente
- Beitragen
- Marken
Related MCP Servers
- -securityAlicense-qualityMCP Server for the Gentoro services, enabling Claude to interact with Gentoro, which allows users to create and integrate tools into a common Bridge, defining all available capabilities.Last updated -612TypeScriptApache 2.0
- AsecurityAlicenseAqualityTypeScript-based MCP server designed to enhance code editing experiences by providing features such as hover information, code completion, and diagnostics.Last updated -313MIT License
- AsecurityAlicenseAqualityA TypeScript-based MCP server that generates API clients from OpenAPI specifications, allowing automated code generation through natural language.Last updated -164JavaScriptMIT License
- -securityFlicense-qualityA TypeScript-based server project that can be integrated with Cursor IDE as an MCP (Model Control Protocol) server, enabling enhanced development capabilities.Last updated -4TypeScript