GenAIScript
Eingabeaufforderung ist Codierung
Erstellen Sie programmgesteuert Eingabeaufforderungen für LLMs mit JavaScript. Orchestrieren Sie LLMs, Tools und Daten im Code.
- JavaScript-Toolbox zum Arbeiten mit Eingabeaufforderungen
- Abstraktion, um es einfach und produktiv zu machen
- Nahtlose Visual Studio Code-Integration oder flexible Befehlszeile
- Integrierte Unterstützung für GitHub Copilot und GitHub Models, OpenAI, Azure OpenAI, Anthropic und mehr
- 📄 Lesen Sie die ONLINE-DOKUMENTATION unter microsoft.github.io/genaiscript
- 💬 Treten Sie dem Discord-Server bei
- 📝 Lesen Sie den Blog für die neuesten Nachrichten
- 📺 Sehen Sie sich Mr. Maedas gemütliche KI-Küche an
- 🤖 Agenten - lesen Sie die llms-full.txt
Hallo Welt
Angenommen, Sie möchten ein LLM-Skript erstellen, das ein „Hallo Welt“-Gedicht generiert. Sie können das folgende Skript schreiben:
Die Funktion $
ist ein Vorlagentag, der eine Eingabeaufforderung erstellt. Diese wird dann an das von Ihnen konfigurierte LLM gesendet, das das Gedicht generiert.
Machen wir es interessanter, indem wir Dateien, Daten und strukturierte Ausgabe hinzufügen. Angenommen, Sie möchten eine Datei in die Eingabeaufforderung einbinden und die Ausgabe in einer Datei speichern. Sie können das folgende Skript schreiben:
Die Funktion def
bindet den Inhalt der Datei ein und optimiert ihn gegebenenfalls für das Ziel-LLM. Das GenAIScript-Skript analysiert außerdem die LLM-Ausgabe und extrahiert die Datei data.json
automatisch.
🚀 Kurzanleitung
Legen Sie schnell los, indem Sie die Visual Studio Code-Erweiterung installieren oder die Befehlszeile verwenden.
✨ Funktionen
🎨 Stilisiertes JavaScript und TypeScript
Erstellen Sie Eingabeaufforderungen programmgesteuert mit JavaScript oder TypeScript .
🚀 Schnelle Entwicklungsschleife
Bearbeiten, debuggen , ausführen und testen Sie Ihre Skripts in Visual Studio Code oder mit der Befehlszeile .
🔗 Skripte wiederverwenden und teilen
Skripte sind Dateien ! Sie können versioniert, geteilt und geforkt werden.
📋 Datenschemata
Definieren, validieren und reparieren Sie Daten mithilfe von Schemata . Integrierte Zod-Unterstützung.
📄 Text aus PDFs, DOCX, ... aufnehmen
Bearbeiten Sie PDFs , DOCX , ...
📊 Tabellen aus CSV, XLSX, ... aufnehmen
Bearbeiten Sie tabellarische Daten aus CSV , XLSX , ...
📝 Dateien generieren
Extrahieren Sie Dateien und vergleichen Sie sie mit der LLM-Ausgabe. Zeigen Sie Änderungen in der Refactoring-Benutzeroberfläche in der Vorschau an.
🔍 Dateisuche
Grep- oder Fuzz- Suchdateien .
Klassifizieren
Klassifizieren Sie Text, Bilder oder eine Mischung aus allem.
LLM-Tools
Registrieren Sie JavaScript-Funktionen als Tools (mit Fallback für Modelle, die keine Tools unterstützen). Model Context Protocol (MCP)-Tools werden ebenfalls unterstützt.
LLM-Agenten
Registrieren Sie JavaScript-Funktionen als Tools und kombinieren Sie Tools + Eingabeaufforderung zu Agenten.
dann benutze es als Werkzeug
Siehe die Git-Agent-Quelle .
🔍 RAG integriert
🐙 GitHub Models und GitHub Copilot
Führen Sie Modelle über GitHub Models oder GitHub Copilot aus.
💻 Lokale Modelle
Führen Sie Ihre Skripte mit Open-Source-Modellen wie Phi-3 unter Verwendung von Ollama und LocalAI aus.
🐍 Code-Interpreter
Lassen Sie den LLM Code in einer Sandbox-Ausführungsumgebung ausführen.
🐳 Behälter
Führen Sie Code in Docker -Containern aus.
Videoverarbeitung
Transkribieren Sie Ihre Videos und machen Sie Screenshots, damit Sie sie effizient in Ihre LLM-Anfragen einspeisen können.
🧩 LLM-Komposition
Führen Sie LLMs aus , um Ihre LLM-Eingabeaufforderungen zu erstellen.
🅿️ Schnelle Unterstützung
Führen Sie auch Ihre Prompty- Dateien aus!
Pluggable Secret Scanning
Scannen Sie Ihre Chats mithilfe der Geheimscanfunktion nach Geheimnissen.
⚙ Automatisieren mit CLI oder API
Automatisieren Sie mithilfe der CLI oder API .
Sicherheit geht vor!
GenAIScript bietet integrierte Eingabeaufforderungen des Responsible AI-Systems und Azure Content Safety-Unterstützung zur Validierung der Inhaltssicherheit .
💬 Pull Request-Überprüfungen
Integrieren Sie Checks in Ihre Pull Requests durch Kommentare, Reviews oder Beschreibungsaktualisierungen. Unterstützt GitHub Actions und Azure DevOps-Pipelines.
⭐ Tests und Evaluierungen
Erstellen Sie zuverlässige Eingabeaufforderungen mithilfe von Tests und Auswertungen, die von promptfoo unterstützt werden.
LLM-freundliche Dokumente
Der gesamte Inhalt der Dokumentation wird unter https://microsoft.github.io/genaiscript/llms-full.txt in Markdown gerendert. Sie können ihn direkt in Ihr bevorzugtes RAG-System einspeisen.
Wenn Sie ein LLM-Crawler sind, fügen Sie den Dokumentations-URLs die Endung .md
hinzu, um einen unverarbeiteten Markdown-Inhalt zu erhalten. Beispiel: https://microsoft.github.io/genaiscript/guides/prompt-as-code.md (beachten Sie die Endung .md).
Beitragen
Wir freuen uns über Beiträge! Weitere Informationen und Informationen zur Entwicklereinrichtung finden Sie auf der Seite „Beiträge“ .
Marken
Dieses Projekt kann Marken oder Logos für Projekte, Produkte oder Dienste enthalten. Die autorisierte Verwendung von Microsoft-Marken oder -Logos unterliegt den Marken- und Markenrichtlinien von Microsoft und muss diese einhalten. Die Verwendung von Microsoft-Marken oder -Logos in modifizierten Versionen dieses Projekts darf weder Verwirrung stiften noch eine Förderung durch Microsoft implizieren. Jede Verwendung von Marken oder Logos Dritter unterliegt den Richtlinien dieser Dritten.
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
GenAIScript ist eine JavaScript-Laufzeitumgebung zum Erstellen zuverlässiger, automatisierbarer LLM-Skripte. Jedes GenAIScript kann automatisch als MCP-Server bereitgestellt werden.
- Eingabeaufforderung ist Codierung
- Hallo Welt
- 🚀 Kurzanleitung
- ✨ Funktionen
- Klassifizieren
- LLM-Tools
- LLM-Agenten
- 🔍 RAG integriert
- 🐙 GitHub Models und GitHub Copilot
- 💻 Lokale Modelle
- 🐍 Code-Interpreter
- 🐳 Behälter
- Videoverarbeitung
- 🧩 LLM-Komposition
- 🅿️ Schnelle Unterstützung
- Pluggable Secret Scanning
- ⚙ Automatisieren mit CLI oder API
- Sicherheit geht vor!
- 💬 Pull Request-Überprüfungen
- ⭐ Tests und Evaluierungen
- LLM-freundliche Dokumente
- Beitragen
- Marken
Related MCP Servers
- -securityFlicense-qualityA production-ready MCP server built with FastAPI, providing an enhanced tool registry for creating, managing, and documenting AI tools for Large Language Models (LLMs).Last updated -13Python
- -securityFlicense-qualityA server that enables AI assistants to execute JavaScript code with persistent context through stateful REPL sessions, file operations, and package management features.Last updated -TypeScript
- -securityFlicense-qualityAllows AI models to run JavaScript/TypeScript code through Model Context Protocol tool calls, supporting both one-time script execution and stateful REPL sessions with npm package integration.Last updated -TypeScript
- -securityFlicense-qualityA server that provides access to Google Gemini AI capabilities including text generation, image analysis, YouTube video analysis, and web search functionality through the MCP protocol.Last updated -2TypeScript
Appeared in Searches
- A platform for datasets and data management
- No-code platforms for application development using TypeScript, JavaScript, Python, with MCP server integration via agentic orchestration
- Tools and Techniques for Debugging UI in Web Development
- The most downloaded Minecraft Plugin (MCP) right now
- Workflows in n8n for downloading from Google Drive