hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
Enables execution of code in Docker containers, allowing LLMs to run isolated code environments for data processing or computation tasks.
Provides video processing capabilities including transcription and frame extraction to prepare video content for LLM analysis.
Allows querying and analyzing repository data using Git tools, enabling statistical analysis of commits and other Git operations.
GenAIScript
La incitación es codificación
Ensamble programáticamente indicaciones para LLM con JavaScript. Organice LLM, herramientas y datos en código.
- Caja de herramientas de JavaScript para trabajar con indicaciones
- Abstracción para hacerlo fácil y productivo
- Integración perfecta con Visual Studio Code o línea de comandos flexible
- Compatibilidad integrada con GitHub Copilot y GitHub Models, OpenAI, Azure OpenAI, Anthropic y más
- 📄 Lea la DOCUMENTACIÓN EN LÍNEA en microsoft.github.io/genaiscript
- 📝 Lee el blog para conocer las últimas novedades
- 📺 Mira la acogedora cocina con inteligencia artificial del Sr. Maeda
- 📺 Mira una entrevista en YouTube con nickyt
Hola Mundo
Supongamos que desea crear un guion LLM que genere un poema de "Hola mundo". Puede escribir el siguiente guion:
La función $
es una etiqueta de plantilla que crea una propuesta. Esta propuesta se envía al LLM (que usted configuró), que genera el poema.
Hagámoslo más interesante añadiendo archivos, datos y una salida estructurada. Supongamos que quieres incluir un archivo en el prompt y luego guardar la salida en un archivo. Puedes escribir el siguiente script:
La función def
incluye el contenido del archivo y lo optimiza, si es necesario, para el LLM de destino. El script GenAIScript también analiza la salida del LLM y extrae el archivo data.json
automáticamente.
🚀 Guía de inicio rápido
Comience rápidamente instalando la extensión de Visual Studio Code o utilizando la línea de comandos .
✨ Características
JavaScript y TypeScript estilizados
Cree indicaciones mediante programación utilizando JavaScript o TypeScript .
🚀 Bucle de desarrollo rápido
Edite, depure , ejecute y pruebe sus scripts en Visual Studio Code o con la línea de comandos .
🔗 Reutilizar y compartir scripts
¡Los scripts son archivos ! Se pueden versionar, compartir y bifurcar.
📋 Esquemas de datos
Definir, validar y reparar datos mediante esquemas . Compatibilidad con Zod integrada.
📄 Ingerir texto desde archivos PDF, DOCX, ...
Manipular archivos PDF , DOCX , ...
📊 Ingerir tablas desde CSV, XLSX, ...
Manipular datos tabulares desde CSV , XLSX , ...
📝 Generar archivos
Extraiga archivos y compare la salida de LLM. Previsualice los cambios en la interfaz de refactorización.
🔍 Búsqueda de archivos
Buscar archivos mediante grep o fuzz.
Clasificar
Clasifica texto, imágenes o una mezcla de todo.
Herramientas LLM
Registrar funciones de JavaScript como herramientas (con respaldo para modelos que no las admiten). También se admiten las herramientas del Protocolo de Contexto de Modelo (MCP) .
Agentes de LLM
Registre las funciones de JavaScript como herramientas y combine herramientas + indicaciones en agentes.
luego úsalo como herramienta
Vea el código fuente del agente git .
🔍 RAG Incorporado
🐙 Modelos de GitHub y GitHub Copilot
Ejecute modelos a través de GitHub Models o GitHub Copilot .
💻 Modelos locales
Ejecute sus scripts con modelos de código abierto , como Phi-3 , usando Ollama , LocalAI .
🐍 Intérprete de código
Deje que LLM ejecute el código en un entorno de ejecución aislado.
🐳 Contenedores
Ejecutar código en contenedores Docker.
Procesamiento de vídeo
Transcribe y captura capturas de pantalla de tus videos para que puedas alimentarlos de manera eficiente en tus solicitudes de LLM.
Composición de LLM
Ejecute LLMs para crear sus indicaciones LLM.
🅿️ Soporte rápido
¡Ejecuta también tus archivos Prompty !
Escaneo secreto conectable
Escanea tus chats en busca de secretos usando el escaneo de secretos .
⚙ Automatizar con CLI o API
Automatizar utilizando la CLI o API .
¡Seguridad ante todo!
GenAIScript proporciona indicaciones integradas del sistema de IA responsable y Azure Content Safety admite la validación de la seguridad del contenido .
💬 Reseñas de solicitudes de extracción
Intégralo en tus comprobaciones de solicitudes de extracción mediante comentarios, revisiones o actualizaciones de descripciones. Compatible con GitHub Actions y canalizaciones de Azure DevOps.
⭐ Pruebas y evaluaciones
Cree indicaciones confiables utilizando pruebas y evaluaciones impulsadas por promptfoo .
Documentos compatibles con LLM
Todo el contenido de la documentación se genera en Markdown en https://microsoft.github.io/genaiscript/llms-full.txt . Introdúzcalo directamente en su sistema RAG preferido.
Si trabajas con LLM, añade el sufijo .md
a las URL de la documentación para obtener contenido Markdown sin procesar. Por ejemplo, https://microsoft.github.io/genaiscript/guides/prompt-as-code.md (ten en cuenta la extensión .md).
Contribuyendo
¡Aceptamos contribuciones! Consulta la página de CONTRIBUYENTES para obtener más información y la configuración para desarrolladores.
Marcas comerciales
Este proyecto puede contener marcas comerciales o logotipos de proyectos, productos o servicios. El uso autorizado de las marcas comerciales o logotipos de Microsoft está sujeto a las Directrices de Marcas Registradas y de Marca de Microsoft y debe cumplirlas. El uso de marcas comerciales o logotipos de Microsoft en versiones modificadas de este proyecto no debe causar confusión ni implicar patrocinio por parte de Microsoft. El uso de marcas comerciales o logotipos de terceros está sujeto a las políticas de dichos terceros.
This server cannot be installed
GenAIScript es un entorno de ejecución de JavaScript dedicado a crear scripts LLM fiables y automatizables. Cada GenAIScript puede exponerse automáticamente como servidor MCP.