Recientemente, el equipo de investigación de IA de Microsoft publicó la herramienta de código abierto PromptWizard, un marco de IA impulsado por retroalimentación diseñado para optimizar eficientemente el diseño de indicaciones para modelos de lenguaje grandes (LLM). La calidad de las indicaciones es crucial para la calidad de la salida del modelo; sin embargo, crear indicaciones de alta calidad suele requerir mucho tiempo y recursos humanos, especialmente en tareas complejas o de dominio específico.

image.png

Los métodos tradicionales de optimización de indicaciones dependen en gran medida de la experiencia humana, un método no solo lento sino también difícil de escalar. Las técnicas de optimización existentes se dividen en continuas y discretas. Las técnicas continuas, como las indicaciones suaves, requieren muchos recursos computacionales, mientras que los métodos discretos, como PromptBreeder y EvoPrompt, generan varias variantes de indicaciones para su evaluación. Aunque estos métodos funcionan bien en algunos casos, carecen de un mecanismo de retroalimentación eficaz, lo que a menudo lleva a resultados insatisfactorios.

image.png

PromptWizard introduce un mecanismo de retroalimentación, utilizando un enfoque crítico y sintético para optimizar iterativamente las instrucciones y ejemplos de las indicaciones, mejorando significativamente el rendimiento de las tareas. Su flujo de trabajo se divide principalmente en dos fases: la fase de generación y la fase de inferencia de prueba. En la fase de generación, el sistema utiliza modelos de lenguaje grandes para generar varias variantes basadas en una indicación base y las evalúa para encontrar las opciones de mejor rendimiento. Simultáneamente, el mecanismo de crítica integrado en el marco analiza las ventajas y desventajas de cada indicación, proporcionando retroalimentación para guiar la optimización posterior. Después de varias rondas de optimización, el sistema puede mejorar la diversidad y la calidad de las indicaciones.

En la fase de inferencia de prueba, las indicaciones y ejemplos optimizados se aplican a nuevas tareas para asegurar una mejora continua del rendimiento. Utilizando este método, PromptWizard realizó experimentos exhaustivos en 45 tareas y obtuvo excelentes resultados en configuraciones supervisadas y no supervisadas. Por ejemplo, logró una precisión del 90% sin supervisión en el conjunto de datos GSM8K y del 82.3% en SVAMP. Además, en comparación con métodos discretos como PromptBreeder, PromptWizard redujo hasta 60 veces el uso de llamadas a la API y tokens, mostrando su eficiencia en entornos con recursos limitados.

image.png

El éxito de PromptWizard radica en su innovadora optimización secuencial, crítica guiada e integración de roles de experto, lo que le permite adaptarse eficazmente a tareas específicas y tener una buena interpretabilidad. Este avance presagia la importancia de los marcos automatizados en los flujos de trabajo de procesamiento del lenguaje natural y promete promover aplicaciones más eficientes y económicas de la tecnología de IA avanzada.

Blog: https://www.microsoft.com/en-us/research/blog/promptwizard-the-future-of-prompt-optimization-through-feedback-driven-self-evolving-prompts/

Código del proyecto: https://github.com/microsoft/PromptWizard?tab=readme-ov-file

Artículo: https://www.microsoft.com/en-us/research/publication/promptwizard-task-aware-agent-driven-prompt-optimization-framework/

Puntos clave:

🌟 PromptWizard es un nuevo marco de IA para optimizar las indicaciones de los modelos de lenguaje grandes y mejorar el rendimiento del modelo.

🔍 Este marco combina un mecanismo de crítica y un bucle de retroalimentación para generar y evaluar eficientemente varias variantes de indicaciones.

💰 PromptWizard muestra una precisión excepcional en múltiples tareas y reduce significativamente el consumo de recursos y los costos.