DEVELOPMENT

De Prompt Engineering a Context Engineering: Aprendizajes de un producto de AI code review

📅 Viernes 17 de abril 🕐 15:40 - 16:20 (Santiago, GMT-4) 📍 Auditorio A1 🌐 Spanish
De Prompt Engineering a Context Engineering: Aprendizajes de un producto de AI code review
Si estás usando LLMs para revisar código y las sugerencias siguen siendo genéricas o señalan cosas que no son bugs sino decisiones intencionales del equipo, no es culpa del modelo. Cuando construimos CodeRabbit, un producto de AI code review, descubrimos que el prompt perfecto no alcanza si el modelo no tiene el contexto correcto. Sin las convenciones del equipo, el historial de cambios o el grafo de dependencias, cualquier modelo va a revisar tu código a ciegas.
En esta charla compartiremos las tres fases que recorrimos: desde mandar un diff y esperar buenos resultados, hasta diseñar sistemas que curan dinámicamente qué información llega al modelo en cada review. Si estás integrando LLMs en tu flujo de desarrollo y los resultados no terminan de convencer, esta charla te mostrará por qué el cuello de botella no es la instrucción sino la arquitectura de contexto que la rodea.
development
Register for free