De Prompt Engineering a Context Engineering: Aprendizajes de un producto de AI code review
Si estás usando LLMs para revisar código y las sugerencias siguen siendo genéricas o señalan cosas que no son bugs sino decisiones intencionales del equipo, no es culpa del modelo. Cuando construimos CodeRabbit, un producto de AI code review, descubrimos que el prompt perfecto no alcanza si el modelo no tiene el contexto correcto. Sin las convenciones del equipo, el historial de cambios o el grafo de dependencias, cualquier modelo va a revisar tu código a ciegas. En esta charla compartiremos las tres fases que recorrimos: desde mandar un diff y esperar buenos resultados, hasta diseñar sistemas que curan dinámicamente qué información llega al modelo en cada review. Si estás integrando LLMs en tu flujo de desarrollo y los resultados no terminan de convencer, esta charla te mostrará por qué el cuello de botella no es la instrucción sino la arquitectura de contexto que la rodea.
Sobre Juan Pablo Flores
Juan Pablo Flores trabaja en Developer Experience en CodeRabbit, un producto de code review potenciado por IA. Tiene experiencia construyendo y apoyando comunidades técnicas de estudiantes, y ha investigado cómo las personas colaboran en plataformas online y las dinámicas sociales del live streaming. Fan de las películas de Ghibli, los videojuegos de aventura y las entrevistas en Netflix.
🇨🇱 Charlas de Nerdearla Chile 2026 que te van a interesar
Ya está abierto el llamado a charlas para Nerdearla Argentina y México
Envía tu propuesta 🇦🇷🇲🇽