Pasar de un prototipo funcional a un producto de inteligencia artificial listo para producción no depende solo del modelo, sino de los frameworks que lo sostienen. Para Steven Aragon, desarrollador full-stack y creador de videojuegos en Tuten, dominar herramientas como LangChain, LangGraph y LangSmith es lo que marca la diferencia entre experimentar con IA y construir sistemas que sean verdaderamente escalables.
Esa fue la base de su presentación “Frameworks que sí usamos en producción” durante el evento Prompteala, organizado por Ingenia y ArqConf en la Universidad del CEMA (UCEMA).
Desde el comienzo de su discurso, Aragon planteó una pregunta que atraviesa cualquier proceso técnico: “¿De verdad necesitamos frameworks para ir a producción?”. Y su respuesta fue contundente: sí. “Nos dan las herramientas necesarias para abordar ciertos temas de una manera muy precisa”.
El desarrollador también señaló que un framework, además de ofrecer estructura y simplicidad, cuenta con un lenguaje común que permite que los distintos perfiles (junior, semisenior o senior) trabajen sobre una misma base con la misma fluidez.
Índice de temas
Construir productos, no solo software
El desarrollador repasó los desafíos que surgen al transformar una idea en un software capaz de soportar cientos de miles de usuarios. Para él, el trabajo técnico no puede aislarse del contexto del negocio: “Tenemos que involucrarnos en el producto entero y no solo en el código”.
Según explicó, el desarrollo de un producto en producción necesita tener en cuenta la observabilidad, las métricas y los costos de infraestructura, temas que muchas veces quedan fuera del radar de los equipos técnicos.“La parte técnica y la parte de finanzas tienen que estar en diálogo constante”, remarcó.
Además, destacó que los foundational models implican costos importantes y que las decisiones técnicas pueden tener impacto directo en la rentabilidad del proyecto. También habló sobre la importancia de la resiliencia: “Si se cae el producto, da una mala impresión. Hay que tener medidas de contingencia antes de que eso pase”.
Aprender la base antes que el framework
Aragon señaló que el ecosistema actual de frameworks para IA cambia a una velocidad difícil de seguir. Cada semana surgen nuevas librerías y herramientas, lo que obliga a los desarrolladores a concentrarse en las bases más que en las modas tecnológicas.
“Mi recomendación personal es aprender la estructura más atómica de todo, cómo está construido, para poder dominar cualquier herramienta”, explicó.
Esa mirada, aseguró, es clave para poder transicionar con facilidad entre soluciones que ofrecen mejor rendimiento o menores costos. Desde su perspectiva, comprender la lógica detrás de los modelos y sus integraciones es más importante que aprender un framework específico.
Low-code sirve para probar, no para escalar
Antes de adentrarse en su “tríada favorita” de herramientas, Aragon compartió su visión sobre los entornos low-code, que describió como útiles para prototipar, pero limitados para escalar. “Es como pintar: es fácil, rápido y divertido. Pero a nivel de producción no siempre es viable”, aclaró.
Mencionó plataformas como Zapier, n8n y la reciente AI Studio Builder de OpenAI, que conectan agentes y APIs de forma sencilla. Sin embargo, destacó que el costo por ejecución en algunos casos puede volverlas poco sostenibles. “En n8n, por ejemplo, cada consulta es una ejecución de workflow. A nivel business no es una buena solución”, sostuvo.

El principal problema aparece cuando un producto necesita actualizaciones o hot swaps: “Estamos atados a la UI. Si te entregan una solución low-code, estás limitado a su interfaz y a su lógica interna. No siempre podés customizarla”.
La tríada ideal: LangChain, LangGraph y LangSmith
Con ese contexto, el desarrollador introdujo las tres herramientas que, a su juicio, conforman una base sólida para llevar IA a producción: LangChain, LangGraph y LangSmith. “Para mí, LangChain son las piezas de Lego; LangGraph, las autopistas que conectan esas piezas; y LangSmith, la observabilidad”, resumió.
Aragon aclaró que estas herramientas no compiten entre sí, sino que se complementan. Juntas permiten pasar de un modelo fundacional a un sistema robusto, testeable y trazable. “Esos tres, para mí, son necesarios para salir a producción”, afirmó.
Además, destacó la importancia de tener una comunidad activa. “Si tenés una comunidad pequeña, vas a encontrar muchos problemas que no están solucionados. LangChain tiene más de 117 mil estrellas en GitHub y casi 4 mil contribuidores. Eso te da respaldo y no te sentís solo al encarar un producto a producción”, señaló.
LangChain: la base modular para conectar modelos
LangChain se consolida como una de las librerías más populares del ecosistema de IA por su capacidad de integrar modelos fundacionales con fuentes de datos, APIs y herramientas externas.
Según Aragon, su arquitectura de código abierto facilita la conexión con proveedores como AWS, Google Cloud e IBM, lo que la convierte en una opción versátil para equipos que buscan escalar soluciones.
Si bien la librería está disponible tanto en Python como en JavaScript, el desarrollador recomendó la primera por su madurez y soporte. “Tengo una decepción con JavaScript: el mantenimiento no es tan bueno. En Python, en cambio, es el lenguaje de la IA y la comunidad es enorme”, comentó.
LangGraph: orquestación y control de flujo
Dentro de la tríada, LangGraph se destaca por ofrecer una estructura stateful, que permite seguir la evolución de los agentes y sus respuestas a lo largo del tiempo.
“Podemos agregar verificación humana en puntos críticos, algo fundamental en algunas aplicaciones”, explicó Aragon. También destacó: “Podés interrumpir, agregar breakpoints y ver cómo evoluciona una conversación”.
LangSmith: observabilidad y trazabilidad en IA
En paralelo, LangSmith cumple el rol de observabilidad avanzada, ya que ofrece trazabilidad completa con apenas tres líneas de código.
“El acople a nivel de código es mínimo, y ya tenés visibilidad de toda la aplicación”, señaló. Sin embargo, advirtió que la herramienta tiene aspectos a mejorar: “Loguea todo, incluso procesos repetitivos, y a veces eso no es necesario. Los costos también son poco claros”.
Para quienes buscan una alternativa más abierta, mencionó opciones como LangFuse, que permite un modelo self-hosted sin depender de la versión enterprise.
“Cada nueva herramienta es una oportunidad”
Aragon cerró su charla con una reflexión sobre el aprendizaje y la pasión por el desarrollo. “Todos los días me levanto y pienso: el futuro es hoy, pero también me siento viejo”, bromeó entre risas.
Su consejo final fue simple, pero contundente: no dejarse abrumar por la velocidad del cambio. “No se saturen ni se quemen. Enamórense de este mundo, porque es hermoso. Cada herramienta nueva es una oportunidad”, concluyó.