Los modelos de lenguaje masivo dejaron de ser una promesa abstracta para convertirse en la base de una transformación que ya está en marcha en múltiples sectores. Durante el panel “De los LLMs a los Agentes de IA: la evolución hacia sistemas autónomos”, desarrollado en el Forbes IA Summit 2025, referentes de distintas industrias analizaron cómo estos modelos evolucionan hacia sistemas más autónomos, con aplicaciones concretas en empresas, universidades y servicios al cliente.
Índice de temas
Qué son los modelos de lenguaje masivo y cómo evolucionan hacia agentes inteligentes
Sergio Pernice, Director de Ingeniería en Inteligencia Artificial UCEMA, fue el primero en poner sobre la mesa una imagen clara: “Una manera bastante intuitiva de entenderlo es suponer que queremos hacer una pizza y le pedimos al LLM que nos dé un plan y pasos para hacerla. El LLM es el cerebro que planifica y da las órdenes; nosotros somos quienes ejecutamos”. El paso siguiente es que la ejecución también esté automatizada: “Con agentes, ya no se trata de humanos haciendo la tarea, sino de programas que el modelo usa directamente para actuar”.
Pablo Abad, Engineering VP de Despegar, definió esta evolución como “el siguiente paso natural” y explicó: “Ya no estamos hablando de pedir una receta, sino de que el sistema haga la pizza. Esa capacidad de interpretar el contexto y ejecutar marca el salto real”.
Según Mauro Avendaño, Socio de Tecnología en KPMG Argentina, esto ocurre porque “la tecnología pasó de estar limitada a niveles corporativos a llegar a las manos del público” y “eso generó que personas normales usen las herramientas para el día a día”.
Modelos de lenguaje masivo en acción: impacto y adaptabilidad en distintas industrias
La presencia de modelos de lenguaje masivo ya se siente en todas las verticales del mercado. “Es transversal a todas las industrias porque, todas son afectadas por esta tecnología y todas se pueden ver beneficiadas”, afirmó Emiliano Actis Dato, Líder de Customer Success en IBM para Argentina, Paraguay y Uruguay.
“Lo que cambia es qué tan rápido se adaptan las empresas. En general, esta tecnología es más potente donde hay mucho texto, y eso está presente en todos los sectores”, añadió.
En el caso de Despegar, el uso de estos modelos desembocó en Sofía, su asistente virtual. “La misión de Sofía fue mutando. Empezó como recomendador y ahora busca acompañar toda la experiencia del viaje”, explicó Abad. “Es un producto en construcción y que nunca va a terminar, porque los humanos cambiamos todo el tiempo. Queremos que Sofía cada vez nos entienda mejor y nos ayude más”.
Avendaño remarcó que, en el mundo corporativo, los modelos se usan para “aumentar eficiencia, reducir costos y escalar procesos”, pero también para “acompañar a las personas como copilotos expertos en sus tareas cotidianas”.
Cómo se estructuran los modelos de lenguaje masivo para operar como agentes
Actis Dato fue el encargado de explicar la arquitectura técnica que permite que los modelos de lenguaje masivo evolucionen a sistemas autónomos: “No se trata solo de promptear un LLM distinto. Se usan técnicas como RAG (Retrieval Augmented Generation), que permiten darle un contexto con documentos internos de la empresa, y se incorporan memorias de corto y largo plazo. Si logran una acción que fue satisfactoria, la aprenden y la guardan para utilizarla en el futuro”.
Estos agentes también reflexionan sobre sus acciones y aprenden de sus errores. “Después de ejecutar una tarea, evalúan qué tan bien lo hicieron y ajustan a futuro. Además, se les integran herramientas externas, como navegadores, sistemas internos o APIs”, detalló. “Una herramienta puede ser incluso invocar a otro agente especializado”.
Según Actis Dato, “hay frameworks que facilitan esta arquitectura compleja” y “eso nos permite pasar de simplemente consultar un modelo a realmente delegar procesos”.
Modelos de lenguaje masivo y autonomía: el dilema ético de ceder el control
Uno de los puntos centrales del panel fue la necesidad de abordar el uso de los modelos de lenguaje masivo con una mirada ética y responsable. “Usamos el enfoque man in the loop: el humano confirma lo que el agente propone, sobre todo en procesos críticos”, explicó Actis Dato. Pero el desafío va más allá: “En empresas, el modelo no puede responder cualquier cosa, como en otros entornos donde se lo podemos personar”.
Para controlar ese entorno, IBM promueve el uso de “modelos tipo juez”, que auditan tanto la respuesta del agente como la intención de la pregunta: “Pueden detectar si una consulta es maliciosa y bloquearla antes de que se procese”.
KPMG también trabaja en plataformas seguras: “Hay que dar a las personas herramientas para que sientan segura la utilización de la IA y ver de que manera ponemos esa información de forma segura y consistente”
Desde Despegar, la estrategia fue distinta: “Somos una compañía que fomenta mucho la innovación y la ambición y parte de eso nos enseñó que tenemos que ser humildes en estos temas y empezar admitiendo que no lo controlamos, no sabemos, no tenemos las respuestas de todo”
“Le dimos las herramientas a los empleados y los desafiamos a encontrar usos. Nos sorprendieron con soluciones que ni habíamos imaginado y que realmente mejoraron la calidad de vida de las personas y que los amigaron con la tecnología, contó Abad.
Pernice agregó un matiz desde la educación: “Hay un desafío ético que no depende del modelo, sino del docente. ¿Cómo evalúas a un alumno si cualquier consigna que le des puede resolverla mejor un LLM?”. Sostuvo que hay que repensar la evaluación para que no se pierda el esfuerzo mental del aprendizaje”.