La discusión sobre la automatización inteligente cambió de etapa. Ya no se trata de pensar si estas tecnologías entrarán en las empresas. Ahora la pregunta es cómo se las incorpora, cuánto se les delega y qué controles hacen falta para que funcionen. Esa fue una de las ideas que atravesaron el panel “Automatización Inteligente: RPA + IA + agentes para operaciones autónomas” en Forbes IA Total Disruption, realizado en el Four Seasons de Buenos Aires.
Lejos del entusiasmo liviano, la conversación se movió hacia una zona bastante más incómoda y concreta:
- ¿Qué cambia cuando una empresa deja de automatizar tareas y empieza a delegar decisiones?
- ¿Cómo se integra esa nueva capa de inteligencia con sistemas legacy?
- ¿Qué lugar ocupan la seguridad, el gobierno y el negocio cuando los agentes están listos para entrar en operación?
En el panel moderado por Agustín Jamele, participaron:
- Emiliano Actis Dato, Account Technical Leaders Community Leader de América Latina en IBM
- Nicolás Ramos, socio del área de consultoría en tecnología de EY Argentina.
- Alejandro Zuzenberg, CEO y cofundador de Botmaker.
El salto que viene no consiste en reemplazar al RPA, sino en complementarlo con agentes capaces de interpretar el contexto y tomar decisiones con mayor flexibilidad.
Índice de temas
¿Qué cambia con los agentes frente al modelo tradicional de automatización?
La primera distinción marcada del panel fue conceptual. El RPA, coincidieron, sigue siendo útil. Pero responde a una lógica mucho más rígida, con pasos definidos y caminos cerrados. En ese esquema, la máquina ejecuta. No interpreta demasiado. No se aparta del script.
Con los agentes, en cambio, aparece otra capa. “Se abre un abanico de nuevas posibilidades en el que podemos ingresar mucho más contexto y podemos permitir a esos agentes que tomen ciertas decisiones quizá con reglas más blandas o con un criterio como podría aportar un humano”, planteó Emiliano Actis Dato.
El cambio, entonces, es de paradigma. Ahora se trata de habilitar sistemas capaces de operar con mayor autonomía dentro de límites definidos.
¿Por qué el RPA no desaparece?
El RPA no va a salir de escena. Pero si va a cambiar de lugar. “El RPA es como un brazo ejecutor”, resumió Nicolás Ramos. También comentó que los agentes pueden sumar entendimiento del contexto y capacidad de decisión, mientras que la automatización tradicional sigue desempeñando un rol central en la ejecución.
En ese marco, la novedad radica en integrarlos mejor. El agente aporta autonomía; el RPA mantiene la precisión operativa. Y esa mezcla permite abordar procesos que antes no podían automatizarse del todo porque requerían interpretación o la lectura de variables menos estructuradas.
¿Qué miedos aparecen cuando una empresa delega decisiones?
Tal vez el pasaje más interesante del panel fue el que movió la discusión del terreno técnico al organizacional. Alejandro Zuzenberg lo planteó de manera simple. “Los agentes son modelos de delegación. Yo delego la toma de decisiones y la ejecución en un agente”, señaló.
Ahí aparece el núcleo del miedo. “El miedo a delegar es el mismo que con seres humanos. Es que no haga lo que yo quiero que haga, que no decida como yo quiero que decida”, sostuvo el CEO de Botmaker. La frase plantea el problema bastante bien. Cuanto más autonomía se entrega, más importante resulta definir límites.
¿Cómo se integran estos sistemas con infraestructuras legacy?
Otro de los ejes centrales fue el de los sistemas heredados. Lejos de la fantasía de empezar de cero, el panel insistió en algo bastante más realista. Prácticamente ninguna compañía opera sin legacy, y la incorporación de agentes debe convivir con esa realidad. “Nunca me encontré con un cliente que no tenga sistemas legacy”, señaló Actis Dato.
La novedad, según se planteó, es que hoy conectar agentes con esos entornos es menos traumático que antes. Ya no todo depende de APIs o desarrollos de integración tradicionales.
Incluso el ejecutivo de IBM mencionó que “probablemente nunca fue tan fácil en la historia conectar un agente a los sistemas”. Esto ocurre justamente porque estas herramientas pueden interactuar con interfaces ya existentes y navegar por sistemas de manera más flexible.
Pero esa facilidad no elimina el riesgo. Dar acceso irrestricto a bases de datos o sistemas críticos sigue siendo una mala idea. Por eso, la recomendación fue clara:
- Trabajar con capas intermedias
- Permisos acotados
- Responsabilidades específicas para cada agente
¿Por qué seguridad y gobierno pasan a ser el centro de la discusión?
Si la automatización inteligente implica delegar, entonces la seguridad y el gobierno dejan de ser una conversación periférica. Pasan al centro. El panel remarcó que estos proyectos exigen poner la seguridad “primero en la mesa” como condición de diseño.
Además, en ese punto apareció una advertencia relevante. El error de una máquina no se percibe igual que el de un ser humano. Se le tolera menos y, muchas veces, resulta más difícil de anticipar porque opera con una lógica distinta, más literal.
Por eso también se habló del uso responsable de la IA, privacidad de datos, sesgos y necesidad de marcos de gobierno que permitan flexibilidad sin perder el control. La conclusión implícita fue que no hay operación autónoma posible sin una arquitectura sólida de supervisión.
¿Cuál es la primera regla para empezar?
Sobre el cierre, el panel dejó tres recomendaciones que, más que respuestas finales, sirvieron como hoja de ruta. La primera fue directa: empezar. “Manos a la obra, hay que implementarlo”, dijo Zuzenberg. Además, sumó una advertencia: “No solo las empresas van a usar agentes; también los consumidores, los compradores e incluso los atacantes”.
La segunda recomendación fue estratégica. Antes de multiplicar pilotos o de hacer compras desordenadas, hace falta definir un marco común. Pensar una estrategia general, evitar duplicaciones y definir lineamientos que permitan avanzar rápido, pero con cierta coherencia organizacional.
La tercera fue no perder de vista el negocio. En lugar de preguntar qué proceso más puede automatizarse por si acaso, conviene empezar por otra parte: “¿Cuál es el KPI de negocio que quiero impactar? ¿Cuál quiero maximizar? ¿Cuál quiero minimizar?”. Recién después tiene sentido decidir cómo usar esta tecnología. La advertencia contra el FOMO fue explícita. Sumar agentes solo porque todos lo están haciendo no garantiza ningún retorno.
La ventaja ya no va a estar en acceder a estas herramientas, porque cada vez están más disponibles. La diferencia va a aparecer en la capacidad de una organización para decidir dónde usarlas, cómo gobernarlas y qué problema de negocio quiere resolver con ellas. Porque en esta nueva etapa, más que automatizar por automatizar, se trata de delegar bien.



