análisis

Casos reales, cifras y advertencias: lo que toda empresa debería saber antes de usar IA generativa en su atención al cliente



Dirección copiada

Herramientas basadas en grandes modelos de lenguaje prometen acelerar respuestas y mejorar la atención, pero también pueden fallar, inventar datos o exponer información sensible. Qué riesgos evitar, cómo minimizarlos y por qué no alcanza con confiar en la tecnología.

Publicado el 24 de oct de 2025

Nicolás Della Vecchia

Jefe de redacción



Chatbots de IA generativa en atención al cliente
Chatbots de IA generativa en atención al cliente

Empresas de todos los sectores están probando la inteligencia artificial generativa en sus canales de atención al cliente. Incorporan chatbots, asistentes virtuales y herramientas de soporte impulsadas por grandes modelos de lenguaje con el objetivo de lograr interacciones más ágiles y personalizadas. Cuando se implementa bien, esta tecnología puede aliviar a los agentes humanos de tareas repetitivas y mejorar la experiencia del cliente.

Pero no todo es promesa. También hay riesgos concretos: respuestas falsas o inventadas que pueden dañar la credibilidad de la empresa, sesgos, lenguaje inapropiado o filtraciones de datos sensibles.

En esta nota, repasamos cómo las organizaciones pueden incorporar IA generativa en la atención al cliente y al empleado sin perder el control ni la confianza del público. Señalamos los principales riesgos a evitar, las mejores prácticas y las salvaguardas necesarias para que esta tecnología funcione de forma útil, segura y coherente con los valores de la compañía. Además, incluimos ejemplos y métricas que muestran cómo la IA puede mejorar la experiencia sin reemplazar el toque humano.

El auge de la IA generativa en CX y sus riesgos

La adopción de inteligencia artificial generativa en Customer Experience (CX) creció de forma acelerada. En una publicación titulada AI CX Trends to Watch for in 2025, la tecnológica global NiCE estima que, ya en este año, la inteligencia artificial generativa podría encargarse de hasta el 70% de las interacciones con clientes sin intervención humana, con una mejora del 30% en los niveles de satisfacción.

Este potencial impulsó a muchas empresas a invertir con fuerza en estas soluciones. De hecho, el 72% de las compañías del S&P 500 ya identifica a la IA como un riesgo material en sus informes anuales de 2025, cuando en 2023 solo lo hacía el 12%, según publicó la Facultad de Derecho de Harvard. El dato refleja que la IA dejó de ser una prueba piloto para convertirse en una herramienta crítica en el negocio.

Está claro que el entusiasmo viene acompañado de preocupaciones importantes. El riesgo reputacional aparece al tope de la lista. Las compañías advierten que respuestas erróneas, sesgadas o inapropiadas, así como fallas en la privacidad o implementaciones mal diseñadas, pueden erosionar de forma rápida la confianza de los clientes y los accionistas, según advierte el mismo sitio.

Chatbots AI
Chatbots de IA generativa en atención al cliente. Fuente: Envato.

Una encuesta de McKinsey reveló que el 50% de los empleados en Estados Unidos señala la inexactitud y las llamadas “alucinaciones” como su principal preocupación frente a la IA generativa. A nivel global, el 73% de los profesionales identifica las respuestas potencialmente incorrectas como el mayor desafío de estas herramientas, según Thomson Reuters. En América Latina también hay optimismo, aunque con reservas: el 53% de los encuestados manifestó preocupación por la seguridad de los datos y el 50% por la privacidad y la confidencialidad. Aunque en esta región la inquietud por las respuestas inexactas es menor que en otras partes del mundo.

Está claro que, si bien los líderes ven a la IA como una pieza clave, también saben que antes de ampliar su uso deben tomar decisiones firmes para gestionar los riesgos de confianza y seguridad.

Alucinaciones: cuando la IA “inventa” y pierde credibilidad

El fenómeno conocido como alucinaciones de la inteligencia artificial aparece cuando un modelo generativo ofrece respuestas que suenan razonables, pero son falsas o completamente inventadas, según explicó CMSWire, una comunidad online para profesionales de la experiencia del cliente digital, que ofrece noticias, eventos, podcasts y análisis sobre la gestión de la experiencia digital y el marketing.

En atención al cliente, este tipo de errores puede ser desastroso. Un caso emblemático lo protagonizó Air Canada, cuando su chatbot le aseguró a un pasajero que podía comprar un vuelo para el funeral de su abuela con una supuesta tarifa de duelo, una política que en realidad no existía. Al intentar obtener el descuento, la aerolínea lo rechazó y culpó al bot por la información errónea. Como señaló Aventine, en 2024, un tribunal falló a favor del cliente, responsabilizó a la empresa por las falsedades de su IA y ordenó el pago de una indemnización.

Este episodio dejó una advertencia clara: una alucinación puede tener consecuencias legales y afectar la reputación de inmediato.

Cuando la IA ofrece respuestas equivocadas o ficticias, la confianza del cliente se debilita. Esa pérdida de credibilidad genera frustración. CMSWire enumera varios efectos frecuentes de estas fallas en servicios de atención: pérdida de confianza —por ejemplo, si un chatbot promete una política de reembolso que no existe, puede provocar enojo y que el cliente abandone la compra—; riesgos legales —como brindar consejos que violan normas y pueden derivar en multas o demandas—; mayor carga operativa —porque el error obliga al equipo humano a intervenir, corregir y gestionar reclamos—; e incluso crisis públicas, si la situación se viraliza en redes sociales.

¿Por qué ocurren estas alucinaciones?

Los modelos de lenguaje se entrenan con enormes volúmenes de datos disponibles en Internet y están diseñados para predecir la próxima palabra más probable en una secuencia, no para verificar si lo que dicen es verdadero; advierte Aventine.

Si la información en sus datos es incompleta o la pregunta resulta ambigua, el modelo tiende a “rellenar los huecos” con algo que suena creíble. Puede mezclar fechas, datos o hechos distintos y entregar una respuesta convincente, pero equivocada.

Cuando los datos de entrenamiento están desactualizados o son de baja calidad, el riesgo de alucinaciones aumenta. Un modelo que no conoce información reciente puede inventar directamente para ofrecer una salida.

Incluso los modelos más avanzados siguen mostrando este tipo de errores. De hecho, se detectó que algunos de los modelos de lenguaje más nuevos, con capacidad de razonamiento más compleja, presentan tasas de alucinación superiores a las de sus versiones anteriores al enfrentar problemas difíciles, seg

Ningún modelo actual está completamente libre de este riesgo. Por eso, las empresas deben aplicar controles y mantener supervisión constante. Confiar ciegamente en la supuesta “inteligencia” de la máquina puede salir caro.

Chatbots de IA generativa en atención al cliente. Fuente: Unplash

Sesgos, lenguaje inadecuado y comportamientos tóxicos

Otro de los riesgos asociados al uso de inteligencia artificial es que reproduzca sesgos o utilice un lenguaje inadecuado. Si el modelo no está bien ajustado, puede dar respuestas con prejuicios —por ejemplo, tratar de forma distinta según el género o la nacionalidad— o adoptar un tono que no se alinea con la cultura de la empresa.

Hubo casos notorios de bots que se salieron de control: insultaron a clientes o dijeron barbaridades. Uno de los más conocidos fue el de la empresa logística DPD, en Europa, que tuvo que desactivar su bot luego de que, provocado por un usuario, terminó lanzando improperios y calificó a la propia empresa como “la peor compañía de paquetería del mundo”.

Algo similar ocurrió con un chatbot bancario de Virgin Money, que fue dado de baja tras reprender a un cliente solo por escribir la palabra “virgin” (virgen) en el chat. El sistema la interpretó fuera de contexto.

Este tipo de incidentes afecta de inmediato la imagen de la marca. Las compañías admiten que la IA en contacto directo con el cliente representa un punto de presión reputacional, ya que cualquier respuesta ofensiva o equivocada se vuelve muy visible y puede dañar seriamente su credibilidad.

En 2025, según la Facultad de Derecho de Harvard, 38% de las empresas que integran el S&P 500 mencionaron de forma explícita los riesgos reputacionales de la IA en sus memorias. Señalaron las respuestas inapropiadas o sesgadas como amenazas concretas para su imagen.

Para evitar este tipo de situaciones, las organizaciones deben asegurarse de que sus bots representen los valores y el tono de la marca. No por nada, según Zendesk, plataforma de software que ofrece soluciones de gestión de atención al cliente, el 72% de los líderes de experiencia del cliente considera que los agentes de IA deben actuar como una extensión de la identidad de la empresa, reflejando su voz y sus principios.

Eso exige filtrar contenido inadecuado, eliminar sesgos en los datos con los que se entrenan los modelos y definir reglas claras de estilo. Entre las técnicas más utilizadas figuran: incluir instrucciones específicas en los prompts —por ejemplo, indicarle al sistema “respondé con un tono cordial y profesional, según la política X”—, aplicar un filtrado automático de respuestas para bloquear vulgaridades o expresiones discriminatorias, y hacer pruebas con distintos perfiles de usuario para identificar sesgos antes de poner el bot en funcionamiento.

También influye la capacitación constante del modelo con ejemplos alineados a la cultura de la empresa. Así, el asistente virtual puede mantener una voz coherente con la organización y no sonar ajeno a sus principios.

Chatbots: revolución del servicio al cliente
Chatbots de IA generativa en atención al cliente. 75% de las empresas mexicanas trabajan en implementar chatbots con IA en los próximos tres años; pues 65% de los consumidores mexicanos prefieren chatear con autómatas por su rapidez y precisión, no obstante, 40% de las empresas considera que la falta de información es una de las principales barreras para poder implementar el uso de chatbots.

Protección de datos y confidencialidad en la atención al cliente

Otro de los riesgos más delicados es la filtración de información sensible. Esto puede pasar de dos formas: una, cuando usuarios o empleados, al interactuar con la IA, comparten sin querer datos confidenciales que quedan almacenados o expuestos de manera indebida; la otra, cuando el modelo revela información interna incluida en sus datos de entrenamiento.

Muchas empresas temen que el uso de servicios de IA en la nube ponga en riesgo secretos comerciales o datos de sus clientes. No es casualidad que la ciberseguridad y la privacidad encabecen la lista de preocupaciones vinculadas al uso de inteligencia artificial. Según Mckinsey, en Estados Unidos, 51% de los empleados señala los riesgos de ciberseguridad, y 43% menciona la privacidad, casi al mismo nivel que la preocupación por la precisión de las respuestas.

Chatbots de IA generativa en atención al cliente. Fuente: Unplash

Las consecuencias de una filtración provocada por el uso de IA pueden ser graves. Van desde multas por incumplir normativas de protección de datos personales hasta la pérdida de confianza del público. Un relevamiento entre directivos muestra que 45% cree que un solo error en el manejo de datos por parte de un sistema de IA puede desencadenar un fuerte escrutinio regulatorio y generar descrédito ante la opinión pública.

No sorprende que muchas compañías ya estén incorporando controles específicos para la inteligencia artificial dentro de sus políticas de seguridad. Entre las medidas más comunes se destacan: limitar inicialmente los casos de uso a entornos internos —como soporte de TI o recursos humanos—, donde el riesgo es menor; anonimizar o enmascarar los datos sensibles antes de enviarlos al modelo; elegir proveedores que ofrezcan instancias dedicadas y garantías de que los datos no se usarán para entrenar modelos públicos; y capacitar a los empleados para que sepan qué tipo de información no deben ingresar nunca en un prompt.

Cisco, por ejemplo, recomienda “empezar en pequeño”, con un solo caso de uso controlado, probar exhaustivamente las medidas de seguridad para evitar filtraciones y priorizar proyectos internos antes de pasar a aplicaciones con clientes.

En este contexto, la gobernanza de datos también debe adaptarse al uso de inteligencia artificial. Hay que tratar a estos modelos como posibles vectores de riesgo, y gestionarlos con el mismo rigor que cualquier otro sistema que accede a información crítica.

Mejores prácticas para una IA generativa confiable en atención al cliente

¿Cómo pueden las empresas aprovechar los beneficios de la inteligencia artificial generativa en la experiencia del cliente sin perder el control ni la credibilidad? Por suerte, muchas organizaciones ya desarrollan estrategias para reducir los riesgos. A continuación, se detallan seis prácticas clave que los responsables de CX deberían tener en cuenta:

1. Entrenar con datos de calidad y actualizados

Para ofrecer respuestas confiables, el modelo necesita estar alimentado con información veraz, vigente y relevante de la empresa. Es fundamental priorizar datos correctos y actualizados sobre productos, políticas y procedimientos, e incorporar mecanismos que permitan mantener esa base de conocimiento al día.

Un modelo que puede acceder a la información más reciente tendrá menos margen para inventar. Por eso, conviene implementar procesos de actualización periódica, como reentrenar o ajustar el modelo con nuevos datos cada cierto tiempo, o conectarlo a bases de conocimiento dinámicas.

2. Incorporar Retrieval-Augmented Generation (RAG)

Varias empresas ya implementaron esta técnica, que conecta el modelo a un repositorio interno de conocimiento para respaldar sus respuestas. DoorDash, por ejemplo, aplicó RAG a través de un sistema de triple capa: primero, el modelo busca información en una base de datos validada; luego, se activan reglas del modelo que limitan el tipo de respuesta que puede dar; y, por último, un segundo modelo evalúa la calidad de lo que se generó.

Esta arquitectura redujo de forma significativa las respuestas incorrectas, ya que obliga al sistema a fundamentarse en fuentes verificadas en lugar de suposiciones. En general, RAG permite anclar las respuestas en datos confiables. En el ámbito de los centros de contacto, incluso es habitual que el bot incluya enlaces o referencias a las fuentes internas de donde extrajo la información.

3. Definir límites claros y habilitar el traspaso a humanos

Una de las reglas básicas es establecer con precisión qué tareas puede asumir la IA y en qué casos debe intervenir una persona. Varias compañías líderes ya fijaron “zonas prohibidas” para los bots, que incluyen temas sensibles como asesoramiento legal o médico, o reclamos muy específicos. En esas situaciones, el sistema transfiere la conversación de inmediato a un agente.

También se configuran umbrales de confianza: si el modelo detecta que no tiene suficiente certeza en su respuesta —por ejemplo, si su nivel de confiabilidad cae por debajo de cierto puntaje—, deriva la consulta a una persona. NICE, proveedor de soluciones de CX, logró buenos resultados al programar la IA para que “levante la mano” en momentos de duda, y así una persona pueda revisar antes de enviar la respuesta al cliente.

Esa supervisión humana es clave sobre todo en situaciones complejas o con carga emocional. También es importante mantener circuitos de retroalimentación humana. CVS Health, por ejemplo, detectó respuestas médicas inadecuadas en su bot y sumó una instancia de revisión a cargo de especialistas para ajustar las respuestas.

La IA tiene que funcionar como aliada, no como reemplazo del agente. Siempre debe haber una vía clara para que el cliente pueda hablar con una persona. No es que los usuarios rechacen la IA, lo que no toleran son las experiencias sin salida. Los mejores resultados se logran cuando la tecnología suma valor, pero también garantiza un traspaso fluido a un humano cuando hace falta.

4. Establecer límites y reglas de negocio

Más allá de los temas que el bot no debe abordar, es clave definir reglas técnicas y de contenido que mantengan al modelo dentro de los márgenes establecidos. Por ejemplo: si un cliente consulta por precios de hace más de cierta cantidad de años, el sistema no debería inventar una respuesta, sino derivar la conversación. Lo mismo ocurre con pedidos de asesoramiento financiero: el bot debe limitarse a ofrecer información general y recomendar que se consulte con un especialista.

Restringir el tipo de respuestas que puede dar la IA —en cuanto a formato, extensión o tono— ayuda a evitar desvíos. También se pueden programar parámetros vinculados a la personalidad: por ejemplo, que nunca use el tuteo si la política de la empresa exige trato formal, o que siempre se disculpe frente a una queja.

Empresas como eGlobalis aconsejan contar con manuales operativos claros que detallen cuándo el bot debe pasar la interacción a un humano, y dejar esas condiciones programadas desde el inicio. Otra medida habitual es incorporar filtros que bloqueen contenido ofensivo o sesgado, y así evitar respuestas inadecuadas.

En definitiva, se trata de definir el terreno en el que la IA puede moverse, para que actúe dentro de los niveles de calidad, precisión y tono que la empresa espera.

Cómo un Chatbot con IA Atendió a +5,000 Clientes al Mes (Caso Real)🤖📊
Chatbots de IA generativa en atención al cliente

5. Pruebas rigurosas y monitoreo constante

Antes de poner un chatbot con IA a disposición del público, es indispensable testearlo en escenarios controlados. Hay que simular todo tipo de situaciones: desde preguntas frecuentes hasta casos límite, reclamos ambiguos o clientes molestos. Esto permite identificar en qué contextos el modelo tiende a fallar o desvariar.

No alcanza con probar los casos “felices”. Es clave exponer al sistema a consultas difíciles y observar si mantiene precisión en sus respuestas. Algunas métricas útiles son la tasa de escalamiento —es decir, qué porcentaje de interacciones termina en manos de un agente— y la tasa de corrección —cuántas veces un humano tuvo que corregir lo que dijo el bot—. Estas cifras, junto con indicadores clásicos como el nivel de satisfacción del cliente (CSAT) y los tiempos de atención, ayudan a detectar patrones de respuestas incorrectas o inconsistentes.

Una vez que el sistema entra en funcionamiento, el monitoreo debe ser permanente. Los errores de la IA no se pueden tratar como simples fallos: hay que analizarlos como si se tratara de incidentes técnicos o problemas de seguridad. Cada caso debe documentarse, investigarse a fondo y servir para ajustar el modelo o sus reglas.

Muchas empresas exitosas arman equipos dedicados al afinamiento continuo de la IA. Revisan conversaciones reales, recogen comentarios de usuarios y agentes, y ajustan el modelo para mejorar su desempeño. La IA no es algo que se configura una vez y se deja correr. Requiere seguimiento, ajustes constantes y mejoras iterativas. Esa vigilancia es señal de una gestión responsable y permite que el sistema mejore con el tiempo.

Impacto positivo: IA e interacción humana mejoran la experiencia de atención al cliente sin perder calidez

Cuando se aplican buenas prácticas, muchas empresas logran que la inteligencia artificial potencie la experiencia del cliente sin perder el trato humano. Lejos de reemplazar a las personas, una IA bien utilizada amplifica las capacidades humanas y permite concentrarlas en lo que realmente importa: la empatía, la creatividad y la resolución de situaciones complejas. De hecho, según Zendesk, el 75% de los líderes de experiencia del cliente consideran que la IA sirve para potenciar la inteligencia humana, no para reemplazarla.

A continuación, tres casos de organizaciones latinoamericanas que incorporaron IA generativa en su atención al cliente con buenos resultados:

Banco Bradesco (Brasil)

Es uno de los bancos más grandes de América Latina y pionero en inteligencia artificial. En 2025, lanzó un chatbot de atención al cliente potenciado con IA generativa. Fue uno de los primeros de la banca global en hacerlo. En solo ocho semanas, desarrollaron este asistente y lograron que resolviera el 90% de las consultas sin intervención humana, muy por encima de la meta inicial, que era del 50%.

Además, alcanzó un 95% de precisión en sus respuestas, lo que indica que las alucinaciones y errores se mantuvieron al mínimo. Esto fue posible gracias a un entrenamiento riguroso con datos financieros y a pruebas piloto bajo control.

Bradesco también implementó una IA que asiste a los agentes de sus centros de atención telefónica. Esta herramienta resume conversaciones y sugiere respuestas, lo que redujo en un 40% el tiempo promedio de cada llamada durante el período de prueba.

El resultado fue doble: los clientes recibieron respuestas más rápidas y los empleados trabajaron de forma más eficiente, sin errores de información. Por esta innovación, Bradesco obtuvo premios internacionales y se transformó en un ejemplo de uso confiable de IA para mejorar la atención sin resignar calidad.

Nubank (Brasil)

El banco digital más grande de la región, con más de 114 millones de clientes, integró en 2025 las soluciones de OpenAI para mejorar su servicio al cliente. Implementó un asistente con GPT-4 que atiende directamente por chat y correo electrónico. Este sistema resuelve de forma autónoma el 55% de las consultas de nivel 1 (las más simples), gestiona más de 2 millones de chats por mes y redujo los tiempos de respuesta en un 70%.

Nubank complementó este asistente con un copiloto diseñado para sus agentes humanos. Esta herramienta resume en tiempo real el contexto del cliente y sugiere las mejores respuestas. Ya lo usa el 45% de los agentes.

Gracias a esta combinación, Nubank resolvió consultas 2,3 veces más rápido y con mayor precisión, manteniendo altos niveles de satisfacción neta (tNPS).

Un punto clave: la incorporación de IA no implicó despidos. Por el contrario, permitió liberar a los agentes para ocuparse de casos más complejos o que requieren criterio humano. Además, se estableció un tope de hasta cinco interacciones por bot antes de escalar la conversación a una persona.

Este caso muestra cómo la inteligencia artificial puede aportar velocidad y consistencia, sin perder el trato humano necesario para cerrar bien cada interacción.

Volaris (México)

La aerolínea implementó herramientas de automatización del conocimiento y asistencia con inteligencia artificial en su centro de atención. En lugar de usar un chatbot tradicional, dotó a sus agentes con un copiloto inteligente que monitorea en vivo las conversaciones, analiza el sentimiento del cliente y sugiere respuestas u ofertas en tiempo real.

El impacto fue claro. Al automatizar respuestas frecuentes y ofrecer orientación inmediata, los agentes liberaron capacidad y pudieron interactuar de manera más personalizada. Gracias a esta asistencia, también se enfocaron en ofrecer mejoras, como descuentos en asientos, lo que generó ingresos adicionales que llegaron a cubrir el costo completo de la operación del centro de contacto.

La calidad del servicio no solo se mantuvo, sino que mejoró. Volaris logró elevar la atención al cliente al identificar emociones durante la conversación y responder de forma proactiva.

Un especialista del sector mencionó que otro usuario de una herramienta similar, en el rubro de la salud, aumentó su NPS en un 16% tras incorporar un sistema que detectaba conversaciones con tono negativo y sugería intervenciones adecuadas.

En el caso de Volaris y otras compañías, la conclusión fue clara: la IA permitió resolver problemas más rápido y anticiparse a las necesidades del cliente. Pero, como destacó un vocero, “la prioridad no es remplazar agentes humanos, sino potenciar su eficiencia”.

Los clientes siguen valorando poder hablar con una persona cuando lo desean, y la estrategia de Volaris dejó en evidencia que la IA cumple un rol de apoyo, no de reemplazo.


Canales

Artículos relacionados

Artículo 1 de 7