Análisis en profundidad

Ejemplos de inteligencia artificial en la actualidad

La inteligencia artificial es un tema de gran actualidad que abre oportunidades inexploradas. ¿Cómo funciona esta disciplina y en qué consiste? ¿Cuáles son las tecnologías que lo sustentan? ¿Qué aplicaciones son ya posibles hoy y cuáles en el futuro?

03 Nov 2022

Redacción InnovaciónDigital360

ejemplos de inteligencia artificial

La inteligencia artificial es la disciplina que estudia el diseño, el desarrollo y la implementación de sistemas de hardware y software dotados de capacidades propias de los humanos. Son habilidades como el razonamiento, el aprendizaje, la planificación y la adaptación. En esta extensa nota profundizaremos sobre todos los ejemplos de Inteligencia Artificial de la actualidad, casi cerrando el 2022.

Índice de temas

Qué es la inteligencia artificial: definición de IA

Antes de adentrarnos en el análisis de las tecnologías en las que se basa la inteligencia artificial, vamos a intentar dar una definición más concreta.

Empecemos de una vez por quitar toda esperanza a los que buscan una definición inequívoca y consensuada del término «inteligencia artificial».

Es un concepto que abarca un abanico muy amplio de temas de diferentes disciplinas, desde la neurología a la informática, desde la neurobiología a la neurofisiología (y en general todas las disciplinas que estudian el cerebro humano) a las matemáticas, etc.

Por lo tanto, cuanto más se intente dar una definición científica que lo abarque todo, más se verá obligado a simplificarla. Para no dejar de lado aspectos fundamentales según el punto de vista que se adopte, sigue siendo una definición aparentemente trivial.

La inteligencia artificial extrae su savia de la evolución de metodologías y algoritmos innovadores. Y es en estos en los que nos centraremos hablando aquí, por ejemplo, del reconocimiento de imágenes, la realidad aumentada y virtual y remitiendo a otros artículos que explican con detalle el machine learning, el deep learning y el procesamiento del lenguaje natural.

¿Inteligencia artificial o inteligencia aumentada?

¿Inteligencia artificial o inteligencia aumentada? Puede parecer extraño, después de hablar hasta ahora de la inteligencia artificial, hacer esta pregunta, pero no es una pregunta peregrina.

Como veremos en el apartado de cuestiones éticas, la inteligencia artificial, aunque, por un lado, abre grandes oportunidades, también levanta el telón de escenarios, todavía solo de ciencia ficción, pero ciertamente alarmantes de un mundo gobernado por máquinas.

Ejemplos de Inteligencia Artificial: lo que hace la IA hoy en día

El nivel más alto alcanzado hasta ahora por la Inteligencia Artificial es el de un excelente estudiante, con una poderosa memoria, pero no de genio. Las máquinas hasta ahora correlacionan lo que han aprendido. De estos aprendizajes extraen nueva información para simular el comportamiento humano, pero no tienen la perspicacia genial de un Einstein. Sobre todo, no desarrollan sus propias capacidades cognitivas, sino que emulan las humanas.

Sin embargo, seguramente pueden apoyar al hombre proporcionándole correlaciones que una mente humana difícilmente podría hacer. Esto es posible gracias a la trituración de la infinita cantidad de datos disponibles hoy en día y, por lo tanto, ayuda a «aumentar» la inteligencia humana. Por eso, en algunos contextos se prefiere el término inteligencia aumentada al de inteligencia artificial.

Este debate refleja lo que, en la comunidad científica, se plasma en la diferencia entre inteligencia artificial débil (IA débil) e inteligencia artificial fuerte (IA fuerte).

La explicación de esta diferenciación se la debemos al filósofo y lingüista estadounidense John Searle.

Utiliza por primera vez el término «inteligencia artificial fuerte» (de la que, según Searle, aún estamos muy lejos) en su artículo Minds, Brains and Programmes de 1980. Este no es el lugar para profundizar en el intenso debate que rodea esta cuestión, sino que nos limitaremos a informar brevemente sobre las dos definiciones.

Qué es la inteligencia artificial débil

Actúa y piensa como si tuviera un cerebro, pero no es inteligente, solo pretende serlo. Para dar respuesta a un problema, investiga casos similares, los compara, elabora una serie de soluciones y luego elige la más racional. Opta por la decisión que, a partir de los datos analizados, es más coherente simulando el comportamiento humano.

La IA débil no comprende plenamente los procesos cognitivos humanos, sino que se ocupa esencialmente de la resolución de problemas. Básicamente, da respuestas a los problemas a partir de reglas conocidas.

Qué es la inteligencia artificial fuerte

Tiene capacidades cognitivas que no se distinguen de las humanas. Esto incluye los «sistemas expertos», es decir, programas informáticos que reproducen la actuación y los conocimientos de personas expertas en un campo determinado.

En el corazón de estos sistemas se encuentra el motor inferencial, es decir, un algoritmo que, al igual que la mente humana, pasa de una proposición asumida como verdadera a una segunda proposición. Lo hace con la lógica deductiva (cuando de un principio de carácter general extrae uno o varios de carácter particular) o inductiva (cuando ocurre lo contrario), cuya verdad se deriva del contenido del primero.

El rasgo distintivo de estos sistemas es el análisis del lenguaje para comprender su significado. De hecho, sin la comprensión del significado (¿recuerdas lo que dijimos sobre la memoria semántica?) no hay verdadera inteligencia.

El impacto económico de la Inteligencia Artificial

Hace un tiempo, en el artículo ¿Cuál es el impacto económico de la inteligencia artificial hoy y en el futuro? analizamos algunas tendencias que determinaban el impacto económico de la IA en la economía mundial.

La IA en el mundo industrial

Dirigida específicamente al mundo industrial, la encuesta El presente y el futuro de la IA en el sector industrial realizada por HPE e Industry of Things World, una conferencia europea de referencia para el mundo del IoT industrial, consultó a 858 profesionales y ejecutivos de empresas industriales europeas.

La mayoría de los encuestados (61%) ya están involucrados en la IA de alguna manera. El 11% ya ha implantado la tecnología en funciones o actividades básicas. El 14% tiene previsto hacerlo en los próximos doce meses y el 36% está considerando su aplicación.

La previsión de crecimiento de los ingresos como resultado de la adopción de alguna forma de inteligencia artificial es de alrededor del 11,6% para 2030, con un aumento de los márgenes del 10,4%.

Una de las cosas más interesantes que se desprenden de esta encuesta es que estas predicciones se basan en las altas tasas de éxito de los proyectos de IA completados (un resultado que no suele darse por sentado en la adopción de tecnologías de vanguardia). El 95% de los encuestados que ya han implantado la IA en sus empresas afirman haber alcanzado, mejorado o superado significativamente sus objetivos.

Inteligencia artificial y actividad económica

El estudio del McKinsey Global Institute (MGI) titulado Modeling the Impact of AI on the World Economy (Modelando el impacto de la IA en la economía mundial) afirma que, para 2030, la IA podría suponer un aumento de la actividad económica mundial de unos 13 billones de dólares, con un crecimiento de aproximadamente el 1,2% del PIB al año. El impacto, de confirmarse esta predicción, sería similar al de la máquina de vapor en el siglo XIX, los robots en la producción industrial en la década de 1990 o la difusión de las tecnologías de la información en la década de 2000. Se trata, pues, de tecnologías que pueden calificarse de disruptivas.

El impacto de la IA no será lineal. Surgirá gradualmente y será visible a lo largo del tiempo con una aceleración creciente cuanto más nos acerquemos a 2030.

La hipótesis es la de una adopción de la IA basada en el modelo de la curva S. Con un comienzo lento debido a los importantes costes e inversiones asociados al aprendizaje y la implantación. Y una aceleración posterior impulsada por el efecto acumulativo y la mejora de las capacidades complementarias.

Una última consideración respecto a estas hipótesis de crecimiento se refiere a la forma en que las empresas y los países decidirán adoptar la inteligencia artificial. En el caso de los primeros, si la elección se orienta más hacia el uso de estas tecnologías para lograr una mayor eficiencia o más hacia el desarrollo de soluciones y productos innovadores, el impacto será diferente. Por lo tanto, el hecho de que los países adopten un enfoque abierto (sustanciado por la legislación, el apoyo económico, los incentivos, el desarrollo de cursos de formación adecuados) o una actitud cautelosa u hostil sólo afectará a los supuestos resultados económicos.

Ámbitos de aplicación y ejemplos de inteligencia artificial en la vida cotidiana y en los sectores

La inteligencia artificial ya no es una disciplina relegada a los laboratorios de investigación. Las aplicaciones en las que se implementan diferentes tecnologías de inteligencia en la vida cotidiana están muy extendidas.

Pero antes de esbozar algunas áreas, nos gustaría recordar los dos elementos que están, por un lado, posibilitando la difusión de las aplicaciones de IA en las empresas, y por otro, haciéndolas disponibles en tiempo real allí donde se necesitan.

Ejemplos de Inteligencia Artificial: El papel de la computación en nube

Lo que está haciendo posible el uso de las aplicaciones de IA a gran escala en el ámbito empresarial, para «democratizar» su acceso, haciéndolas utilizables también por las medianas y pequeñas empresas y no solo por las grandes corporaciones, es la difusión de la computación en nube.

El uso de las tecnologías y aplicaciones de IA de las nubes públicas más populares, donde tiene lugar la potente potencia de procesamiento necesaria para ejecutar las aplicaciones de IA, abre la puerta incluso a quienes no tienen grandes inversiones.

Ejemplos de Inteligencia Artificial: El papel de la computación de borde

El segundo elemento que es fundamental es la computación de borde. En las aplicaciones en las que es necesario tener una respuesta inmediata a los problemas que se pueden resolver con aplicaciones de inteligencia artificial, estas deben realizarse en el lugar donde se recogen los datos, con un procesamiento de borde. Por eso, los desarrollos tecnológicos como las ReRAM, cuyo impacto desarrollaremos más adelante.

IA y reconocimiento de imágenes

El reconocimiento de imágenes, o la visión por ordenador, es una de las áreas en las que, sobre todo en los últimos años y gracias al uso de redes neuronales, se están realizando mayores esfuerzos e inversiones por parte de empresas y organismos públicos. Basta con pensar en la evolución que se ha producido en el reconocimiento facial.

En un sistema de visión artificial, los objetos (o las personas) que hay que inspeccionar se filman con cámaras. A continuación, las imágenes se digitalizan. La imagen, hecha así «comprensible» para el sistema informático, pasa por un algoritmo que la procesa y analiza para «reconocerla» según determinados patrones. Y es precisamente en las características de este algoritmo y de los datos de los que se alimenta donde radica la diferencia entre el pasado y el futuro del tratamiento de imágenes.

Hagamos un paralelismo con la visión humana. Cuando vemos un objeto, fijo o en movimiento (imagina un niño que corre hacia ti felizmente), nuestra retina hace un reconocimiento elemental del mismo (algo que viene hacia ti). La envía al cerebro, donde el córtex visual sigue analizando la imagen (identifica a un pequeño ser humano).

Esta imagen «aproximada» se envía entonces a la corteza cerebral, que compara estos datos con todo lo que sabe. Identifica la imagen actual, la compara con otras imágenes ya clasificadas y decide qué hacer. Es un niño, su hijo, que corre hacia usted y usted se agacha para recogerlo. Todo este proceso ocurre en una fracción microscópica de segundo.

Qué hace la visión artificial

Pues bien, la visión por ordenador reproduce este mecanismo y los puntos críticos son la calidad de la digitalización de la imagen. Y el algoritmo hace el trabajo de la corteza cerebral. Mientras que los patrones se extraen de la base de datos para su comparación e identificación precisa del objeto analizado.

El papel del algoritmo en el reconocimiento de imágenes

En cuanto al algoritmo, el cambio de paso respecto a los experimentos de la segunda mitad del siglo pasado llegó con la implementación de las redes neuronales convolucionales (CNN) con los primeros experimentos alrededor de 2012.

Las redes neuronales convolucionales funcionan como todas las redes neuronales. Una capa de entrada, una o varias capas ocultas, que realizan cálculos mediante funciones de activación, y una capa de salida con el resultado.

La diferencia es precisamente las convoluciones; no entraré en los detalles de este concepto matemático, que es bastante complicado. Básicamente, en nuestro caso, es como si se aplicara un filtro (la máscara de convolución) a la imagen, que permite que cada neurona de una determinada capa de la red neuronal se conecte solo a una pequeña subsección de la capa anterior. De este modo, la neurona solo se encarga de procesar una parte determinada de una imagen. Y este es el principio de funcionamiento de las neuronas corticales individuales en el cerebro.

Por qué la base de datos es crucial para la IA

¿Por qué es crucial la base de datos con la que se «entrena» el algoritmo? La respuesta es sencilla. Cuando alimentamos al ordenador con datos parciales, poco claros o que reflejan nuestra forma de pensar, inevitablemente el resultado del procesamiento se verá afectado por estas elecciones (más o menos conscientes que son).

En la práctica, el principio básico de la informática «basura dentro, basura fuera» se aplica a la aplicación de la IA en el reconocimiento de imágenes.

El estudio del MIT de Boston de enero de 2018, en el que la investigadora Joy Buolamwini, probando el software de IBM, Microsoft y la china Face++, había comprobado que los algoritmos tienen una precisión del 99% en el caso de los hombres blancos, pero este porcentaje baja al 35% en el caso de las mujeres de piel oscura. ¿La razón? El conjunto de datos que estos algoritmos utilizaron para «aprender» se basa en un 80% de sujetos blancos y un 75% de hombres.

Realidad aumentada y virtual

Una vez más, empezamos con la definición simple.

  • La realidad aumentada representa la realidad enriqueciéndola con objetos virtuales mediante el uso de sensores y algoritmos que permiten superponer al mundo real imágenes 3D generadas por ordenador.
  • La realidad virtual, en cambio, simula completamente un entorno. En el caso de la realidad virtual inmersiva, el usuario «entra» en este entorno gracias a visores especiales, guantes equipados con sensores que sirven para moverse y dar órdenes, o trajes (también equipados con sensores) que envuelven todo el cuerpo. En la realidad virtual no inmersiva, el usuario se encontrará simplemente frente a un monitor, que actuará como una ventana en el mundo tridimensional con el que el usuario podrá interactuar a través de unos joysticks especiales.

Como veremos más adelante, el uso recreativo de estas tecnologías no es el objetivo principal. Muchas empresas las utilizan ahora en el desarrollo y las pruebas de nuevos productos (incluidas las pruebas de software) o en la venta de productos y servicios.

La inteligencia artificial en la sanidad

En este ámbito, el potencial de aplicación es enorme. Es mucho lo que se puede hacer con el análisis del big data y el historial médico de los pacientes aplicando el machine learning. Este es el caso de las mejoras en el diagnóstico, así como la posibilidad de administrar tratamientos personalizados basados en la composición genética del individuo.

También son grandes las promesas de la inteligencia artificial para la predicción y prevención de enfermedades o epidemias a gran escala. Estas van desde el seguimiento a distancia de las condiciones de salud gracias a los dispositivos vestibles (wearbles), hasta la realización de pruebas rutinarias sin intervención médica, pasando por el cálculo de la probabilidad de que un paciente padezca una enfermedad. Por no hablar del apoyo que se puede dar a los estudios genéticos y genómicos.

Algunos datos sobre la relación entre la IA y la sanidad

La aplicación de la IA a la asistencia sanitaria puede beneficiar a los hospitales, pero también al sistema sanitario de países enteros, al reducir los costes de hospitalización. Un estudio de mercado realizado por Accenture en 2018 estima que la sanidad estadounidense para 2026 podría ahorrar 150.000 millones de dólares gracias a las aplicaciones de la inteligencia artificial, tanto en áreas estrictamente médicas (desde la medicina general hasta la cirugía y la administración de fármacos) como en la seguridad informática de los hospitales.

Tractica, una empresa de investigación de mercado especializada en IA y robótica, estimó en 2017 que se espera que los ingresos mundiales de las tecnologías de análisis de imágenes médicas alcancen los 1600 millones de dólares en 2025.

Mientras que los ingresos mundiales de las aplicaciones de asistencia virtual podrían, en la misma fecha, superar los 1.200 millones de dólares.

Ejemplos de Inteligencia artificial en la automoción: coches autodirigidos

Una de las aplicaciones más conocidas de la inteligencia artificial en el mundo del automóvil son los coches autónomos. Según el gigante financiero BlackRock, en 2025 el 98% de los vehículos estarán conectados y en 2035 el 75% serán de conducción autónoma.

Los problemas éticos del uso de la IA en la conducción autónoma

La aplicación de la IA en la conducción autónoma no deja de plantear problemas éticos. Investigadores del MIT publicaron en octubre de 2018 en Nature los resultados de la encuesta del experimento The Moral Machine en la que participaron 2 millones de personas de 233 países. El estudio se creó para conocer la opinión de la gente sobre las decisiones que debería tomar un coche autoconducido en caso de emergencia.

Si el coche tiene que elegir si choca (arriesgándose a matar al conductor) para evitar atropellar a un niño, ¿qué debe hacer? ¿Y si hay una persona mayor en lugar del niño? ¿Y si tiene que elegir entre atropellar a un grupo de personas o a una sola? ¿O si hay un indigente en un lado y una señora bien vestida en el otro?

En algunas respuestas (mejor salvar a las personas que a los animales, grupos más grandes que más pequeños) la opinión fue bastante compartida. En otros, surgieron diferencias culturales. En América Latina, por ejemplo, la gente prefiere salvar a los jóvenes antes que a los ancianos. Para los asiáticos, el coche debe optar por salvar a los ancianos antes que a los jóvenes.

Ejemplos de Inteligencia Artificial: La IA en los coches, lo que está ocurriendo hoy en día

No tendremos que esperar a los coches autoconducidos para ver la IA implantada en los automóviles. Un ejemplo son las cámaras inteligentes equipadas con sistemas de reconocimiento facial, ya instaladas en camiones y vehículos comerciales. Detectan el estado del conductor controlando la fatiga, las distracciones y los estados de baja alerta. Esto no sólo ayuda a evitar accidentes, sino que también reduce los costes de los seguros de las flotas comerciales. Y algunos fabricantes de automóviles están desarrollando soluciones más baratas para implantarlas en los coches.

En cualquier caso, mientras algunas empresas (por el momento un número limitado) trabajan intensamente en coches totalmente autoconducidos, un número creciente de fabricantes está desarrollando servicios de IA para apoyar al conductor. Sistemas para evitar colisiones, alertas para peatones o ciclistas, etc.

Ejemplos de Inteligencia Artificial: La inteligencia artificial en las finanzas y la bolsa

Tomemos dos ejemplos. Los datos sobre los hábitos de reembolso individuales, el número de préstamos activos en un momento dado, el número de tarjetas de crédito a su nombre y otros datos pueden utilizarse para personalizar el tipo de interés de una tarjeta o una hipoteca. A partir de las respuestas, el sistema de aprendizaje automático que apoya estos servicios puede seguir mejorando ofreciendo otros nuevos. El mismo mecanismo puede ser extremadamente eficaz en la detección y gestión del fraude, donde el sistema, aprendiendo de sus errores, puede ser cada vez más eficaz.

Las ventajas de la IA para los clientes de servicios financieros

¿Está la IA redefiniendo el tipo de servicios financieros que se ofrecen y cómo se prestan? ¿Con qué impacto en las instituciones financieras y qué beneficios para los clientes? Estas son las preguntas a las que intentaba dar respuesta el estudio realizado hace algún tiempo por el Foro Económico Mundial en colaboración con Deloitte, The New Physics of Financial Services – Understanding how artificial intelligence is transforming the financial ecosystem.

El estudio concluye que hay muchos servicios financieros específicos que pueden obtener importantes beneficios de la adopción de tecnologías de inteligencia artificial. Como se ve en la figura 5, estos servicios se han agrupado en 6 áreas. Depósitos y préstamos, Seguros, Pagos, Gestión de inversiones, Mercados de capitales (todas las actividades relacionadas con la gestión de instrumentos financieros emitidos por los clientes del banco, como bonos, acciones y derivados) e Infraestructura de mercado (servicio de intermediación, por ejemplo, gestión de derivados).

A continuación, cada servicio se sitúa en una escala de madurez que va desde el uso de la IA para «hacer las cosas mejor» (A) hasta su uso para «hacer las cosas de forma radicalmente diferente» (B).

IA

He aquí algunas ideas de la investigación.

Convertir las inversiones en IA en centros de beneficios directos

Los procesos de back-office habilitados por la IA pueden mejorarse más rápidamente si se ofrecen como servicio a otras empresas (incluso a la competencia). La figura 6, que pone de manifiesto las diferencias entre un modelo tradicional de implantación de la IA y un modelo de back-office como servicio, muestra cómo esta segunda opción, que permite la mejora continua de los servicios a partir de lo que se aprende al realizarlos en las instalaciones del cliente, induce beneficios económicos directos para el proveedor de servicios.

IA-Traditional model-Back-office model

La IA es un nuevo campo de batalla en el que se juega la fidelidad de los clientes

La IA permite nuevas formas de diferenciar la oferta a los clientes, basadas en servicios altamente personalizados. Pueden ofrecerse en tiempo real a medida que surge una oportunidad de mercado o una necesidad del cliente.

Servicios financieros gestionados para automóviles

Gracias a la IA, la experiencia del cliente puede cambiar radicalmente con la interacción directa entre el cliente y los «agentes» de IA de diferentes proveedores de servicios financieros (o de diferentes servicios del mismo proveedor).

El propio cliente puede autogestionarse, con total independencia del asesoramiento financiero tradicional. En la lógica del círculo virtuoso, además, los algoritmos de IA aprenden nuevas lecciones para mejorar.

Soluciones colectivas para problemas comunes

Las herramientas de colaboración basadas en la IA que se basan en conjuntos de datos compartidos pueden hacer que el sistema financiero en su conjunto sea más seguro y eficiente. Figura 7.

Figura-7

Polarización de la estructura del mercado de servicios financieros

La difusión de la IA conducirá a la desaparición gradual de las empresas medianas. Por un lado, habrá un movimiento hacia una concentración cada vez mayor. Un proceso que ya está en marcha desde hace tiempo en este mercado debido a otros factores para los que nos remitimos al artículo de Finanzas, los factores externos e internos que están transformando el sector. El otro polo está formado por una proliferación de empresas muy pequeñas y muy ágiles que son capaces de ofrecer productos de nicho.

Los datos se convierten en el punto de apoyo en torno al cual se construyen las alianzas. Como hemos visto en los puntos anteriores, de hecho, cuantos más datos, mejor funcionan las soluciones. Esta lógica conducirá inevitablemente hacia la periferia del mercado financiero aquellas realidades que no encuentren su lugar dentro de un ecosistema.

Ejemplos de Inteligencia artificial para abogados y despachos profesionales

Los despachos profesionales, desde los abogados hasta los contables o los notarios, se consideran un sector que se verá cada vez más afectado por la inteligencia artificial. Y esto no solo para automatizar tareas rutinarias, sino también para actividades de mediana complejidad. Sustituirán a la mano de obra humana que, en el mejor de los casos, será reciclada para actividades de mayor valor. Pero, en el peor de los casos, será expulsado del sector hasta el punto de que desaparezcan algunas figuras profesionales presentes en la actualidad.

Resumamos brevemente algunas de las actividades que podrían beneficiarse de la adopción de tecnologías de IA.

Revisión de documentos e investigación jurídica

El software de IA puede mejorar la eficacia del análisis de documentos para uso legal. Pueden clasificarlos como relevantes para un caso concreto o requerir la intervención humana para una mayor investigación.

Apoyo de la IA a la diligencia debida

Realización de búsquedas de información en nombre de sus clientes con la «debida diligencia». Esta es una de las actividades más difíciles de las empresas de asistencia jurídica. Es un trabajo que requiere la confirmación de hechos y cifras y una evaluación exhaustiva de las decisiones de casos anteriores. Las herramientas de inteligencia artificial pueden ayudar a estos profesionales a llevar a cabo su diligencia debida de forma más eficiente.

IA para la revisión y gestión de contratos

Los abogados laboralistas llevan a cabo actividades muy exigentes para revisar los contratos de trabajo con el fin de identificar posibles riesgos para sus clientes. Los contratos se revisan, se analizan punto por punto para asesorar sobre su firma o posible renegociación. Con la ayuda de un software de aprendizaje automático, es posible redactar el «mejor» contrato posible.

La IA ayudará a predecir el resultado de los procesos judiciales

Gracias a las herramientas de inteligencia artificial, los abogados pueden ayudarse a hacer predicciones sobre el resultado de los procedimientos judiciales. Y así ayudar a los clientes a decidir si, por ejemplo, seguir un caso concreto.

Proporcionar información básica a los clientes o potenciales clientes

Las grandes empresas de asistencia jurídica tienen que dedicar asistentes a la actividad preliminar para todas aquellas personas que creen que podrían necesitar un abogado, pero no están seguras.

El uso de chatbots basados en tecnologías de procesamiento del lenguaje natural (más o menos avanzados, es decir, solo de texto o integrados con sistemas de voz) puede servir de apoyo a las empresas en la primera fase de respuesta a estas consultas y para dirigir al cliente potencial al profesional más competente para su caso.

Ejemplos de Inteligencia Artificial en casos judiciales

El banco de inversión JP Morgan experimentó hace tiempo con el software COntract INtelligence (COIN). Debe ser capaz de leer e interpretar acuerdos comerciales y contratos de préstamo en cuestión de segundos.

Este trabajo implica procedimientos que consumen más de 360.000 horas-hombre al año de los abogados del Banco. Hasta la fecha, no está claro si el software ya se ha puesto en producción. Sin duda representa un importante indicador de lo que puede esperar a los profesionales del sector.

Y también hay varios ejemplos para las empresas de contabilidad. H&R Block, una empresa estadounidense de impuestos y consultoría, se ha asociado con IBM para utilizar el sistema cognitivo Watson para automatizar las tareas de declaración de impuestos.

Mediante el análisis de las posibles normativas y concesiones, sus clientes pueden presentar la declaración más eficiente desde el punto de vista fiscal.

Ejemplos de Inteligencia Artificial y el empleo

El tema del impacto de las nuevas tecnologías y, en particular, de la inteligencia artificial y la automatización en el empleo está dando lugar a acalorados debates.

Por un lado, hay quienes prevén un futuro catastrófico con la pérdida de miles de puestos de trabajo. Por otro lado los que le restan importancia a esto. Hay quienes recuerdan que todas las revoluciones han llevado a la desaparición de algunos puestos de trabajo. Pero han creado otros.

El Observatorio de la Inteligencia Artificial del Politécnico de Milán, al tratar de entender qué impacto tendrán estas tecnologías en el empleo, partió de una perspectiva original. Tras analizar las dinámicas sociodemográficas de nuestro país, con una visión de 15 años, las pone primero en relación con la oferta y la demanda de trabajo. A continuación, analizó el impacto de la IA en un escenario global, y luego comprobó su impacto en el sistema de bienestar.

En 2033 habrá un déficit de empleo de aproximadamente un millón de personas en Italia

Para profundizar en el artículo El trabajo y la IA: «Más que una amenaza o una oportunidad, la inteligencia artificial es una necesidad» . Y a la entrevista en vídeo con el director del Observatorio, Giovanni Miragliotta.

Aquí nos limitamos a ofrecer la cifra final que se desprende de la encuesta. Debido a varios factores, que se explican en el artículo, en 2033 habrá un déficit de unos 4,7 millones de puestos de trabajo equivalentes en Italia. Al mismo tiempo, se calcula que las nuevas tecnologías sustituirán 3,6 millones de puestos de trabajo.

Así, según la Politécnica, acabaremos con un déficit de unos 1,1 millones de empleos. Un déficit que se puede compensar reduciendo la tasa de desempleo. Esto exige la reconversión y la formación de la mano de obra desempleada. Un análisis, por tanto, que echa por tierra las catastróficas predicciones de un impacto exclusivamente negativo de la IV sobre el empleo.

Es evidente la necesidad de trabajar ante todo en la formación de nuevas competencias.

Las tecnologías que permiten y apoyan la inteligencia artificial

De la computación cuántica a los chips neuromórficos, pasando por las ReRAM

La investigación para desarrollar tecnologías de hardware que puedan apoyar los desarrollos de software en inteligencia artificial es intensa. Aquí informamos sobre las tecnologías que pueden hacer realidad la promesa de esta disciplina.

GPU de propósito general

Nacidas en el mundo de los videojuegos para procesar la información gráfica de las computadoras, las GPU (Unidades de Procesamiento Gráfico) han ido aumentando su rendimiento. Especialmente desde la introducción de los gráficos 3D en los videojuegos.

Sin embargo, por una vez se invierte la historia habitual de la informática. A diferencia de las situaciones en las que el software «devorador» de capacidad de cálculo tiene que «luchar» con un hardware que nunca está del todo a la altura, el potencial de cálculo de las GPU seguía sin aprovecharse. Por eso, en 2007, Nvidia (uno de los mayores fabricantes de aceleradores gráficos) presentó las GPU de propósito general.

Una breve digresión para entender cómo funcionan las CPUs y las GPUs. En las CPU, las instrucciones se ejecutan de forma secuencial en serie y todos los núcleos (los de procesamiento) del procesador se ocupan de la misma instrucción hasta que ésta termina.

En cambio, la lógica con la que trabaja una GPU es paralela. Se ejecutan varias instrucciones simultáneamente. Para ello, en lugar de unos pocos núcleos optimizados para el cálculo en serie, se estructura con miles de unidades de procesamiento, menos potentes que las CPU, pero optimizadas para trabajar en paralelo.

Las GPGPU (GPU de propósito general) pueden, por tanto, ejecutar diferentes porciones de código o programas en paralelo, encontrando aplicación en el ámbito científico. Por ejemplo, cuando se pueden desglosar y analizar diferentes problemas en paralelo. Agilizan enormemente, por ejemplo, las operaciones en las que se requiere el tratamiento y el procesamiento de imágenes. (Figura 4)

Figura-4

Unidades de procesamiento tensorial: aceleradores de IA

Las Unidades de Procesamiento Tensorial (TPU) son ASICs (Circuitos Integrados de Aplicación Específica) diseñados y construidos por Google expresamente para operaciones caracterizadas por una alta carga de trabajo, es decir, típicamente operaciones de aprendizaje automático. Estos circuitos están destinados a reducir el tiempo dedicado a la fase inferencial del aprendizaje automático, o la fase que compara los datos individuales con el modelo creado en la fase de aprendizaje y que constituye la fase con mayor carga de trabajo), por lo que se denominan aceleradores de IA.

El desarrollo de estos chips comenzó en 2008 y durante el Google I/O 2018, la conferencia anual dedicada a los desarrolladores web, la compañía de Mountain View presentó la versión 3.0 de las TPUs que, según dijo el CEO de Google, Sundar Pichai, tiene 8 veces más rendimiento que la v. 2.0, llegando hasta 100 Petaflops para operaciones de machine learning. Una potencia que, por primera vez, requirió la inclusión de un sistema de refrigeración líquida en el circuito dado el elevado calor producido.

ReRAM – Memoria de acceso aleatorio resistiva

Las memorias resistivas de acceso aleatorio son capaces de almacenar 1 terabyte (1.000 gigabytes) de datos en chips del tamaño de un sello de correos. Son no volátiles (capaces de conservar la información almacenada incluso en ausencia de alimentación). No necesitan ser «arrancados» y consumen muy poca energía. Son un gran elemento tecnológico para las aplicaciones de inteligencia artificial porque son un componente ideal para construir redes neuronales.

Las memorias resistivas se basan en el llamado memristor (palabra formada por la fusión de los términos memoria y resistencia), descrito como el cuarto elemento fundamental de un circuito eléctrico (después del condensador, el inductor y la resistencia).

Su existencia hasta ahora era sólo teórica (apareció por primera vez en un artículo de Leon Chua, de la Universidad de Berkeley, en 1971).

En 2007, se produjo una versión experimental de un dispositivo con características similares a las de los memristores en los laboratorios HP. Desde entonces, los principales fabricantes de microprocesadores y memorias han estado trabajando en esta dirección, y desde hace algún tiempo varias empresas han anunciado su producción (Fujitsu Semiconductor, Western Digital, 4DS Memory, Weebit Nano, Crossbar, Intel y otras).

Una propiedad fundamental del memristor es que «recuerda» el estado electrónico independientemente de la existencia de una tensión eléctrica constante (por eso no necesita «reiniciarse» cuando se enciende la máquina que lo integra) y lo representa con estados analógicos.

Las ventajas de las ReRAM

¿Un ejemplo de ventaja? No es necesario cargar el sistema operativo cada vez que se enciende el dispositivo. La máquina estaría inmediatamente «despierta» en cuanto se encendiera. Las ReRAM tienen una estructura física sencilla y compacta y sus características las hacen ideales para dispositivos como los smartphones o las tabletas y, en general, en los dispositivos IoT ya que, además de ser 20 veces más rápidas que las memorias actuales utilizadas en los dispositivos móviles de última generación, también consumirían 20 veces menos. Hay que decir que la investigación en este campo es una de las más activas.

En enero de 2017, por ejemplo, la Universidad Tecnológica de Nanyang de Singapur, junto con la Universidad RWTH de Aquisgrán y el Centro de Investigación Forschungszentrum Juelich de Alemania, anunciaron el desarrollo de un prototipo que, aprovechando el potencial de los chips ReRAM, es capaz de realizar tanto funciones de procesador como de RAM.

La peculiaridad de este chip, además de ser aún más rápido y consumir menos energía que la última generación de microprocesadores, es sin embargo otra. El memristor almacena y procesa la información en modo analógico y no digital.

El prototipo euroasiático adopta lo que se conoce como cómputo ternario, en el que los habituales 0 y 1 del sistema binario se unen por 2. Combina las ventajas del sistema binario con las de un sistema que, al añadir una dimensión, se acerca al sistema analógico.

Computación cuántica

La definición del diccionario (Treccani) de ordenador cuántico es la siguiente: «Máquina que procesa información y realiza operaciones lógicas según las leyes de la mecánica cuántica. Es decir, funciona según la lógica cuántica, que es profundamente diferente de la lógica clásica en la que se basan las computadoras actuales. La unidad de información cuántica es el qubit».

Digamos que, para quienes no están familiarizados con los principios básicos de la física moderna, esta definición no tiene mucho sentido, por lo que vamos a esbozar, en viñetas, los pasos fundamentales que condujeron a esta tecnología.

La introducción del concepto de «cuánto

A finales del siglo XIX, la mecánica clásica parecía incapaz de describir el comportamiento de la materia o la radiación electromagnética a nivel microscópico (escalas de magnitud inferior o igual a la de un átomo).

A principios del siglo XX, el físico alemán Max Planck introdujo el concepto de «quantum». Algunas cantidades o magnitudes de ciertos sistemas físicos (como la energía) a nivel microscópico sólo pueden variar en valores discretos, llamados cuantos, y no de forma continua. El quantum (derivado del latín quantum, cantidad) es, pues, la cantidad elemental discreta e indivisible de una determinada cantidad.

La mecánica cuántica

Los estudios realizados en años posteriores condujeron al concepto de mecánica cuántica, que se basa en cinco postulados. No entraremos aquí en detalles porque nos desviaría de nuestro camino. Pero los fenómenos que resultarán especialmente importantes para el desarrollo de la tecnología de la que hablamos son los de la superposición de efectos y la correlación cuántica (llamada entrelazamiento). Según ellos, en determinadas condiciones el estado cuántico de un sistema físico no puede describirse individualmente, sino sólo como una superposición de varios sistemas (o capas).

Junto con la relatividad, la mecánica cuántica representa un punto de inflexión en la física clásica y abre la puerta a la física moderna.

Informática y mecánica cuántica

Durante décadas, el aumento de la potencia de las computadoras se ha regido por la llamada Ley de Moore (la densidad de transistores en un microchip y su velocidad de cálculo se duplican cada 18 meses). La miniaturización de los componentes tiene límites objetivos (más allá de los cuales no se puede reducir el tamaño de los componentes).

A principios de los años ochenta, gracias a la elaboración de varios científicos, se teorizó un posible uso de la teoría cuántica en la informática. En lugar de los bits convencionales (que definen una dimensión con dos estados: abierto/cerrado), se utiliza el qubit (o qbit) como unidad de medida: la porción más pequeña en la que se puede descomponer cualquier información codificada que, por su naturaleza, es continua.

Es un concepto que no es fácil de entender, pero en Wikipedia hay una metáfora que puede ayudar a comprender la naturaleza «continua» del qbit: «Mientras que el bit clásico puede imaginarse como una moneda que, una vez lanzada, caerá al suelo inexorablemente mostrando una de sus dos caras, el qbit puede imaginarse como una moneda que, una vez lanzada, caerá al suelo continuando la rotación sobre sí misma sin detenerse hasta que alguien bloquee su rotación, obligándola a mostrar una de sus caras».

El otro fenómeno de la mecánica cuántica es el entrelazamiento. Según esto, cuando dos qbits se combinan, pierden su naturaleza individual para asumir una naturaleza de par único. Así, el estado de un qbit influye en el del otro y viceversa, dando lugar a una combinación matemática exponencial.

Algunas computadoras cuánticas

Saltemos ahora a años más recientes. en mayo de 2011, la empresa canadiense D-Wave Systems anunció el ordenador cuántico D-Wave One (que, sin embargo, suscitó dudas en parte de la comunidad científica sobre el uso real de los qbits en sus procesadores). En 2013 se anunció una colaboración con la NASA y Google para desarrollar ordenadores cuánticos para el aprendizaje automático.

En 2016, IBM anunció la disponibilidad de un procesador cuántico de 5 qubits para sus clientes a través del servicio en la nube IBM Quantum Experience. Se encuentra en el Centro de Investigación Watson de IBM en Nueva York, mientras se trabaja en un procesador de 50 qubits en sus laboratorios.

Intel anuncia la entrega de su primer chip cuántico con 17 qbits a su socio holandés QuTech, 2017.

En marzo de 2018, Google Quantum AI Lab anunció la creación de Bristlecone, un procesador cuántico con 72 qbits.

Chips neuromórficos

Son chips capaces de simular el funcionamiento del cerebro humano y, por tanto, como hemos visto con las redes neuronales, se basan en una lógica de funcionamiento analógica. Se activan de forma diferente en función del gradiente de señal que se intercambia entre dos o más unidades.

Los procesadores de este tipo resultarían cruciales para el desarrollo de redes neuronales artificiales, y en los últimos años la investigación se ha centrado en gran medida, con resultados dispares, en este tipo de chips. Informamos sobre un anuncio realizado en enero de 2018 por investigadores del MIT de Boston. Hasta ahora, en los chips «neuromórficos», la sinapsis (la conexión) consistía en dos capas conductoras separadas por un material amorfo en el que las partículas cargadas eléctricamente utilizadas como mensajeras eran libres de moverse sin control. De este modo, el rendimiento de la sinapsis podría variar de vez en cuando, sin garantizar la uniformidad.

Los investigadores del MIT han aprovechado el silicio monocristalino en lugar del material amorfo. Dentro de este material, formado por una red cristalina continua, se creó un «embudo» que permite el paso de los iones de manera uniforme y controlable. Las sinapsis artificiales así creadas fueron capaces de superar una prueba de aprendizaje para reconocer diferentes tipos de escritura con una precisión del 95%.

Ejemplos de Inteligencia artificial en 2020: lo que pasó con la pandemia

En 2020, el mercado de soluciones de inteligencia artificial se situó en 300 millones de euros, un 15 % más que en 2019.

La crisis sanitaria no ha frenado la innovación y el crecimiento del mercado de la Inteligencia Artificial», afirmó Alessandro Piva, Director del Observatorio de Inteligencia Artificial. Pero ciertamente ha centrado su atención en determinados tipos de proyectos, acelerando, por ejemplo, las iniciativas de Forecasting (estimación de la demanda), Detección de Anomalías (detección de fraude online), Detección de Objetos (como el reconocimiento de DPI en imágenes) y aún más Chatbots y Asistentes Virtuales, impulsados por el cambio online de la relación con el cliente. También ha aumentado la madurez de las empresas, con un fuerte crecimiento de los proyectos plenamente operativos».

Lo que estamos viviendo, desde los años 80, es un periodo de gran efervescencia en el tema de la inteligencia artificial. Podemos compararlo con el de un ser humano en la flor de la juventud, lleno de energía y ganas de experimentar. Un ser humano que también tiene la capacidad adecuada para analizar lo que ha aprendido, evaluar su potencial y sus posibles desarrollos. Y ahí termina nuestra metáfora porque, el siguiente paso, el de la madurez, aún está en el horizonte.

Ejemplos de Inteligencia Artificial en 2022: tendencias 

En 2021, el mercado de la inteligencia artificial tenía un valor de 380 millones de euros, según el Observatorio de Inteligencia Artificial 2022. Esta cifra representa un 27% más que el año anterior. Un tercio de estos ingresos corresponde a proyectos de procesamiento inteligente de datos. Pero también están ganando terreno las soluciones de procesamiento del lenguaje natural (NLP) y los algoritmos para ofrecer a los clientes productos/contenidos que respeten sus preferencias.

De cara al futuro, en 2022 se producirá probablemente el salto cualitativo de la inteligencia artificial. La IA, que ya no es una tecnología pionera, no solo impregnará las soluciones y los productos, sino que también dará un paso más en su evolución y verá cómo se consolidan los procesos para su aplicación.

La IA aparece en las principales tendencias tecnológicas estratégicas de Gartner

La inteligencia de decisiones, la IA generativa y la ingeniería de IA son 3 de las 12 principales tendencias tecnológicas estratégicas identificadas por Gartner para 2022.

Los primeros representan dos evoluciones de las tecnologías de IA:

  • Por inteligencia de decisión se entiende la capacidad de modelar las decisiones de forma repetible para hacerlas más eficientes, acelerando la velocidad de evaluación; según la firma de análisis, esto será posible mediante una combinación de tecnologías de integración de datos, analítica y, sobre todo, automatización basada en la inteligencia artificial;
  • La IA generativa se refiere a las soluciones que pueden utilizar contenidos existentes, como texto, archivos de audio o imágenes, para crear nuevos contenidos plausibles; una tendencia que el MIT considera una de las más prometedoras de la IA.

Por último, la ingeniería de IA, que es crucial para que la eficacia de las soluciones de IA perdure en el tiempo: el error que cometen muchas empresas que han adoptado modelos de IA es esperar que el valor se acumule para siempre, pero no es así. La IA debe diseñarse de manera que las actualizaciones de los modelos de IA sean operativas, combinando conductos de actualización automatizados con una sólida gobernanza de la IA.

Algunos libros sobre inteligencia artificial

Al ser el tema del momento, hay muchos libros sobre inteligencia artificial. Hemos hecho una pequeña selección de ellos, que iremos enriqueciendo sobre la marcha.

Vida 3.0

Vita 3.0

Sueco de nacimiento y estadounidense de adopción, Max Tegmark es uno de los físicos teóricos vivos más conocidos y discutidos. Es uno de los fundadores del Instituto del Futuro de la Vida y uno de los organizadores de la reunión internacional de Asilomar, en la que se elaboró un documento compartido de 23 puntos, Los Principios de Asilomar para la Inteligencia Artificial, en el que se proponen directrices para el desarrollo de una inteligencia artificial beneficiosa, desde los problemas de investigación hasta los problemas a largo plazo, pasando por los aspectos éticos y los valores sociales.

El libro intenta responder a algunas cuestiones de actualidad. ¿Cómo afectará la inteligencia artificial a la delincuencia, la justicia, el empleo, la sociedad y el propio significado del ser humano? ¿Cómo podemos aumentar nuestra prosperidad a través de la automatización sin que las personas pierdan sus ingresos o su objetivo? ¿Qué consejos debemos dar a los niños de hoy?

¿Debemos temer una carrera armamentística con armas autónomas letales? ¿Acabarán las máquinas sustituyendo a los humanos en el mercado laboral? ¿Ayudará la inteligencia artificial a que la vida florezca como nunca antes? ¿O nos dará más poder del que podemos manejar?

Las máquinas conocedoras

Las máquinas conocedoras

El padre Paolo Benanti, fraile franciscano y profesor de teología moral y ética de la tecnología, así como miembro del Grupo de Expertos de Alto Nivel creado en el Ministerio de Desarrollo Económico italiano, reflexiona sobre los retos éticos y sociales que conlleva la innovación. El autor, conocido internacionalmente en el campo de la bioética y el debate sobre la relación entre teología, bioingeniería y neurociencia, ve con buenos ojos la difusión de las «máquinas conocedoras».

Razona que los procesos innovadores solo tienen un valor positivo si se orientan hacia un progreso auténticamente humano. Un progreso que se traduce en un sincero compromiso moral de individuos e instituciones en la búsqueda del bien común.

Inteligencia Artificial. Una guía para el futuro próximo

Inteligencia Artificial. Una guía para el futuro próximo

Experto en inteligencia artificial, empresario e innovador, Jerry Kaplan fue cofundador de cuatro empresas de Silicon Valley. Autor de bestsellers, es miembro del Center for Legal Informatics y profesor de informática en la Universidad de Stanford. En este libro, el autor nos hace un recorrido por los numerosos aspectos tecnológicos, económicos y sociales de la inteligencia artificial. Desglosa los conceptos de robots, aprendizaje automático y trabajo automatizado, esbozando increíbles escenarios de nuestro futuro próximo.

La guerra de las inteligencias

La guerra de las inteligencias

Caso editorial en Francia, el científico Laurent Alexandre se centra en un aspecto fundamental. En un escenario en el que las IAs más transversales asociadas a los robots polivalentes cambiarán profundamente el mercado laboral y la posibilidad de potenciar las facultades cognitivas humanas a través de diferentes sistemas podría convertir la medición del coeficiente intelectual en una peligrosa herramienta de discriminación económica y social, será crucial educar a nuestros hijos para que crezcan y evolucionen junto a la IA, para que encuentren su propio espacio, sus propios roles. Pero la escuela, fundamental para «cultivar» nuestros cerebros biológicos y evitar su derrota definitiva, es hoy la más desprevenida de las instituciones.

Por de Patrizia Fabbri

@RESERVADOS TODOS LOS DERECHOS

Nota 1 de 5