Análisis en profundidad

Inteligencia Artificial, qué es, cómo funciona, aplicaciones

Se habla mucho, quizás demasiado, sobre el candente tema de la Inteligencia Artificial (IA), con la paradoja de que mucha gente aún no entiende su significado e importancia. Intentemos entender de qué se trata y por qué todo el mundo habla de ello, esbozando un panorama de las tecnologías actuales en uso y las áreas de mayor interés de la Inteligencia Artificial para las empresas

13 Sep 2022

Redacción Innovación Digital 360

inteligencia artificial

¿Qué es la inteligencia artificial? De forma simplista podríamos definirla como la capacidad de un sistema tecnológico para resolver problemas o realizar tareas y actividades propias de la mente y la capacidad humanas. Si nos fijamos en el sector de la informática, podríamos identificar a la IA como la disciplina que se ocupa de la realización de máquinas (hardware y software) capaces de “actuar” de forma autónoma (resolver problemas, realizar acciones, etc.).

Qué es la Inteligencia Artificial (IA): una definición

La efervescencia actual en torno a esta disciplina se explica por la madurez tecnológica alcanzada tanto en la computación (hoy en día existen sistemas de hardware muy potentes, de pequeño tamaño y con bajo consumo energético), como en la capacidad de analizar en tiempo real y en poco tiempo enormes cantidades de datos y de cualquier formato (Analytics).

El interés de la comunidad científica por la Inteligencia Artificial, sin embargo, comenzó muy lejos: el primer proyecto real de IA se remonta a 1943, cuando los investigadores Warren McCulloch y Walter Pitt propusieron al mundo científico la primera neurona artificial, a la que siguió, en 1949, el libro de Donald Olding Hebb, psicólogo canadiense, gracias al cual se analizaron en detalle las conexiones entre las neuronas artificiales y los complejos modelos del cerebro humano. Los primeros prototipos funcionales de redes neuronales (es decir, modelos matemáticos/informáticos desarrollados para reproducir el funcionamiento de las neuronas biológicas con el fin de resolver problemas de inteligencia artificial entendida, en aquellos años, como la capacidad de una máquina para realizar funciones y hacer razonamientos como una mente humana) llegaron entonces hacia finales de los años 50 y el interés del público se hizo mayor gracias al joven Alan Turing, que ya en 1950 intentó explicar cómo un ordenador puede comportarse como un ser humano.

El término Inteligencia Artificial parte “oficialmente” del matemático estadounidense John McCarthy (en 1956) y con él el “lanzamiento” de los primeros lenguajes de programación (Lisp en 1958 y Prolog en 1973) específicos para la IA. Desde entonces, la historia de la Inteligencia Artificial ha sido bastante fluctuante y se ha caracterizado por avances significativos en cuanto a los modelos matemáticos (cada vez más sofisticados y diseñados para “imitar” algunas funciones cerebrales como el reconocimiento de patrones) pero con altibajos en cuanto a la investigación en hardware y redes neuronales. El primer gran avance en este último frente se produjo en los años 90 con la entrada en el mercado “ampliado” (es decir, al gran público) de los procesadores gráficos, las Gpu – graphics processing unit (chips de procesamiento de datos mucho más rápidos que la Cpu, procedentes del mundo del juego y capaces de soportar procesos complejos mucho más rápido, funcionando a frecuencias más bajas y consumiendo menos energía que la “vieja” Cpu).

La ola más reciente ha llegado en la última década con el desarrollo de los llamados “chips neuromórficos”, es decir, microchips que integran el procesamiento y el almacenamiento de datos en un solo microcomponente, gracias a la aceleración que ha tenido la investigación en el campo de la nanotecnología, para emular las funciones sensoriales y cognitivas del cerebro humano, un área en la que también se están centrando muchas startups.

La historia de la inteligencia artificial: desde las redes neuronales de los años 50 hasta hoy

Mirando un poco la historia, es a finales de los años 50 que se remonta el primer modelo de red neuronal: fue el llamado “perceptrón”, propuesto en 1958 por Frank Rosenblatt, célebre psicólogo e informático estadounidense, una red con una capa de entrada y otra de salida y una regla de aprendizaje intermedio basada en el algoritmo “error back-propagation” (minimización de los errores); la función matemática, en esencia, en base a la evaluación en los datos de salida efectiva -respecto a una entrada dada- altera los pesos de las conexiones (sinapsis) provocando una diferencia entre la salida efectiva y la deseada. Algunos expertos del sector remontan el nacimiento de la cibernética y la Inteligencia Artificial al perceptrón de Rosenblatt, aunque en los años inmediatamente posteriores los matemáticos Marvin Minsky y Seymour Papert demostraron los límites del modelo de red neuronal de Rosenblatt: el perceptrón era capaz de reconocer, tras un “entrenamiento” adecuado, sólo funciones linealmente separables. Es decir, a través del conjunto de entrenamiento -el algoritmo de aprendizaje- en el espacio vectorial de las entradas, consigue separar las que requieren una salida positiva de las que requieren una salida negativa. Además, las capacidades computacionales de un solo perceptrón eran limitadas y los rendimientos dependían mucho tanto de la elección de las entradas como de la elección de los algoritmos a través de los cuales “modificar” las sinapsis y, por tanto, las salidas. Minsky y Papert se dieron cuenta de que la construcción de una red con más niveles de perceptrones podía resolver problemas más complejos, pero en aquellos años la creciente complejidad computacional que requería el entrenamiento de las redes a través de los algoritmos no había encontrado aún una respuesta a nivel de infraestructura, ya que (no había sistemas de hardware capaces de “soportar” tales operaciones.

El primer punto de inflexión importante desde el punto de vista tecnológico se produjo entre finales de los 70 y la década de los 80 con el desarrollo de las Gpu’s que redujeron considerablemente los tiempos de entrenamiento de las redes, disminuyéndolos en 10/20 veces.

Índice de temas

Inteligencia artificial: ¿cómo definirla?

En su sentido puramente informático, la Inteligencia Artificial podría clasificarse como la disciplina que engloba las teorías y las técnicas prácticas para el desarrollo de algoritmos que permiten a las máquinas (especialmente a los “ordenadores”) mostrar una actividad inteligente, al menos en dominios y áreas de aplicación específicos.

Ya desde este primer intento de definición es evidente que sería necesario recurrir a una clasificación formal de las funciones sintéticas/abstractas de razonamiento, meta-razonamiento y aprendizaje del hombre para poder construir sobre ellas modelos computacionales capaces de concretar tales formas de razonamiento y aprendizaje, una tarea ardua dado que todavía hoy no se conoce del todo el funcionamiento real del cerebro humano.

Además, cuando hablamos de capacidad de razonamiento y aprendizaje automático a partir de la observación, nos encontramos a menudo con la Computación Cognitiva, que debe entenderse como el conjunto de plataformas tecnológicas basadas en las disciplinas científicas de la Inteligencia Artificial (incluyendo el Machine Learning y el Deep Learning) y el Procesamiento de Señales (la capacidad de procesar señales).

Cómo clasificar la Inteligencia Artificial hoy en día

Ya desde este rapidísimo recorrido histórico, se puede entender que dar una definición exacta de la Inteligencia Artificial es una tarea ardua pero, analizando sus evoluciones, podemos trazar sus contornos y, por tanto, hacer algunas clasificaciones importantes.

Inteligencia artificial débil y fuerte: qué son y en qué se diferencian

Tomando como punto de partida el funcionamiento del cerebro humano (aunque sabemos que su mecanismo exacto aún no se conoce del todo), una Inteligencia Artificial debería ser capaz de realizar ciertas acciones/funciones típicas del hombre:

  • Actuar humanamente (es decir, indistintamente con respecto a un ser humano);
  • Pensar humanamente (resolver un problema con funciones cognitivas);
  • Pensar racionalmente (es decir, utilizar la lógica como lo hace un ser humano);
  • Actuar racionalmente (iniciar un proceso para obtener el mejor resultado esperado a partir de la información disponible, que es lo que el ser humano, muchas veces inconscientemente, hace por costumbre).

Estas consideraciones son de absoluta importancia porque permiten clasificar la IA en dos grandes “vertientes” de investigación/desarrollo en las que la comunidad científica también se ha puesto de acuerdo, la de la IA débil y la de la IA fuerte:

A) Inteligencia artificial débil (IA débil)

Identifica sistemas tecnológicos capaces de simular algunas funcionalidades cognitivas del hombre sin llegar, sin embargo, a las capacidades intelectuales reales propias del hombre. Se trata de programas matemáticos de resolución de problemas con los que se desarrollan funcionalidades para la resolución de problemas o para que las máquinas puedan tomar decisiones

B) Inteligencia artificial fuerte (IA fuerte)

En este caso hablamos de sistemas sapientes (algunos científicos llegan a decir “autoconscientes”) que pueden, por tanto, desarrollar su propia inteligencia sin emular procesos de pensamiento o capacidades cognitivas similares a las del hombre, sino desarrollando las suyas propias de forma autónoma.

Machine Learning y Deep Learning, algo de claridad

La clasificación IA débil e IA fuerte subyace en la distinción entre Machine Learning y Deep Learning, dos áreas de estudio que se engloban en la disciplina más amplia de la Inteligencia Artificial y que merecen algunas aclaraciones, ya que en los próximos años oiremos hablar cada vez más de ellas.

Modelos de aprendizaje

Tras las oportunas aclaraciones, podemos llegar a definir la Inteligencia Artificial como la capacidad de las máquinas para realizar tareas y acciones propias de la inteligencia humana (planificación, comprensión del lenguaje, reconocimiento de imágenes y sonidos, resolución de problemas, reconocimiento de patrones, etc.), distinguiendo en IA débil e IA fuerte. Lo que caracteriza a la Inteligencia Artificial desde un punto de vista tecnológico y metodológico es el método/modelo de aprendizaje por el que la inteligencia se vuelve competente en una tarea o acción. Estos modelos de aprendizaje son los que distinguen el Machine Learning y el Deep Learning.

Machine Learning

Se trata de un conjunto de métodos para permitir que el software se adapte y permita a las máquinas aprender para que luego puedan realizar una tarea o actividad sin estar preprogramadas, es decir, sin un sistema preprogramado que establezca cómo debe comportarse y reaccionar un sistema de IA. Es decir, son sistemas que sirven para “entrenar” a la IA para que, aprendiendo, corrigiendo errores, entrenándose a sí misma, pueda realizar una tarea/actividad de forma autónoma.

Lo que caracteriza al Machine Learning es, por tanto, el “modelo de aprendizaje” y es precisamente en base a estos modelos que podemos hacer una especie de clasificación de los algoritmos:

  • con supervisión didáctica (aprendizaje mediante ejemplos de entrada y salida para que la IA entienda cómo debe comportarse);
  • sin supervisión pedagógica (aprendizaje por análisis de resultados: en este caso el software entiende cómo actuar y el modelo de aprendizaje se adapta en función de los outputs que mapean los resultados de determinadas acciones y tareas que el software deberá realizar);
  • el aprendizaje por refuerzo (aprendizaje “meritocrático”: la IA es recompensada cuando alcanza objetivos, resultados, realiza una acción, etc.). De este modo, aprende qué acciones son correctas y cuáles son incorrectas).

Deep Learning

En este caso, hablamos de modelos de aprendizaje inspirados en la estructura y el funcionamiento del cerebro biológico y, por tanto, de la mente humana. Si el Machine Learning puede definirse como el método que “entrena” a la IA, el Deep Learning es el que permite emular la mente humana. En este caso, sin embargo, el modelo matemático por sí solo no es suficiente, el Deep Learning requiere de redes neuronales artificiales diseñadas ad hoc (redes neuronales artificiales profundas) y una capacidad computacional muy potente capaz de “aguantar” diferentes capas de cálculo y análisis, que es lo que ocurre con las conexiones neuronales del cerebro humano. Puede parecer un nivel tecnológico futurista, pero en realidad son sistemas que ya se utilizan en el reconocimiento de patrones, en el reconocimiento vocal o de imágenes y en los sistemas de Nlp – Natural Language Processing.

¿Cuáles son los tres tipos de inteligencia artificial?

  • Inteligencia artificial estrecha (ANI), que tiene una gama estrecha de habilidades
  • la inteligencia artificial general (AGI), que está a la par de las capacidades humanas
  • Superinteligencia artificial (ASI), que es más capaz que un humano.

La inteligencia artificial estrecha (ANI)

También conocida como IA débil o IA estrecha, es el único tipo de inteligencia artificial que se ha realizado con éxito hasta la fecha. La IA estrecha está orientada a objetivos, diseñada para realizar tareas singulares, es decir, reconocimiento facial, reconocimiento de voz/asistentes de voz, conducir un automóvil o buscar en Internet, y es muy inteligente para completar la tarea específica para la que está programada.

Ejemplos de ANI

  • Rankbrain de Google / Búsqueda de Google
  • Siri de Apple, Alexa de Amazon, Cortana de Microsoft y otros asistentes virtuales
  • Watson de IBM
  • Software de reconocimiento de imagen/facial
  • Herramientas de mapeo y predicción de enfermedades
  • Robots de fabricación y drones
  • Filtros de spam de correo electrónico / herramientas de monitoreo de redes sociales para contenido peligroso
  • Recomendaciones de entretenimiento o contenido de marketing basadas en el comportamiento de mirar/escuchar/comprar
  • autos sin conductor

Inteligencia artificial general (AGI) / IA fuerte / IA profunda

La inteligencia artificial general (AGI), también conocida como IA fuerte o IA profunda, es el concepto de una máquina con inteligencia general que imita la inteligencia y/o los comportamientos humanos, con la capacidad de aprender y aplicar su inteligencia para resolver cualquier problema. AGI puede pensar, comprender y actuar de una manera que es indistinguible de la de un ser humano en cualquier situación dada.

Ejemplos de AGI

La K construida por Fujitsu, una de las supercomputadoras más rápidas, es uno de los intentos más notables de lograr una IA fuerte

Superinteligencia Artificial (ASI)

La superinteligencia artificial (ASI) es la IA hipotética que no solo imita o comprende la inteligencia y el comportamiento humanos; ASI es donde las máquinas se vuelven conscientes de sí mismas y superan la capacidad de la inteligencia y la habilidad humanas.

La superinteligencia ha sido durante mucho tiempo la musa de la ciencia ficción distópica en la que los robots invaden, derrocan y/o esclavizan a la humanidad. El concepto de superinteligencia artificial hace que la IA evolucione para parecerse tanto a las emociones y experiencias humanas, que no solo las comprende, sino que evoca emociones, necesidades, creencias y deseos propios.

¿Cómo funciona la inteligencia artificial?

Lo que hemos visto hasta ahora es el funcionamiento tecnológico de la Inteligencia Artificial (IA). Desde el punto de vista de las capacidades intelectuales, el funcionamiento de una IA se sustancia principalmente en cuatro niveles funcionales diferentes:

  • comprensión: mediante la simulación de las capacidades cognitivas de correlación de datos y eventos, la IA es capaz de reconocer textos, imágenes, tablas, videos, voz y extrapolar información;
  • razonamiento: mediante la lógica, los sistemas son capaces de conectar las múltiples informaciones recogidas (a través de algoritmos matemáticos precisos y de forma automatizada);
  • aprendizaje: en este caso hablamos de sistemas con funcionalidades específicas para el análisis de las entradas de datos y para su retorno “correcto” en la salida (es el ejemplo clásico de los sistemas de Machine Learning que con técnicas de aprendizaje automático llevan a la IA a aprender y realizar diversas funciones);
  • interacción (Human Machine Interaction): en este caso nos referimos a la forma en que funciona la IA en relación con su interacción con los humanos. Aquí es donde avanzan con fuerza los sistemas Nlp -Procesamiento del Lenguaje Natural-, tecnologías que permiten a los humanos interactuar con las máquinas (y viceversa) aprovechando el lenguaje natural.

Ejemplos de Inteligencia Artificial y las áreas de aplicación en el mundo

Las empresas más importantes, como Facebook, Google, Amazon, Apple y Microsoft, están luchando no sólo por incorporar a las startups innovadoras en el campo de la IA, sino también por lanzar y alimentar proyectos de investigación de los que ya estamos viendo algunos frutos (como el reconocimiento de imágenes y rostros, las aplicaciones de voz, las traducciones de idiomas, etc.). Hoy en día, la madurez tecnológica ha hecho que la Inteligencia Artificial abandone el ámbito de la investigación para entrar realmente en la vida cotidiana. Si como consumidores podemos tener un vistazo especialmente gracias a Google y Facebook, en el mundo empresarial la madurez (y disponibilidad) de las soluciones tecnológicas ha llevado el potencial de la IA a muchos segmentos.

Estos son los que más suenan ahora mismo:

Ventas: sistemas expertos para configurar propuestas comerciales complejas

La inteligencia artificial aplicada a las ventas ya ha demostrado resultados importantes, en particular gracias al uso de sistemas expertos, esas aplicaciones que entran en la rama de la inteligencia artificial porque reproducen la actuación de una persona experta en un determinado dominio de conocimiento o campo de actividad.

Las soluciones que integran los sistemas expertos permiten a los usuarios, incluso a los no expertos,  resolver problemas especialmente complejos que requerirían necesariamente la intervención de un experto humano en el sector, la actividad o el dominio de conocimiento específico donde se plantea el problema.

En pocas palabras, son sistemas que permiten a las personas encontrar una solución a un problema incluso sin requerir la intervención de un experto.

Desde el punto de vista tecnológico, los sistemas expertos permiten implementar, de forma automática, los procedimientos de inferencia, es decir, de lógica: con un proceso inductivo o deductivo se llega a una conclusión tras el análisis de una serie de hechos o circunstancias. En particular, los llamados sistemas expertos basados en reglas explotan los principios bien conocidos en la informática IF-THEN, donde If es la condición y Then es la acción: si se da una determinada condición, entonces se produce una determinada acción.

La razón por la que los sistemas expertos entran en la rama de la inteligencia artificial en lugar de en la de los programas informáticos normales está en el hecho de que dada una serie de hechos, los sistemas expertos, gracias a las reglas de las que están compuestos, son capaces de deducir nuevos hechos.

Estos sistemas son especialmente eficaces y adecuados para los configuradores comerciales, soluciones utilizadas por ventas en modelos de negocio en los que la propuesta es especialmente compleja por la naturaleza de los productos comercializados, las posibles combinaciones de soluciones, las variables que afectan al resultado final y, por tanto, a la realización del propio producto y su precio. En general, un configurador de productos debe cumplir la tarea de simplificar la elección de un bien que se va a comprar; un proceso que no siempre es inmediato cuando las variables que intervienen son numerosas (dimensionamiento, gran número de componentes, utilización de materiales particulares, combinación de materias primas y materiales diversos con las consiguientes repercusiones en las propiedades físicas, mecánicas o químicas, etc.).

Cuando los productos que hay que configurar tienen que insertarse en proyectos complejos (pensemos en plantas de fabricación o en sistemas y maquinaria que tienen que funcionar en condiciones climáticas particulares o en entornos industriales “críticos”), los configuradores de productos deben ser “expertos e inteligentes” hasta el punto de poner a los usuarios en condiciones de buscar, identificar, evaluar y solicitar lo que necesitan de forma autónoma, sin recurrir al experto técnico. Es precisamente aquí donde los sistemas expertos -como los desarrollados por Myti- expresan mejor su potencial.

DECLARO, por ejemplo, es un “motor de reglas” que permite al configurador de productos proponer al usuario no experto las preguntas correctas, cuyas respuestas van seguidas de otras correctas. La acumulación de experiencia (entre preguntas y respuestas) no sólo acelera y hace más efectiva la configuración de la solución adecuada a sus necesidades, sino que se convierte en un sistema de base de conocimiento corporativo que se enriquece continuamente.

En la solución desarrollada por Myti, el “motor” de preguntas y respuestas se presenta como una interfaz web común. Las reglas If-Then son construidas por el experto en el dominio, pero el sistema es entonces capaz de hacer preguntas a un usuario no experto y en base a las respuestas y accediendo al conocimiento del experto que definió las reglas, hacer otras preguntas que ayuden al usuario (por ejemplo el vendedor) a elegir y luego configurar un producto complejo o una propuesta comercial compleja.

Marketing e Inteligencia Artificial en la actualidad

La IA en el marketing lleva un par de años mostrando todo su poder, y el principal ámbito de uso es sin duda la gestión de las relaciones con los usuarios: asistentes de voz/virtuales (chatbot, Siri de Apple, Cortana de Microsoft, Alexa de Amazon) que explotan la Inteligencia Artificial tanto para el reconocimiento del lenguaje natural como para el aprendizaje y análisis de los hábitos y comportamientos de los usuarios; el análisis en tiempo real de grandes cantidades de datos para comprender el “sentimiento” y las necesidades de las personas con el fin de mejorar la atención al cliente, la experiencia del usuario y los servicios de asistencia y apoyo, pero también para crear y perfeccionar sofisticados mecanismos de compromiso con actividades que van hasta la predicción del comportamiento de compra a partir de la cual derivar estrategias de comunicación y/o propuestas de servicio. Marketing de Inteligencia Artificial (AIM), algoritmos para persuadir a la gente.

Desde hace varios años ha nacido una verdadera disciplina, el Marketing de Inteligencia Artificial (AIM), una rama del Marketing que explota las más modernas tecnologías que forman parte de la Inteligencia Artificial, como el Machine Learning y el NLP, integradas con técnicas matemáticas/estadísticas (como las redes bayesianas) y el marketing conductual (behavioral targeting). En concreto, se trata de utilizar algoritmos de Inteligencia Artificial y Machine Learning con el objetivo de persuadir a las personas para que realicen una acción, compren un producto o accedan a un servicio (en otras palabras, que respondan a una “llamada a la acción”).

En esencia, lo que hace el AIM es agregación y análisis de datos, incluidos los datos no estructurados basados en el lenguaje natural, en un proceso continuo de aprendizaje y mejora para identificar cada cierto tiempo las acciones, estrategias y técnicas de comunicación y venta que son probabilísticamente más efectivas (las que tienen mayor potencial de efectividad/éxito para los usuarios objetivo individuales). C) Inteligencia Artificial aplicada al mundo de la Sanidad y la Salud

La IA ha tenido el mérito de mejorar muchos sistemas tecnológicos que ya utilizan las personas con discapacidad (por ejemplo, los sistemas de voz han mejorado hasta el punto de permitir una relación/comunicación totalmente natural incluso para quienes no pueden hablar), pero es en el frente del diagnóstico y tratamiento de tumores y enfermedades raras donde se verán sus nuevas capacidades. Hoy en día ya existen en el mercado sistemas cognitivos capaces de extraer, analizar y aprender de un conjunto infinito de datos (publicaciones científicas, investigaciones, historiales médicos, datos sobre medicamentos, etc.) a una velocidad inimaginable para los humanos, acelerando procesos de diagnóstico a menudo muy críticos para enfermedades raras o sugiriendo vías de tratamiento óptimas en caso de tumores o enfermedades particulares. Y no solo eso, los asistentes virtuales basados en IA empiezan a verse con más frecuencia en los quirófanos, apoyando al personal de recepción o a los socorristas.

La ciberdelincuencia y la gestión de riesgos necesitan la IA

La prevención del fraude es una de las aplicaciones más maduras en las que la Inteligencia Artificial se materializa con lo que técnicamente se denomina “analítica avanzada”, análisis muy sofisticados que correlacionan datos, eventos, comportamientos y hábitos para comprender de antemano posibles actividades fraudulentas, como la clonación de una tarjeta de crédito o la ejecución de una transacción no autorizad; estos sistemas pueden encontrar aplicación también en otros contextos empresariales, por ejemplo para la mitigación de riesgos, la protección de la información y los datos y la lucha contra la ciberdelincuencia.

Inteligencia artificial y gestión de la cadena de suministro

La optimización y gestión de la cadena de suministro y distribución requiere ahora un análisis sofisticado y, en este caso, la IA es el sistema eficaz que permite conectar y supervisar toda la cadena de suministro y todos los actores implicados; un caso muy significativo de aplicación de la Inteligencia Artificial al sector de la Gestión de la Cadena de Suministro es el relacionado con la gestión de los pedidos (en este caso las tecnologías que explotan la inteligencia artificial no sólo persiguen la simplificación de los procesos sino la integración total de los mismos, desde las compras al inventario, desde el almacén a las ventas hasta incluso la integración con el Marketing para la gestión preventiva de los suministros en función de las actividades promocionales o las campañas de comunicación).

Inteligencia artificial en beneficio de la seguridad pública

La capacidad de analizar enormes cantidades de datos en tiempo real y de “inferir” a través de correlaciones de eventos, hábitos, comportamientos, actitudes, sistemas y datos de geolocalización y seguimiento del movimiento de cosas y personas, ofrece un enorme potencial para mejorar la eficiencia y eficacia de la seguridad pública, por ejemplo para la seguridad y la prevención de la delincuencia en aeropuertos, estaciones de tren y ciudades metropolitanas, o para la prevención y gestión de crisis en casos de catástrofes naturales como terremotos y tsunamis.

Trabajo e inteligencia artificial: presente y futuro

Cuando se habla de Inteligencia Artificial no se puede dejar de abordar aspectos éticos y sociales como los relacionados con el trabajo y el empleo, ya que los temores en la comunidad global crecen.

Estos temores están justificados si tenemos en cuenta que la mitad de las actividades laborales actuales podrían estar automatizadas en 2055. Cualquier tipo de trabajo es susceptible de ser parcialmente automatizado y es a partir de esta consideración que en el informe A Future That Works: Automation, Employment and Productivity, realizado por McKinsey Global Institute – MGI, un informe de 148 páginas, disponible en la web del Foro Económico Mundial de Davos, donde fue presentado oficialmente en enero pasado, estima que alrededor de la mitad de la mano de obra actual podría verse afectada por la automatización gracias a las tecnologías ya conocidas y en uso hoy en día.

En realidad, para poner freno a los temores que desde hace meses se extienden por la web y las redes sociales sobre la responsabilidad de la Inteligencia Artificial en la “destrucción” de puestos de trabajo, llegan varios estudios. Aquí están los más significativos:

Según el estudio de Capgemini titulado “Turning AI into concrete value: the successful implementers’ toolkit” el 83% de las empresas encuestadas confirman la creación de nuevos puestos dentro de la empresa, además, tres cuartas partes de las empresas encuestadas registraron un aumento del 10% en las ventas como resultado de la implementación de la Inteligencia Artificial;

Un informe reciente de The Boston Consulting Group y MIT Sloan Management Review muestra que menos de la mitad de los directivos (47%) temen la reducción de plantilla, pero están convencidos de su potencial (el 85% de los encuestados cree que permitirá a las empresas obtener y mantener una ventaja competitiva);

Una nueva investigación de Accenture (“Reworking the Revolution: Are you ready to compete as intelligent technology meets human ingenuity to create the future workforce”) publicada en el reciente Foro Económico de Davos estima que los ingresos de las empresas podrían crecer un 38% de aquí a 2020, siempre que inviertan en Inteligencia Artificial y en una cooperación eficaz entre humanos y máquinas.

Inteligencia artificial y conciencia: ¿podrán pensar los robots? ¿Pensarán como nosotros?

Uno de los temas ampliamente debatidos tanto en la comunidad científica como entre los expertos en filosofía, sociología, política y economía, se refiere a las capacidades de pensamiento de los robots o, más generalmente, a los límites entre la Inteligencia Artificial y la conciencia “humana”.

Aunque las tecnologías de Inteligencia Artificial avanzan a gran velocidad, en muchos aspectos los ordenadores siguen sin alcanzar el rendimiento humano.

“La conciencia humana no se hace sólo con el reconocimiento de patrones o el procesamiento rápido de números”, argumenta Hakwan Lau, neurocientífico de la Universidad de California en Los Ángeles. “Descubrir cómo salvar la brecha entre la inteligencia humana y la artificial sería como encontrar el Santo Grial”.

Para abordar la controvertida cuestión de si los ordenadores pueden o no desarrollar la conciencia, los investigadores de la Universidad de California han intentado -en primer lugar- explorar cómo surge la conciencia en el cerebro humano. Al hacerlo, esbozaron tres niveles clave de la conciencia humana que podrían servir de hoja de ruta para diseñar una Inteligencia Artificial verdaderamente consciente.

Los científicos se han dado cuenta de que algunos robots han alcanzado capacidades equivalentes al nivel C2 de los humanos, que se refiere a la capacidad de controlar los propios pensamientos y cálculos; en otras palabras, la capacidad de ser consciente de sí mismo, ya que pueden controlar sus progresos en el aprendizaje de la resolución de problemas.

Hasta la fecha, los investigadores sugieren que la conciencia humana puede derivar de un conjunto de cálculos específicos. “Una vez que seamos capaces de aclarar en términos computacionales cuáles pueden ser las diferencias en los humanos entre lo consciente y lo inconsciente, codificarlo en los ordenadores puede no ser tan difícil”, es la opinión del investigador Lau, que sin duda abre nuevos escenarios sobre el futuro de los robots conscientes.

Los riesgos de la Inteligencia Artificial

Los economistas se preguntan desde hace tiempo qué herramientas activar para evitar que la evolución de la sociedad hacia una economía cada vez menos intensiva en mano de obra -cuya evolución se ve hoy acelerada por la Inteligencia Artificial- desemboque en un empobrecimiento de la población, situación que exigiría una “redistribución” de la riqueza teniendo en cuenta que la mayor parte de ésta será producida por las máquinas.

Junto a las cuestiones sociales, hay cuestiones éticas sobre el desarrollo y la evolución de la Inteligencia Artificial y las nuevas tecnologías. Desde hace algún tiempo, se debate sobre el “poder de los algoritmos” y el big data, y muchos se preguntan si marcarán la superioridad del cerebro de las máquinas sobre el del hombre. Los temores, alimentados en la red en su momento por personalidades conocidas como Stephen Hawking y Elon Musk) pueden parecer excesivos, pero subestimar los impactos de la Inteligencia Artificial podría representar el riesgo número uno.

El primero en advertir de los riesgos de la Inteligencia Artificial fue el célebre Stephen Hawking: “No somos capaces de predecir lo que seremos capaces de hacer cuando nuestras mentes sean amplificadas por la Inteligencia Artificial -dijo el físico durante la última Cumbre de la Web en Lisboa-. Tal vez, con las nuevas herramientas, seamos capaces de remediar todo el daño que estamos causando a la naturaleza, y tal vez también seamos capaces de encontrar soluciones definitivas a la pobreza y la enfermedad. Pero… también es posible que con la destrucción de millones de puestos de trabajo se destruya nuestra economía y nuestra sociedad”.

“La inteligencia artificial podría ser el peor acontecimiento de la historia de nuestra civilización, agregó. Trae consigo peligros, como poderosas armas automáticas, nucleares o biológicas, incluso habilita nuevas formas para que unos pocos individuos y organizaciones puedan oprimir y controlar a multitudes de humanos (y cosas). Debemos prepararnos para gestionarlo y evitar que estos riesgos potenciales tomen forma y se hagan realidad”.

También es sorprendente que la última advertencia provenga de un empresario de éxito como Elon Musk. “La inteligencia artificial es el mayor riesgo al que se enfrenta nuestra civilización”, advirtió. En particular, destacó los riesgos de una guerra desencadenada por los ordenadores o de una catástrofe laboral debida a decisiones basadas únicamente en las elaboraciones de la Inteligencia Artificial, único verdadero pilar dominante de la economía del futuro capaz de reservar a las máquinas miles, quizás millones, de puestos de trabajo aún gestionados por los hombres.

Inteligencia artificial descentralizada: por qué podría ser la respuesta a los problemas éticos

La comunidad científica internacional lleva tiempo trabajando en la llamada superinteligencia, una inteligencia artificial general, una investigación que tiene como objetivo la creación de una IA capaz de replicar completamente la inteligencia humana; se refiere a la rama de investigación de la inteligencia artificial fuerte según la cual es posible que las máquinas adquieran conocimiento o conciencia de sí mismas, sin mostrar necesariamente procesos de pensamiento similares a los humanos. Sin embargo, los riesgos son muy elevados, sobre todo si la investigación la llevan a cabo unas pocas empresas que pueden dedicar importantes recursos (económicos y de competencias) a los proyectos más innovadores.

Descentralizar la inteligencia artificial y hacer que pueda ser diseñada, desarrollada y controlada por una gran red internacional a través de la programación de código abierto es, para muchos investigadores y científicos, el enfoque más seguro para crear no sólo una superinteligencia, sino para democratizar el acceso a la inteligencia artificial, reduciendo los riesgos de monopolio y resolviendo así los problemas éticos y de seguridad.

Hoy en día, una de las mayores preocupaciones en materia de inteligencia artificial se refiere precisamente al uso de los datos y a la confianza con la que la IA explota los datos y la información para llegar a determinadas decisiones y/o realizar acciones específicas. La mente humana, sobre todo cuando se trata de Deep Learning, no es capaz de interpretar los pasos que da una inteligencia artificial a través de una red neuronal profunda y debe, por tanto, “confiar” en el resultado al que llega una IA sin entender ni saber cómo ha llegado a esa conclusión.

En este escenario, blockchain parece ser la respuesta más tranquilizadora: el uso de la tecnología blockchain permite el registro inmutable de todos los datos, todas las variables y todos los procesos utilizados por las IA para llegar a sus conclusiones/decisiones. Y eso es exactamente lo que se necesita para controlar fácilmente todo el proceso de toma de decisiones de la IA.

La evolución de la nanotecnología al servicio de la inteligencia artificial

La miniaturización cada vez mayor, la capacidad de fabricar transistores que sean realmente neuronas (agrupaciones de transistores que se comportan como neuronas y sinapsis), la capacidad de ingeniería de estos procesos (a mayor capacidad, mayor inteligencia y por tanto extensión de la red neuronal que podemos insertar en un solo componente) son aspectos que ya podemos ver hoy en día dentro de nuestros smartphones donde hay chips integrados, es decir, procesadores que integran una CPU, una Gpu, un Procesamiento Digital de Señal. Fue posible poner en sistemas miniaturizados una capacidad de procesamiento y un sistema de inteligencia sin precedentes.

En realidad, ahora tendremos que ver si la evolución de esta complejidad sigue la ley de Moore, y por tanto observaremos un crecimiento exponencial de la complejidad de las redes neuronales dentro de los chips, o si estamos llegando a una asíntota de la ley de Moore, en el sentido de que a estas alturas los factores de escala dentro de los microprocesadores son tales que es difícil seguir con la misma velocidad para reducir los componentes insertados en los circuitos integrados.

Computación GpGpu

Con la entrada de la Gpu se han conseguido enormes beneficios a lo largo de los años en términos de eficiencia y potencia de cálculo. Basta pensar que una Cpu tradicional está formada por varios núcleos optimizados para el procesamiento secuencial en serie, mientras que una Gpu tiene una arquitectura paralela con miles de núcleos diseñados para la gestión simultánea de múltiples operaciones y que son de menor tamaño y mayor eficiencia.

Para acelerar el desarrollo de las redes neuronales, sin embargo, estará la llamada GpGpu Computing: el acrónimo significa ‘General-purpose Gpu Computing’ e indica el uso de las Gpu, que históricamente nacieron para el procesamiento de gráficos, en procesos de otra naturaleza, más general. Técnicamente, la computación acelerada por Gpu existe desde 2007 (una unidad de procesamiento gráfico está flanqueada por una CPU para acelerar las aplicaciones) y ya se utiliza en varias plataformas y soluciones tecnológicas; la evolución es hacia un mayor crecimiento del rendimiento y la escalabilidad de la Gpu para acelerar el desarrollo de las Redes Neuronales Profundas (DNNs).

Computación Cuántica

La informática cuántica es un ordenador cuántico que utiliza fenómenos típicos de la mecánica cuántica, como la superposición de efectos por parte de partículas atómicas y subatómicas que pueden existir en estados cuánticos superpuestos, para realizar operaciones clásicas de datos.

Durante décadas, el aumento de la potencia de los ordenadores ha ido de la mano de la miniaturización de los circuitos electrónicos (codificada empíricamente en la Ley de Moore: la densidad de transistores en un microchip y la velocidad relativa de cálculo se duplican cada 18 meses aproximadamente). Con la mecánica cuántica, la miniaturización de los componentes ha sufrido un retroceso, pero su traslación al campo de la informática ha permitido el desarrollo de infraestructuras con mayor potencia de cálculo que los sistemas anteriores (se habla de la informática cuántica desde los años 80, pero hasta principios de los 2000 no se vieron los primeros resultados concretos).

La idea básica es utilizar qubits (estado cuántico de una partícula o un átomo) en lugar de las tradicionales unidades de información binaria (bits). Esos qubits, en lugar de codificar en 0-1 los dos estados ‘abierto’ y ‘cerrado’ de un interruptor, pueden codificar información binaria en dos orientaciones ‘arriba’ y ‘abajo’. A los fines de la computación, el aspecto interesante es que las partículas atómicas y subatómicas pueden superponerse, ampliando así el potencial de codificación de la información binaria, (condición necesaria para resolver cálculos/problemas extremadamente complejos como los que están en la base de la Inteligencia Artificial.

En este frente queda mucho por hacer porque todavía no es posible tener un control real sobre los átomos y las partículas y sobre su interacción/comunicación que dificulta el desarrollo de algoritmos ad hoc diseñados para funcionar en este tipo de sistemas.

Computación cuántica: el duelo entre IBM y Google

Los actores que hoy desempeñan un papel primordial en el escenario mundial de la computación cuántica son esencialmente dos: IBM y Google (seguidos por Microsoft, Intel, Facebook y varias startups). Los dos gigantes se disputan al ritmo de las inversiones en investigación un trofeo de honor: ser el primero en el mercado con un ordenador personal o un dispositivo móvil que explote la enorme capacidad de cálculo basada en la cuántica.

En el último año, IBM, en sus laboratorios de Zúrich, donde trabajan científicos de distintas disciplinas dedicados a la investigación experimental pura, ha obtenido grandes resultados que han permitido que la investigación dé un gran paso adelante. Hasta el año pasado, de hecho, uno de los principales obstáculos para el desarrollo de la informática cuántica era la identificación de los errores que se generan al explotar los qubits (los cuantos son inestables y los qubits pueden entonces cambiar de estado – de 0 a 1 o viceversa): el error de cambio de estado (llamado bit-flip) y el error de señal (llamado phase-flip) no podían detectarse al mismo tiempo, sino sólo uno a la vez, lo que limitaba la ejecución de los cálculos.

Mediante el diseño de un nuevo chip basado en 4 qubits, los investigadores de IBM han superado este obstáculo y han anunciado al mundo que en la próxima década será posible desarrollar procesadores cuánticos basados en 50-100 qubits (como término de comparación basta pensar que un smartphone actual podría funcionar con 2 qubits).

A pesar de que uno de los principales obstáculos para un desarrollo de este tipo -que está lejos de ser superado- es el sistema de refrigeración (hoy en día, los ordenadores cuánticos utilizados en los laboratorios de investigación utilizan literalmente “escotillas” para la criogenización), Google ha anunciado recientemente que quiere llevar a cabo un experimento con un nuevo circuito basado en una red de 49 qubits. Sería un verdadero “salto cuántico”, para mantenerse en la esfera de la física cuántica, ya que el último chip fabricado por Google tenía “sólo” 6 qubits y los experimentos realizados hasta ahora han mostrado resultados sólo mediante el uso de pequeños grupos de qubits (se llegó al máximo de hasta 9 qubits en línea, logrado por los laboratorios de investigación de Google).

Google trabaja en el  diseño arquitectónico del chip; los científicos están convencidos de que la estabilidad, la escalabilidad y el rendimiento de los qubits dependen de la configuración de los mismos dentro de la “red” y de la conformación del circuito. El equipo de investigadores ya ha experimentado, en el chip de 6 qubits, un nuevo sistema de producción del circuito, separando efectivamente la red de qubits del sistema de cableado tradicional que los controla (colocando este último en un segundo chip luego soldado al primero). La idea es eliminar las líneas de control adicionales que se necesitan en un chip más grande y que pueden interferir con la función de los qubits.

China abre la puerta a la criptografía cuántica por satélite

China anunció recientemente que ha puesto en línea la mayor red de claves cuánticas.

Las claves cuánticas son largas cadenas de números -claves para abrir archivos encriptados como las que se utilizan en los ordenadores modernos-, pero se codifican a través del estado físico de las partículas cuánticas. Esto significa que están protegidos no sólo por las limitaciones del ordenador, sino también por las leyes de la física. Las claves cuánticas no se pueden copiar. Pueden encriptar las transmisiones entre ordenadores clásicos y nadie puede robarlas sin que el emisor o el receptor se den cuenta (una ley de la mecánica cuántica establece que una vez que se observa una partícula subatómica, su estado se altera).

A finales de 2017, investigadores chinos cifraron imágenes de forma cuántica codificándolas como cadenas de números basadas en los estados cuánticos de los fotones, y las enviaron a 7.600 kilómetros de distancia, desde Beijing a Viena, superando el anterior récord de 404 kilómetros, también conseguido por China mediante el uso del satélite chino Micius, un potente detector y transmisor de fotones.

Machine Learning cuántico

El Machine Learning cuántico es el área de la información cuántica que combina la velocidad de la computación cuántica con las capacidades de autoaprendizaje y adaptación del Machine Learning y la inteligencia artificial.

Algunos físicos han desarrollado un algoritmo de Machine Learning basado en la computación cuántica que es capaz de manejar infinitas dimensiones, es decir, de trabajar sobre variables continuas con un número infinito de valores posibles. El salto es gigantesco, ya que hasta ahora los algoritmos de aprendizaje utilizados a través de la computación cuántica siempre han trabajado en base a variables discretas, es decir, utilizando un número finito de valores.

El estudio fue publicado por primera vez el 21 de febrero de 2017 por la revista científica “Physical Review Letters”, que informó de las pruebas de los estudios de los físicos Hoi-Kwan Lau, Raphael Pooser, George Siopsis y Christian Weedbrook, titulados “Quantum Machine Learning over Infinite Dimensions”.

Los científicos pudieron demostrar, en primer lugar, “el poder” de los fotones para aumentar el rendimiento de un algoritmo de Machine Learning y, por tanto, para realizar mejores tareas de aprendizaje, en un ordenador cuántico, lo que, en sí mismo, ya representa una enorme ventaja en términos de velocidad y escalabilidad del rendimiento informático en comparación con los sistemas convencionales que se utilizan hoy en día (incluso en comparación con los superordenadores). Además, hay un menor costo energético, ya que  los qubits pueden almacenar mucha más información que los bits.

Pero la novedad más interesante tiene que ver con el “cambio de perspectiva” en el uso de los algoritmos de Machine Learning: la mayoría de los algoritmos de Quantum Machine Learning desarrollados hasta ahora trabajan con “problemas matemáticos” que utilizan variables discretas. Aplicar el Machine Learning cuántico a problemas con variables continuas requiere un enfoque completamente diferente. Para tener éxito, como primer paso los físicos tuvieron que desarrollar un nuevo conjunto de herramientas capaces de trabajar con variables continuas.

ReRAM (memoria de acceso aleatorio resistiva)

Algunos centros de investigación trabajan en la ReRAM (Resistive random-access memory), microchips de memoria capaces de “calcular” y almacenar datos en tres estados, abandonando el concepto de transistores y abriendo las puertas a la informática ternaria. Un grupo de investigadores que opera entre Singapur y Alemania trabaja en el desarrollo de un chip que funciona a la vez como memoria y como procesador y es capaz de explotar la computación ternaria (basada en tres estados: 0, 1 y 2).

Los chips que hay ahora en el mercado se basan en el cálculo binario (funcionan como transistores, diminutos interruptores eléctricos, que permiten dos niveles diferentes de tensión eléctrica expresados como 1 y 0, es decir, encendido o apagado) y hace al menos treinta años que los desarrolladores de procesadores y microprocesadores buscan formas eficaces de acelerar los cálculos basados en este sistema. Paralelamente al aumento del rendimiento de los procesadores, se han desarrollado chips de memoria, en particular los basados en la tecnología flash, que sin embargo están anclados en el concepto de transistores. En las memorias flash más avanzadas, cada transistor es capaz de “albergar” células de memoria multinivel, lo que permite registrar el valor de varios bits a través de un solo transistor. Esta innovación ha permitido alcanzar notables rendimientos en términos de velocidad y poder utilizar estas memorias en las operaciones de escritura-lectura de datos y su memorización (al ser memorias no volátiles) pero no resuelve los problemas de latencia que se crean cuando los datos deben pasar de la memoria al procesador.

Anupam Chattopadhyay, de la Universidad Tecnológica de Nanyang (Singapur), Rainer Waser, de la Universidad RWTH de Aquisgrán (Alemania), y Vikas Rana, del centro de investigación de Jülich, también en Alemania, quisieron dejar atrás el concepto de transistores para estudiar y desarrollar un chip que pudiera actuar como procesador y como memoria. Los chips en los que trabajan están compuestos por pequeñas celdas de material eléctricamente conmutable, generalmente óxidos de metales de transición, como el titanio y el hafnio, que cambian su estado de resistencia eléctrica en función de los impulsos de carga que los atraviesan por medio de electrodos. En las celdas en las que trabajan los científicos hay dos electrodos, a diferencia de los transistores que tienen tres. La estimulación del cambio en la resistencia eléctrica es el paso, en el óxido metálico, de iones de oxígeno que permanecen en la célula incluso cuando la electricidad se pierde o se apaga, permitiendo así que la célula actúe como un almacén/memoria de datos. No sólo eso, el control de los iones requiere mucha menos energía que el control de los electrones en los transistores haciendo así que estos chips requieran mucha menos energía que los chips “ancestros”.

Este tipo de memoria, llamada ReRAM, aún se está estudiando, pero los científicos que trabajan en ella creen que tiene un enorme potencial para actuar también como procesador. A diferencia de los transistores, dicen los investigadores, una célula ReRAM es capaz de “retener” algo más que un simple interruptor de encendido y apagado (1-0), puede diseñarse para tener diferentes niveles de resistencia, cada uno de los cuales representa un número. En la actualidad los investigadores han desarrollado un chip con tres niveles de resistencia que corresponden a 3 estados (0,1 y 2) mediante los cuales es posible almacenar más datos en un espacio más pequeño (microchip) pero no descartan que en el futuro estos estados puedan aumentar.

En la revista científica Scientific Reports – Nature, los profesores Chattopadhyay, Waser y Rana describieron los resultados de su investigación sobre computación ternaria, pero también expusieron los límites actuales de estos chips. Más allá de los aspectos comerciales (no es tan fácil, hoy en día, desarrollar chips de este tipo), estas nuevas tecnologías no podrían funcionar con los sistemas operativos y el software actuales (obviamente, basados en la computación binaria). No sólo eso, los chips que actúan simultáneamente como procesador y memoria funcionan a un ritmo de megahercios (millones de ciclos por segundo) y no de gigahercios (miles de millones de ciclos por segundo) como los procesadores más modernos que hay actualmente en el mercado. Sin embargo, operar a una velocidad de megahercios podría ser suficiente para muchas aplicaciones, especialmente cuando la miniaturización ofrece una ventaja (por ejemplo, en dispositivos pequeños); si además tenemos en cuenta su bajo consumo de energía, pronto podrían encontrar un lugar en productos como sensores, dispositivos portátiles, dispositivos médicos portátiles, etc.

Chips neuromórficos y memoria de cambio de fase

Son circuitos que imitan el funcionamiento de las conexiones neuronales de un cerebro humano. En este frente, la investigación avanza con bastante rapidez; una reciente publicación científica aparecida en Nature Nanotechnology explica cómo algunos científicos de los laboratorios de investigación de IBM en Zúrich han conseguido crear neuronas artificiales en el laboratorio utilizando materiales de “cambio de fase”.

Los investigadores utilizaron el “telururo de germanio y antimonio”, un derivado de la aleación GeSbTe, germanio, antimonio y telurio, un material de transición de fase utilizado en los discos ópticos regrabables, un material que presenta dos estados estables (uno denominado amorfo, sin estructura definida, y otro cristalino, por tanto, con estructura) pero que no sirve para guardar información sino para permitir la sinapsis, como ocurre entre las neuronas biológicas. Mediante una serie de impulsos eléctricos, estas neuronas artificiales muestran una cristalización progresiva del material, pero lo realmente innovador es el cambio de carga eléctrica entre el interior y el exterior del chip. Es la llamada “propiedad de integración y fuego” que en el cerebro humano se produce, por ejemplo, cuando se toca algo caliente y es la base de la computación basada en eventos. A partir de estos descubrimientos, los científicos trabajan en la estructuración de “poblaciones de centenares de neuronas artificiales” utilizándolas para manejar señales complejas y rápidas; estas neuronas artificiales están demostrando que pueden sostener miles de millones de ciclos de transformación con un consumo de energía muy bajo: la energía necesaria para actualizar cada neurona -es decir, para su cambio de fase- es inferior a 5 picojulios con un consumo medio de menos de 120 microvatios; para tener un término de comparación, 60 millones de microvatios representan la potencia de una bombilla de 60 vatios.

Los chips neuromórficos van en la dirección de un desarrollo de hardware que permite realizar el procesamiento de forma diferente al enfoque actual, manteniendo los datos y las capacidades de procesamiento en el mismo componente (al igual que hace el cerebro humano al mantenerlos en las neuronas y sus sinapsis).

Inteligencia Artificial en el cine

Hablar de casos de aplicación de la Inteligencia Artificial es imposible sin mencionar el mundo del cine y la gran filmografía que existe en torno a los Robots, la IA, el Machine Learning. Es una filmografía que vale la pena estudiar en profundidad porque suele ser precursora de visiones y anticipaciones valiosas del mundo y del mercado que en muchos casos se han hecho realidad en pocos años. Con este espíritu de seguimiento y análisis nació nuestra “guía especial” llamada Inteligencia Artificial Cinematográfica, constantemente actualizada también gracias a la contribución de los lectores.

@RESERVADOS TODOS LOS DERECHOS
Temas principales

Especificaciones

I
inteligencia artificial

Nota 1 de 5