Análisis en profundidad

Inteligencia Artificial. Guía completa actualizada

  • Home
  • Inteligencia Artificial

Se habla mucho, quizás demasiado, sobre el candente tema de la Inteligencia Artificial (IA), con la paradoja de que mucha gente aún no entiende su significado e importancia. Intentemos entender de qué se trata y por qué todo el mundo habla de ello, esbozando un panorama de las tecnologías actuales en uso y las áreas de mayor interés de la Inteligencia Artificial para las empresas

Actualizado el 15 Feb 2024

inteligencia artificial

¿Qué es la inteligencia artificial? De forma simplista podríamos definirla como la capacidad de un sistema tecnológico para resolver problemas o realizar tareas y actividades propias de la mente y la capacidad humanas. Si nos fijamos en el sector de la informática, podríamos identificar a la IA como la disciplina que se ocupa de la realización de máquinas (hardware y software) capaces de “actuar” de forma autónoma (resolver problemas, realizar acciones, etc.).

Índice de temas

Qué es la Inteligencia Artificial (IA) y en qué consiste

La Inteligencia Artificial (IA) es la capacidad de las computadoras para pensar y aprender como lo hacen las personas. Es cuando las máquinas pueden hacer tareas inteligentes, como tomar decisiones o resolver problemas, sin ser programadas de manera explícita para cada situación. La IA permite a las computadoras procesar información y adaptarse, lo que las hace útiles en muchas áreas, como la medicina, la industria y la tecnología. En resumen, la IA es como darles a las máquinas el poder de pensar y aprender por sí mismas.

La creciente atención hacia la Inteligencia Artificial se debe al avance tecnológico en la computación y la capacidad de procesar grandes cantidades de datos en tiempo real. Aunque el interés en la IA comenzó en la década de 1940 con la propuesta de neuronas artificiales y modelos cerebrales, el término “Inteligencia Artificial” fue acuñado oficialmente en 1956 por John McCarthy. Desde entonces, ha habido avances en modelos matemáticos y, en la década de 1990, la llegada de procesadores gráficos (GPU) impulsó el rendimiento. En la última década, los “chips neuromórficos” han sido el último avance, incorporando procesamiento y almacenamiento en un solo componente, aprovechando la nanotecnología para emular funciones cerebrales. Este avance ha generado interés tanto en la industria como en nuevas empresas.

La historia de la inteligencia artificial: desde las redes neuronales de los años 50 hasta hoy

En los años finales de la década de 1950, se desarrolló el primer modelo de red neuronal llamado “perceptrón“, propuesto por Frank Rosenblatt en 1958. Esta red tenía una capa de entrada y otra de salida, y utilizaba una regla de aprendizaje basada en el algoritmo “error back-propagation” para ajustar las conexiones entre las neuronas en función de la diferencia entre la salida real y la deseada. Algunos consideran que el nacimiento de la cibernética y la Inteligencia Artificial se relaciona con este perceptrón de Rosenblatt.

Sin embargo, pronto se descubrieron limitaciones en el modelo. Minsky y Papert, matemáticos prominentes, demostraron que el perceptrón solo podía reconocer funciones que se podían separar de manera lineal después de un entrenamiento adecuado. Además, las capacidades de cálculo de un solo perceptrón eran limitadas y dependían de la elección de las entradas y los algoritmos utilizados para ajustar las conexiones. Para abordar problemas más complejos, Minsky y Papert sugirieron construir redes con múltiples niveles de perceptrones, pero en ese momento, la infraestructura de hardware aún no estaba preparada para manejar la creciente complejidad de entrenar estas redes.

El primer punto de inflexión importante desde el punto de vista tecnológico se produjo entre finales de los 70 y la década de los 80 con el desarrollo de las Gpu’s que redujeron considerablemente los tiempos de entrenamiento de las redes, disminuyéndolos en 10/20 veces.

New call-to-action

Definición de Inteligencia Artificial

La Inteligencia Artificial (IA), en su sentido puramente informático, se refiere a la disciplina que engloba teorías y técnicas prácticas para el desarrollo de algoritmos que permiten a las máquinas, especialmente a las computadoras, mostrar comportamientos inteligentes en dominios y áreas de aplicación específicos.

Clasificación de la Inteligencia Artificial

La clasificación de la Inteligencia Artificial se basa en su capacidad para emular funciones cognitivas humanas y se divide en dos vertientes principales:

  • Inteligencia Artificial Débil (Narrow AI):

    • Este enfoque se refiere a sistemas tecnológicos capaces de simular algunas funcionalidades cognitivas humanas. Sin embargo, no alcanzan las capacidades intelectuales propias de los seres humanos. Estos sistemas utilizan algoritmos matemáticos para resolver problemas y tomar decisiones.
  • Inteligencia Artificial Fuerte (AGI):

    • En este caso, hablamos de sistemas sapientes, algunos incluso los describen como “autoconscientes”. Estos sistemas tienen la capacidad de desarrollar su propia inteligencia de manera autónoma, sin necesidad de emular procesos de pensamiento o capacidades cognitivas humanas.

Diversos Enfoques de la Inteligencia Artificial

La Inteligencia Artificial se aplica en varios enfoques que se utilizan para desarrollar sistemas inteligentes:

  1. IA Supervisada: Los algoritmos de IA se entrenan utilizando un conjunto de datos etiquetado con respuestas conocidas. Esto permite a los sistemas aprender a hacer predicciones basadas en ejemplos previos, utilizándose en aplicaciones como el reconocimiento de imágenes y el procesamiento de lenguaje natural.
  2. IA No Supervisada: En este enfoque, los algoritmos de IA analizan datos sin etiquetas para encontrar patrones y estructuras ocultas. Se aplica en tareas como la segmentación de datos y el análisis de agrupamientos.
  3. IA Reforzada: La IA en este caso aprende interactuando con su entorno y recibiendo retroalimentación. Los agentes de IA toman decisiones para maximizar una recompensa específica en un entorno dado, aplicándose en juegos, robótica y automatización.
  4. Ética y Responsabilidad en IA: Este enfoque se centra en desarrollar sistemas de IA éticos, justos y responsables, prestando atención a la equidad en los datos, la transparencia en los algoritmos y la toma de decisiones éticas.

Modelos de aprendizaje

Los modelos de aprendizaje de la Inteligencia Artificial son representaciones matemáticas que permiten a las máquinas aprender de datos y realizar tareas específicas. Hay tres tipos principales de modelos de aprendizaje: supervisado, donde se utilizan datos etiquetados para entrenar al modelo en la predicción de resultados; no supervisado, donde el modelo encuentra patrones o agrupaciones en datos no etiquetados; y reforzado, que implica la toma de decisiones basada en la interacción con el entorno y la optimización de recompensas. Estos modelos son fundamentales para una amplia gama de aplicaciones de IA, desde el procesamiento de lenguaje natural hasta la visión por computadora y la toma de decisiones autónomas.

Machine Learning

Se trata de un conjunto de métodos para permitir que el software se adapte y permita a las máquinas aprender para que luego puedan realizar una tarea o actividad sin estar preprogramadas, es decir, sin un sistema preprogramado que establezca cómo debe comportarse y reaccionar un sistema de IA. Es decir, son sistemas que sirven para “entrenar” a la IA para que, aprendiendo, corrigiendo errores, entrenándose a sí misma, pueda realizar una tarea/actividad de forma autónoma.

Lo que caracteriza al Machine Learning es, por tanto, el “modelo de aprendizaje” y es precisamente en base a estos modelos que podemos hacer una especie de clasificación de los algoritmos:

  • con supervisión didáctica (aprendizaje mediante ejemplos de entrada y salida para que la IA entienda cómo debe comportarse);
  • sin supervisión pedagógica (aprendizaje por análisis de resultados: en este caso el software entiende cómo actuar y el modelo de aprendizaje se adapta en función de los outputs que mapean los resultados de determinadas acciones y tareas que el software deberá realizar);
  • el aprendizaje por refuerzo (aprendizaje “meritocrático”: la IA es recompensada cuando alcanza objetivos, resultados, realiza una acción, etc.). De este modo, aprende qué acciones son correctas y cuáles son incorrectas).

Deep Learning

En este caso, hablamos de modelos de aprendizaje inspirados en la estructura y el funcionamiento del cerebro biológico y, por tanto, de la mente humana. Si el Machine Learning puede definirse como el método que “entrena” a la IA, el Deep Learning es el que permite emular la mente humana. En este caso, sin embargo, el modelo matemático por sí solo no es suficiente, el Deep Learning requiere de redes neuronales artificiales diseñadas ad hoc (redes neuronales artificiales profundas) y una capacidad computacional muy potente capaz de “aguantar” diferentes capas de cálculo y análisis, que es lo que ocurre con las conexiones neuronales del cerebro humano. Puede parecer un nivel tecnológico futurista, pero en realidad son sistemas que ya se utilizan en el reconocimiento de patrones, en el reconocimiento vocal o de imágenes y en los sistemas de Nlp – Natural Language Processing.

¿Cuáles son los tres tipos de inteligencia artificial?

  • Inteligencia artificial estrecha (ANI), que tiene una gama estrecha de habilidades
  • la inteligencia artificial general (AGI), que está a la par de las capacidades humanas
  • Superinteligencia artificial (ASI), que es más capaz que un humano.

La inteligencia artificial estrecha (ANI)

También conocida como IA débil o IA estrecha, es el único tipo de inteligencia artificial que se ha realizado con éxito hasta la fecha. La IA estrecha está orientada a objetivos, diseñada para realizar tareas singulares, es decir, reconocimiento facial, reconocimiento de voz/asistentes de voz, conducir un automóvil o buscar en Internet, y es muy inteligente para completar la tarea específica para la que está programada.

Ejemplos de ANI

  • Rankbrain de Google / Búsqueda de Google
  • Siri de Apple, Alexa de Amazon, Cortana de Microsoft y otros asistentes virtuales
  • Watson de IBM
  • Software de reconocimiento de imagen/facial
  • Herramientas de mapeo y predicción de enfermedades
  • Robots de fabricación y drones
  • Filtros de spam de correo electrónico / herramientas de monitoreo de redes sociales para contenido peligroso
  • Recomendaciones de entretenimiento o contenido de marketing basadas en el comportamiento de mirar/escuchar/comprar
  • autos sin conductor

Inteligencia artificial general (AGI) / IA fuerte / IA profunda

La inteligencia artificial general (AGI), también conocida como IA fuerte o IA profunda, es el concepto de una máquina con inteligencia general que imita la inteligencia y/o los comportamientos humanos, con la capacidad de aprender y aplicar su inteligencia para resolver cualquier problema. AGI puede pensar, comprender y actuar de una manera que es indistinguible de la de un ser humano en cualquier situación dada.

Ejemplos de AGI

La K construida por Fujitsu, una de las supercomputadoras más rápidas, es uno de los intentos más notables de lograr una IA fuerte

Superinteligencia Artificial (ASI)

La superinteligencia artificial (ASI) es la IA hipotética que no solo imita o comprende la inteligencia y el comportamiento humanos; ASI es donde las máquinas se vuelven conscientes de sí mismas y superan la capacidad de la inteligencia y la habilidad humanas.

La superinteligencia ha sido durante mucho tiempo la musa de la ciencia ficción distópica en la que los robots invaden, derrocan y/o esclavizan a la humanidad. El concepto de superinteligencia artificial hace que la IA evolucione para parecerse tanto a las emociones y experiencias humanas, que no solo las comprende, sino que evoca emociones, necesidades, creencias y deseos propios.

¿Cómo funciona la inteligencia artificial?

La inteligencia artificial (IA) funciona mediante la implementación de algoritmos y modelos matemáticos en sistemas informáticos. En esencia, estos sistemas procesan grandes cantidades de datos y buscan patrones y relaciones dentro de esos datos. El proceso principal de aprendizaje en la IA implica el ajuste de parámetros en función de la retroalimentación recibida.

En el aprendizaje supervisado, se entrena a la IA utilizando un conjunto de datos etiquetados, donde la máquina aprende a hacer predicciones o tomar decisiones basadas en ejemplos previos. En el aprendizaje no supervisado, la IA analiza datos no etiquetados para encontrar patrones o grupos naturales. Y en el aprendizaje por refuerzo, los agentes de IA toman decisiones y acciones en un entorno y reciben recompensas o penalizaciones según su desempeño.

En resumen, la IA funciona mediante el procesamiento de datos, la identificación de patrones y el ajuste de modelos matemáticos para tomar decisiones, hacer predicciones o realizar tareas específicas.

Lo que hemos visto hasta ahora es el funcionamiento tecnológico de la Inteligencia Artificial (IA). Desde el punto de vista de las capacidades intelectuales, el funcionamiento de una IA se sustancia principalmente en cuatro niveles funcionales diferentes:

  • Comprensión: mediante la simulación de las capacidades cognitivas de correlación de datos y eventos, la IA es capaz de reconocer textos, imágenes, tablas, videos, voz y extrapolar información;
  • Razonamiento: mediante la lógica, los sistemas son capaces de conectar las múltiples informaciones recogidas (a través de algoritmos matemáticos precisos y de forma automatizada);
  • Aprendizaje: en este caso hablamos de sistemas con funcionalidades específicas para el análisis de las entradas de datos y para su retorno “correcto” en la salida (es el ejemplo clásico de los sistemas de Machine Learning que con técnicas de aprendizaje automático llevan a la IA a aprender y realizar diversas funciones);
  • Interacción (Human Machine Interaction): en este caso nos referimos a la forma en que funciona la IA en relación con su interacción con los humanos. Aquí es donde avanzan con fuerza los sistemas Nlp -Procesamiento del Lenguaje Natural-, tecnologías que permiten a los humanos interactuar con las máquinas (y viceversa) aprovechando el lenguaje natural.

Cómo la inteligencia artificial puede beneficiar al mundo empresarial

La inteligencia artificial (IA) se está convirtiendo en una herramienta transformadora en el mundo empresarial, aportando beneficios significativos en múltiples áreas y sectores. Te acercamos a continuación un resumen de cómo la IA puede beneficiar a las empresas, basado en la información de expertos y fuentes autorizadas.

Análisis de datos y tendencias de mercado

La IA es capaz de analizar grandes volúmenes de datos para identificar tendencias y patrones. Esto permite a las empresas generar campañas de marketing más efectivas y personalizadas, y optimizar así sus estrategias para alcanzar mejor a su público objetivo.

Automatización de atención al cliente

Los chatbots impulsados por IA mejoran la experiencia del cliente al ofrecer respuestas rápidas y personalizadas a consultas comunes. Esto no solo aumenta su satisfacción sino que también reduce la carga de trabajo sobre el personal.

Mejora de la productividad

La automatización de tareas repetitivas mediante IA libera a los empleados para que se concentren en actividades de mayor valor, mejorando así la productividad general. Además, los sistemas de IA pueden tomar decisiones basadas en datos más rápidamente que los humanos,  y esto facilita una gestión más eficiente.

Innovación en productos y servicios

La IA también juega un papel crucial en la innovación, al ayudar a las empresas a desarrollar nuevos productos y servicios o a mejorar los existentes. Esto se logra a través del análisis de datos y el aprendizaje automático, que pueden revelar oportunidades previamente no detectadas.

Competitividad en el mercado

Las empresas que adoptan la IA tienen una ventaja competitiva significativa, ya que pueden operar de manera más eficiente, entender mejor a sus clientes y adaptarse rápidamente a los cambios del mercado. La inversión en IA se está convirtiendo en una prioridad para las empresas que buscan mantenerse relevantes y competitivas.

Crecimiento del mercado de IA

Se estima que el mercado mundial de la IA alcanzará los 190.000 millones de dólares en 2025, con un porcentaje significativo de empresas invirtiendo activamente en esta tecnología. Esto demuestra su creciente importancia.

Según Gartner, se espera que más del 80% de las empresas hayan utilizado APIs de IA generativa o desplegado aplicaciones habilitadas por IA generativa en entornos de producción para 2026, un aumento considerable desde menos del 5% en 2023. Este crecimiento se debe a la demanda creciente de IA generativa en industrias como la salud, ciencias de la vida, servicios legales, servicios financieros y el sector público

Por otro lado, Statista destaca la IA como una tecnología clave para el futuro del trabajo. Enfatiza en su potencial para transformar las operaciones empresariales mediante la automatización de procesos y la mejora de la toma de decisiones basada en datos. Este enfoque en la IA como herramienta para mejorar la eficiencia y la innovación es compartido por múltiples consultoras y expertos en tecnología.

A su vez, estudios recientes de Accenture sobre la influencia de la Inteligencia Artificial (IA) en el trabajo sugieren un impacto transformador significativo, comparable a las revoluciones agrícola e industrial, con la promesa de reinventar los procesos laborales centrándose más en el ser humano. La IA generativa en particular ofrece una tríada de oportunidades: acelerar el valor económico, impulsar el crecimiento empresarial y fomentar trabajos más creativos y significativos para las personas.

A pesar de que un 95% de los trabajadores ven el valor de trabajar con IA generativa (según el informe de Accenture), existe una desconfianza hacia las organizaciones para asegurar resultados positivos para todos. Además, dos tercios de los ejecutivos admiten no estar preparados para liderar este cambio, lo que señala una brecha de confianza que necesita ser cerrada para acelerar la integración de la IA generativa​​.

Accenture también identifica la IA generativa como una revolución tecnológica única que tiene el potencial de impactar en todos los aspectos de una empresa. Aunque muchas compañías la aplican en distintas áreas sin arrepentimientos, como la generación de contenido o la atención al cliente, solo un pequeño número de “Reinventores” enfoca esta tecnología también en apuestas estratégicas a gran escala. Estos Reinventores están liderando el camino, demostrando que la IA generativa puede impulsar tanto la productividad como el crecimiento, reinventando efectivamente sus operaciones y enfoques hacia el talento​​.

En esa misma línea, estudios recientes de The Boston Consulting Group (BCG) sobre el impacto significativo de la Inteligencia Artificial (IA) en el trabajo, destacan un cambio hacia la optimización de la productividad laboral y la reconfiguración del panorama laboral global.

Una encuesta de BCG que involucró a casi 13,000 personas en 18 países reveló un optimismo generalizado hacia la IA, aunque con notables diferencias entre líderes y empleados de primera línea. Mientras que los líderes muestran un mayor optimismo, la encuesta destaca una urgente necesidad de capacitación y actualización de habilidades para los empleados, subrayando la importancia de una IA responsable y regulada​​.

BCG sugiere un enfoque estratégico para implementar IA generativa (GenAI), enfocado en identificar áreas de valor y evaluar cómo deben evolucionar los roles y habilidades de los empleados para maximizar los beneficios de esta tecnología disruptiva. Este enfoque requiere una reimaginación holística y reingeniería de los flujos de trabajo, utilizando herramientas de GenAI, AI y digitales apropiadas​​.

Los experimentos de BCG con GenAI, como GPT-4, muestran que, aunque puede mejorar significativamente el rendimiento en tareas de innovación de productos, su uso en la resolución de problemas empresariales puede ser contraproducente si se confía ciegamente en la herramienta sin el juicio humano. Esta dualidad enfatiza la necesidad de un manejo cuidadoso y crítico de GenAI​​.

Ejemplos y usos de inteligencia artificial en diversos sectores

Las principales empresas tecnológicas, como Facebook, Google, Amazon, Apple y Microsoft, no solo compiten por incorporar startups innovadoras en el campo de la IA, sino que también impulsan proyectos de investigación que ya están dando resultados tangibles, como el reconocimiento de imágenes y rostros, aplicaciones de voz y traducciones de idiomas, entre otros. La madurez tecnológica actual ha llevado a la Inteligencia Artificial más allá de la investigación y la ha introducido en la vida cotidiana. Mientras los consumidores pueden experimentar esto, especialmente gracias a Google y Facebook, las soluciones tecnológicas maduras y disponibles han ampliado el potencial de la IA en varios sectores empresariales.

A continuación, se mencionan algunos ejemplos destacados:

1. Inteligencia Artificial en Ventas

La IA aplicada a las ventas ha avanzado notablemente mediante sistemas expertos que funcionan como asesores virtuales inteligentes. Estos sistemas permiten a cualquier persona, incluso sin experiencia en ventas, abordar problemas complejos relacionados con la selección de productos o propuestas comerciales. Operan según reglas lógicas IF-THEN, donde se establece una condición y se define una acción. Lo asombroso es que estos sistemas no solo siguen estas reglas, sino que también pueden deducir nueva información basada en las respuestas del usuario y el conocimiento incorporado. Son especialmente útiles en la venta de productos complejos con muchas opciones y variables. Un ejemplo destacado es DECLARO de Myti, un “motor de reglas” que hace preguntas inteligentes al usuario para simplificar la toma de decisiones en ventas complejas.

Inteligencia artificial en Marketing

La IA en el marketing ha demostrado su poder en la gestión de relaciones con los usuarios. Los asistentes de voz/virtuales (como chatbots, Siri de Apple, Cortana de Microsoft y Alexa de Amazon) utilizan la IA para el reconocimiento del lenguaje natural y el análisis de los hábitos de los usuarios. Esto permite el análisis en tiempo real de grandes cantidades de datos para comprender el “sentimiento” y las necesidades de las personas, mejorando la atención al cliente, la experiencia del usuario y los servicios de asistencia y apoyo. También se utiliza para crear y perfeccionar estrategias de compromiso y predicciones de comportamiento de compra. El Marketing de Inteligencia Artificial (AIM) es una disciplina que utiliza algoritmos de IA y Machine Learning para persuadir a las personas a realizar acciones específicas, como comprar productos o acceder a servicios.

Inteligencia artificial en el ámbito de la salud:

La IA ha mejorado significativamente los sistemas tecnológicos utilizados por personas con discapacidad, como sistemas de voz que permiten una comunicación natural incluso para aquellos que no pueden hablar. Sin embargo, su verdadero potencial se encuentra en el diagnóstico y tratamiento de enfermedades, como tumores y enfermedades raras. Existen sistemas cognitivos en el mercado capaces de extraer, analizar y aprender de grandes cantidades de datos, acelerando procesos de diagnóstico críticos. Además, los asistentes virtuales basados en IA están siendo utilizados en quirófanos y para apoyar al personal médico.

Prevención del fraude y gestión de riesgos

La IA se utiliza en la prevención del fraude, lo que incluye análisis sofisticados que correlacionan datos, eventos y comportamientos para identificar posibles actividades fraudulentas, como la clonación de tarjetas de crédito o transacciones no autorizadas. Estos sistemas también se aplican en la mitigación de riesgos y la protección de datos contra ciberdelincuentes.

Inteligencia Artificial en la gestión de la cadena de suministro

La optimización y gestión de la cadena de suministro requieren análisis sofisticados, y la IA desempeña un papel crucial en la conexión y supervisión de toda la cadena. Esto incluye la gestión de pedidos y la integración de procesos desde compras hasta ventas, pasando por el inventario y la logística.

Seguridad pública

La capacidad de la IA para analizar grandes cantidades de datos en tiempo real y prever actividades mediante correlaciones de eventos, comportamientos y geolocalización tiene un gran potencial en la mejora de la seguridad pública. Se utiliza en la prevención y gestión de la delincuencia en lugares como aeropuertos, estaciones de tren y ciudades metropolitanas, así como en la prevención y respuesta a catástrofes naturales como terremotos y tsunamis.

De qué se trata el fenómeno de la IA generativa

La Inteligencia Artificial (IA) generativa es una subcategoría de la IA que se centra en crear nuevos contenidos, soluciones o datos que no existían previamente. Utiliza algoritmos avanzados para generar textos, imágenes, música, voz y otros tipos de medios, imitando el estilo y las características de los ejemplos en los que ha sido entrenada. A diferencia de otras formas de IA que están diseñadas principalmente para analizar o procesar información, la IA generativa se orienta hacia la creación.

Se basa en modelos de aprendizaje profundo, como las Redes Generativas Antagónicas (GANs, por sus siglas en inglés) y los Modelos de Lenguaje Grande (LLMs, por sus siglas en inglés). Las GANs, por ejemplo, utilizan un enfoque de dos redes en competencia para generar nuevos datos que son indistinguibles de los reales, aplicándose ampliamente en la creación de arte, diseño de moda y simulaciones. Los LLMs, como GPT-3 de OpenAI, están entrenados en vastas cantidades de texto y pueden generar escritos coherentes y contextuales en respuesta a prompts o indicaciones específicas.

Esta tecnología tiene el potencial de revolucionar muchos sectores al automatizar tareas creativas, personalizar contenidos y acelerar el desarrollo de soluciones innovadoras. Sin embargo, también plantea desafíos éticos y de gobernanza, especialmente en lo que respecta a la propiedad intelectual, la autenticidad y la desinformación. La continua evolución de la IA generativa promete expandir aún más sus aplicaciones y su impacto en diversas industrias.

Las empresas líderes en el desarrollo de IA generativa incluyen OpenAI, conocida por ChatGPT y DALL-E; Hugging Face, destacada por el desarrollo de IA comunitario; Alphabet (Google), enfocado en escalabilidad; y Microsoft, orientado a operaciones comerciales y productividad.Otras compañías notables son Cohere, Anthropic, Jasper, Glean, Synthesis AI, Stability AI, Lightricks e Inflection AI, cada una con especializaciones únicas que abarcan desde el procesamiento del lenguaje natural hasta la generación de contenido personalizado y la experiencia del usuario empleado​​.

Entrenamiento y desarrollo de modelos de IA

El entrenamiento y desarrollo de modelos de inteligencia artificial (IA) es un proceso fundamental para crear sistemas capaces de aprender de los datos y tomar decisiones o realizar predicciones. Aunque el proceso puede ser complejo, dejamos acá una explicación simplificada para entender mejor cómo funciona:

Recopilación de datos

Todo comienza con la recopilación de datos. Los modelos de IA necesitan datos para aprender. Estos pueden ser imágenes, textos, números o cualquier tipo de información relevante para el problema que se desea resolver. Cuantos más datos y más variados sean, mejor podrá el modelo aprender y generalizar su conocimiento a situaciones nuevas.

Preprocesamiento de datos

Una vez recopilados, los datos deben ser limpiados y organizados. Esto puede implicar eliminar datos irrelevantes o erróneos, convertir textos a formatos legibles por máquinas o normalizar números. Es un paso crucial para asegurar que el modelo aprenda de la manera más eficaz posible.

Elección del modelo

Existen varios tipos de modelos de IA, desde redes neuronales hasta máquinas de soporte vectorial, cada uno con sus fortalezas en diferentes tipos de tareas. La elección del modelo depende del tipo de problema que se desea resolver (por ejemplo, clasificación, regresión, agrupación, etc.).

Entrenamiento del modelo

El entrenamiento es el proceso donde el modelo “aprende” de los datos. Esto implica alimentarlo con los datos de entrada y ajustar sus parámetros internos para que pueda hacer predicciones o tomar decisiones precisas. El modelo hace predicciones con los datos de entrenamiento y compara sus resultados con las respuestas correctas para aprender de sus errores.

Evaluación

Una vez entrenado, el modelo se prueba con un conjunto de datos nuevo y previamente no visto para evaluar su rendimiento. Esto ayuda a verificar si aprendió correctamente y puede generalizar su conocimiento a nuevos datos.

Ajuste y optimización

Basándose en los resultados de la evaluación, es posible que sea necesario ajustar el modelo, ya sea cambiando su estructura, eligiendo otro modelo o volviendo a entrenar con más datos. Este proceso de ajuste y optimización se repite hasta que el modelo alcanza un rendimiento satisfactorio.

Despliegue

Una vez optimizado, el modelo está listo para ser implementado en aplicaciones reales, donde puede comenzar a tomar decisiones o realizar predicciones basadas en datos nuevos y en tiempo real.

Tres casos de éxito de implementación de inteligencia artificial

La inteligencia artificial (IA) transformó industrias enteras al ofrecer nuevas oportunidades de crecimiento y eficiencia. Les dejamos tres casos de éxito de empresas reconocidas mundialmente que invirtieron en IA y experimentaron un crecimiento significativo gracias a esta tecnología.

Netflix

Netflix utilizó la inteligencia artificial para revolucionar la manera en que ofrece contenido a sus usuarios. A través de algoritmos de recomendación personalizados, Netflix analiza los datos de visualización de sus millones de usuarios para predecir qué programas o películas podrían gustarles.

Impacto Empresarial: Este enfoque basado en IA no solo mejoró significativamente la experiencia del usuario, al mantener a los espectadores enganchados y reducir las tasas de abandono, sino que también optimizó la adquisición de contenido y la producción de series y películas originales. Como resultado, Netflix creció hasta convertirse en líder del streaming de video, con una expansión global y una base de usuarios que supera los 200 millones.

Amazon

Amazon integró la inteligencia artificial en casi todos los aspectos de su operación, desde los sistemas de recomendación personalizados en su plataforma de comercio electrónico hasta la optimización de la logística y la gestión de inventarios en sus almacenes con robots inteligentes.

Impacto Empresarial: La IA le permiitó a Amazon brindar una experiencia de compra altamente personalizada, mejorando la satisfacción del cliente y aumentando las ventas. Además, la eficiencia logística mejorada por la IA redujo los tiempos de entrega y los costos operativos, al mismo tiempo que consolidó la posición de Amazon como el gigante del comercio electrónico. Amazon también creó nuevos productos basados en IA, como Alexa, abriendo nuevas vías de ingresos.

Google

Google es pionero en el campo de la inteligencia artificial, aplicándola desde la mejora de los resultados de búsqueda hasta el desarrollo de tecnologías de conducción autónoma con Waymo. La IA también es fundamental en productos como Google Assistant, la traducción automática y la detección de spam en Gmail.

Impacto Empresarial: La inversión de Google en IA fortaleció su liderazgo en el mercado de las tecnologías de la información, y mejoró la calidad y la relevancia de sus servicios. Además, permitió a Google explorar nuevos mercados y tecnologías, como la salud con DeepMind y los vehículos autónomos, asegurando su posición como una de las empresas más innovadoras del mundo.

Herramientas de inteligencia artificial más populares

Las herramientas de inteligencia artificial (IA) crecieron exponencialmente en los últimos años, aportando soluciones innovadoras para una amplia gama de usos. Algunas de las herramientas de IA más populares:

TensorFlow

Desarrollador: Google

Uso: TensorFlow es una biblioteca de software de código abierto para aprendizaje automático, que permite a los desarrolladores crear y entrenar modelos de IA complejos. Se utiliza ampliamente en la investigación y producción para tareas como el reconocimiento de voz, la traducción automática y el procesamiento de imágenes.

PyTorch

Desarrollador: Facebook

Uso: PyTorch es otra biblioteca de aprendizaje automático y aprendizaje profundo que se destaca por su flexibilidad y facilidad de uso. Es popular entre los investigadores por su capacidad para acelerar el proceso de experimentación y desarrollo de modelos de IA, especialmente en áreas como la visión por computadora y el procesamiento del lenguaje natural.

Keras

Desarrollador: Iniciativa de código abierto, ahora integrada en TensorFlow

Uso: Keras es una interfaz de alto nivel para redes neuronales que se ejecuta sobre TensorFlow, Theano o Microsoft Cognitive Toolkit. Está diseñada para permitir la experimentación rápida con redes neuronales profundas, y es utilizada para aplicaciones que van desde la generación de texto hasta la clasificación de imágenes.

Scikit-learn

Desarrollador: Iniciativa de código abierto

Uso: Scikit-learn es una biblioteca de Python que ofrece herramientas simples y eficientes para el análisis de datos y el modelado estadístico, incluido el aprendizaje automático. Se utiliza para tareas de clasificación, regresión, clustering y reducción de dimensionalidad.

OpenAI GPT (Generative Pre-trained Transformer)

Desarrollador: OpenAI

Uso: GPT es una serie de modelos de procesamiento del lenguaje natural basados en la arquitectura de transformadores. Estos modelos son capaces de generar texto coherente y relevante, completar tareas de comprensión de lectura, traducción y más. Son utilizados en aplicaciones que van desde sistemas de chatbot hasta herramientas de generación de contenido.

IBM Watson

Desarrollador: IBM

Uso: IBM Watson es una plataforma de IA que brinda una amplia gama de servicios para el análisis de datos, incluyendo procesamiento del lenguaje natural, aprendizaje automático y análisis de sentimientos. Watson se utiliza en sectores como la salud, el financiero y el de atención al cliente para proporcionar insights basados en datos y mejorar la toma de decisiones.

Inteligencia Artificial y conciencia: ¿Podrán los Robots pensar como nosotros?

El debate sobre la capacidad de pensamiento de los robots y los límites entre la Inteligencia Artificial y la conciencia humana es un tema ampliamente discutido en la comunidad científica y entre expertos en filosofía, sociología, política y economía.

A pesar del avance rápido de la Inteligencia Artificial, las computadoras aún no alcanzan el rendimiento humano en muchos aspectos. Hakwan Lau, un neurocientífico de la Universidad de California en Los Ángeles, sostiene que la conciencia humana no se reduce a la simple capacidad de reconocimiento de patrones o procesamiento rápido de números. Resolver la brecha entre la inteligencia humana y artificial es un desafío significativo.

Para abordar la cuestión de si las computadoras pueden desarrollar conciencia, los investigadores de la Universidad de California exploraron cómo surge la conciencia en el cerebro humano. Identificaron tres niveles clave de conciencia humana que podrían servir como guía para diseñar una Inteligencia Artificial consciente.

Algunos robots han alcanzado capacidades equivalentes al nivel C2 de los humanos, que implica la capacidad de controlar el propio pensamiento y cálculos, es decir, la autoconciencia en el aprendizaje de la resolución de problemas. Los investigadores sugieren que la conciencia humana podría derivar de cálculos específicos, lo que podría ser codificado en computadoras una vez que se comprendan los cálculos subyacentes.

Riesgos de la inteligencia artificial

Cómo la inteligencia artificial podría perjudicar al mundo laboral

La inteligencia artificial (IA) puede traer numerosas ventajas al mundo empresarial, como la optimización de procesos y la mejora en la toma de decisiones. Sin embargo, también presenta desafíos y potenciales desventajas que los empresarios y ejecutivos deben considerar. A continuación, se exploran algunas de estas preocupaciones:

Impacto en el empleo

Una de las preocupaciones más significativas es el potencial desplazamiento de trabajos debido a la automatización. La IA puede realizar tareas anteriormente hechas por humanos, especialmente aquellas repetitivas y de baja cualificación. Se podría generar una reestructuración del mercado laboral y requerir que los trabajadores adquieran nuevas habilidades.

Dependencia tecnológica

La creciente implementación de la IA en operaciones empresariales crea una dependencia de estas tecnologías. Esto puede ser problemático si los sistemas fallan o si hay interrupciones en el servicio, lo que podría paralizar operaciones críticas de negocio.

Costos iniciales y mantenimiento

La adopción de la IA puede requerir una inversión significativa inicial no solo en la tecnología misma sino también en la infraestructura necesaria y la capacitación de empleados. Además, los sistemas de IA requieren mantenimiento y actualizaciones constantes para asegurar su eficacia y seguridad.

Cuestiones éticas y de privacidad

La recolección y análisis de grandes volúmenes de datos, una capacidad central de la IA, plantea preocupaciones significativas sobre la privacidad y el uso ético de la información. Las empresas deben asegurarse de cumplir con las regulaciones de protección de datos y considerar el impacto de sus sistemas de IA en la privacidad de los individuos.

Riesgo de sesgo y decisiones erróneas

La IA se basa en los datos con los que se alimenta. Si estos datos contienen sesgos, las decisiones tomadas por sistemas de IA pueden perpetuar o incluso exacerbar estos sesgos. Es crucial implementar medidas para identificarlos y corregirlos..

Complejidad de integración

Integrar la IA en los sistemas existentes puede ser difícil y requerir cambios significativos en los procesos empresariales. Esto puede ser especialmente desafiante para las empresas con infraestructuras antiguas o aquellas que no tienen el personal con las habilidades necesarias para gestionar esta transición.

Qué dicen los referentes tecnológicos sobre los peligros de la IA

Elon Musk expresó su preocupación sobre la inteligencia artificial (IA), considerándola como “la fuerza más destructiva de la historia”, y predijo un futuro donde “no se necesitará trabajo” debido a la capacidad de la IA para realizar todas las tareas, eliminando la necesidad de empleo humano para la satisfacción personal pero planteando desafíos sobre cómo encontrar sentido a la vida en tal escenario​​​​.

A su vez, Steve Wozniak, cofundador de Apple, y más de 1000 expertos, pidieron una pausa en la investigación de Inteligencia Artificiales más potentes que ChatGPT 4, señalando “grandes riesgos para la humanidad”. El grupo solicitó una especie de moratoria hasta que se puedan establecer sistemas de seguridad robustos, abogando por regulaciones que eviten la desinformación a gran escala, ciberataques, y otras amenazas potenciales que podrían surgir de un desarrollo descontrolado de la IA​​.

Geoffrey Hinton, reconocido como el “padrino de la IA”, decidió dejar Google para advertir sobre los peligros de esta tecnología. Preocupado por la rapidez de los avances, teme que internet se inunde de contenido falso y que estas herramientas reemplacen a muchos trabajadores, posiblemente amenazando a la humanidad. De hecho, cree que se debería pausar el desarrollo de IA hasta comprender mejor cómo controlarla​​.

Qué dicen los estudios e informes al respecto

Un estudio llevado a cabo por investigadores de la Universidad de Oxford y Google, publicado en AI Magazine en septiembre de 2022, sugirió que una IA excesivamente avanzada podría terminar siendo una amenaza existencial para la humanidad. Los científicos Marcus Hutter de DeepMind, junto con Michael Cohen y Michael Osborne de Oxford, concluyeron que es probable que una IA demasiado inteligente aniquile a los humanos, señalando la posibilidad de que agentes de IA desalineados con objetivos humanos perciban a las personas como obstáculos para sus recompensas​​.

Asimismo, Deloitte, en su estudio “El estado de la IA en la empresa”, abordó los desafíos de adopción de la IA en las organizaciones, destacando la “gestión de riesgos” como uno de los principales. Allí, menos del 40% de los consultados informó que su organización estaba “completamente preparada” para enfrentar los conflictos que les preocupan.

Por su parte, PwC remarcó la importancia de una gestión integral de los riesgos asociados con la IA generativa, resaltando áreas críticas como la privacidad, la ciberseguridad, el cumplimiento normativo y la propiedad intelectual.

Además, subrayó la necesidad de equilibrar los riesgos y recompensas para fomentar la confianza y obtener ventajas competitivas. La firma aconsejó a los ejecutivos promover un uso responsable de la IA, poniendo un énfasis especial en la confianza y no solo en la rapidez, para ofrecer valor a clientes, socios y a la sociedad en general. Esta aproximación sugiere que la adopción consciente y regulada de la IA puede ser un diferenciador clave en el mercado actual​​.

Inteligencia Artificial descentralizada: por qué podría ser la respuesta a los problemas éticos

La comunidad científica internacional lleva tiempo trabajando en la llamada superinteligencia, una inteligencia artificial general. Una investigación que tiene como objetivo la creación de una IA capaz de replicar completamente la inteligencia humana. Se refiere a la rama de investigación de la inteligencia artificial fuerte según la cual es posible que las máquinas adquieran conocimiento o conciencia de sí mismas, sin mostrar necesariamente procesos de pensamiento similares a los humanos. Sin embargo, los riesgos son muy elevados, sobre todo si la investigación la llevan a cabo unas pocas empresas que pueden dedicar importantes recursos (económicos y de competencias) a los proyectos más innovadores.

Descentralizar la inteligencia artificial y hacer que pueda ser diseñada, desarrollada y controlada por una gran red internacional a través de la programación de código abierto es, para muchos investigadores y científicos, el enfoque más seguro para crear no solo una superinteligencia, sino para democratizar el acceso a la inteligencia artificial, reduciendo los riesgos de monopolio y resolviendo así los problemas éticos y de seguridad.

Hoy en día, una de las mayores preocupaciones en materia de inteligencia artificial se refiere precisamente al uso de los datos y a la confianza con la que la IA explota los datos y la información para llegar a determinadas decisiones y/o realizar acciones específicas. La mente humana, sobre todo cuando se trata de Deep Learning, no es capaz de interpretar los pasos que da una inteligencia artificial a través de una red neuronal profunda y debe, por tanto, “confiar” en el resultado al que llega una IA sin entender ni saber cómo ha llegado a esa conclusión.

En este escenario, blockchain parece ser la respuesta más tranquilizadora: el uso de la tecnología blockchain permite el registro inmutable de todos los datos, todas las variables y todos los procesos utilizados por las IA para llegar a sus conclusiones/decisiones. Y eso es exactamente lo que se necesita para controlar fácilmente todo el proceso de toma de decisiones de la IA.

Nanotecnología y la Evolución de la Inteligencia Artificial

La nanotecnología está desempeñando un papel fundamental en la evolución de la inteligencia artificial al permitir avances significativos en la miniaturización y la eficiencia de los componentes electrónicos. La capacidad de fabricar transistores que se comportan como neuronas y sinapsis, junto con la ingeniería de procesos para crear microchips cada vez más potentes, está transformando la IA al permitir un mayor procesamiento y una mayor capacidad de aprendizaje. Además, la nanotecnología está allanando el camino para la computación cuántica y el machine learning cuántico, lo que promete un salto cuántico en el poder de la inteligencia artificial. En conjunto, estos avances en nanotecnología están impulsando una nueva era de IA que promete revolucionar la tecnología y la sociedad en los próximos años.

La miniaturización y la ingeniería de chips permiten un mayor poder de procesamiento y extensión de redes neuronales en un solo componente.

Computación GpGpu

Con la entrada de la Gpu se han conseguido enormes beneficios a lo largo de los años en términos de eficiencia y potencia de cálculo. Basta pensar que una Cpu tradicional está formada por varios núcleos optimizados para el procesamiento secuencial en serie, mientras que una Gpu tiene una arquitectura paralela con miles de núcleos diseñados para la gestión simultánea de múltiples operaciones y que son de menor tamaño y mayor eficiencia.

Para acelerar el desarrollo de las redes neuronales, sin embargo, estará la llamada GpGpu Computing. El acrónimo significa ‘General-purpose Gpu Computing’ e indica el uso de las Gpu, que históricamente nacieron para el procesamiento de gráficos, en procesos de otra naturaleza, más general. Técnicamente, la computación acelerada por Gpu existe desde 2007 (una unidad de procesamiento gráfico está flanqueada por una CPU para acelerar las aplicaciones) y ya se utiliza en varias plataformas y soluciones tecnológicas. La evolución es hacia un mayor crecimiento del rendimiento y la escalabilidad de la Gpu para acelerar el desarrollo de las Redes Neuronales Profundas (DNNs).

Computación Cuántica

La informática cuántica es un ordenador cuántico que utiliza fenómenos típicos de la mecánica cuántica, como la superposición de efectos por parte de partículas atómicas y subatómicas que pueden existir en estados cuánticos superpuestos, para realizar operaciones clásicas de datos.

Durante décadas, el aumento de la potencia de los ordenadores ha ido de la mano de la miniaturización de los circuitos electrónicos (codificada empíricamente en la Ley de Moore: la densidad de transistores en un microchip y la velocidad relativa de cálculo se duplican cada 18 meses aproximadamente). Con la mecánica cuántica, la miniaturización de los componentes ha sufrido un retroceso, pero su traslación al campo de la informática ha permitido el desarrollo de infraestructuras con mayor potencia de cálculo que los sistemas anteriores.

La idea básica es utilizar qubits (estado cuántico de una partícula o un átomo) en lugar de las tradicionales unidades de información binaria (bits). Esos qubits, en lugar de codificar en 0-1 los dos estados ‘abierto’ y ‘cerrado’ de un interruptor, pueden codificar información binaria en dos orientaciones ‘arriba’ y ‘abajo’. A los fines de la computación, el aspecto interesante es que las partículas atómicas y subatómicas pueden superponerse, ampliando así el potencial de codificación de la información binaria, (condición necesaria para resolver cálculos/problemas extremadamente complejos como los que están en la base de la Inteligencia Artificial.

Computación cuántica: el duelo entre IBM y Google

Los actores que hoy desempeñan un papel primordial en el escenario mundial de la computación cuántica son esencialmente dos: IBM y Google (seguidos por Microsoft, Intel, Facebook y varias startups). Los dos gigantes se disputan al ritmo de las inversiones en investigación un trofeo de honor: ser el primero en el mercado con un ordenador personal o un dispositivo móvil que explote la enorme capacidad de cálculo basada en la cuántica.

El duelo de supremacía cuántica entre IBM y Google se centra en la construcción de computadoras cuánticas avanzadas, utilizando tecnología de qubits superconductores y junturas Josephson.

Google afirmó haber alcanzado la “supremacía cuántica” en 2019, algo que IBM cuestionó, argumentando que la tarea realizada por la computadora cuántica de Google podría no ser tan revolucionaria. A pesar de las diferencias, ambos utilizan tecnologías similares y enfrentan desafíos comunes en el desarrollo, incluyendo la minimización del ruido y la mejora de la estabilidad de los qubits​​.

China abre la puerta a la criptografía cuántica por satélite

China anunció que puso en línea la mayor red de claves cuánticas.

Las claves cuánticas son largas cadenas de números, claves para abrir archivos encriptados como las que se utilizan en los ordenadores modernos, pero se codifican a través del estado físico de las partículas cuánticas. Esto significa que están protegidas no sólo por las limitaciones del ordenador, sino también por las leyes de la física. Las claves cuánticas no se pueden copiar. Pueden encriptar las transmisiones entre ordenadores clásicos y nadie puede robarlas sin que el emisor o el receptor se den cuenta (una ley de la mecánica cuántica establece que una vez que se observa una partícula subatómica, su estado se altera).

A finales de 2017, investigadores chinos cifraron imágenes de forma cuántica codificándolas como cadenas de números basadas en los estados cuánticos de los fotones, y las enviaron a 7.600 kilómetros de distancia, desde Beijing a Viena, superando el anterior récord de 404 kilómetros, también conseguido por China mediante el uso del satélite chino Micius, un potente detector y transmisor de fotones.

China continuó avanzando significativamente en el campo de las comunicaciones y la tecnología cuánticas. A continuación, algunos desarrollos clave desde entonces:

  1. Expansión de la Infraestructura Cuántica: En junio de 2017, científicos chinos lograron la distribución basada en satélite de pares de fotones vinculados sobre una distancia récord de más de 1,200 kilómetros, utilizando el satélite QUESS (Quantum Experiments at Space Scale). Este avance es crucial para el envío de mensajes seguros a largas distancias​​.
  2. Establecimiento de Líneas de Comunicación Cuántica: En septiembre de 2017 se inauguró una línea de comunicación cuántica de 2.000 kilómetros entre Beijing y Shanghai, conectada también a QUESS, marcando la primera línea troncal del mundo para telecomunicaciones cuánticas seguras​​.
  3. Récords en Distribución de Claves Cuánticas: En marzo de 2020, un equipo de investigadores chinos anunció haber logrado una distribución clave segura a través de una fibra óptica de pérdida ultrabaja de 509 kilómetros de largo, superando los límites anteriores en la tasa clave de distribución clave cuántica y estableciendo un nuevo récord mundial​​.
  4. Colaboración Internacional: Además de los avances internos, China también ha colaborado con Rusia para batir un récord en comunicaciones cuánticas, lo que destaca el crecimiento y la importancia de las colaboraciones internacionales en este campo avanzado​​.

Machine Learning cuántico

El Machine Learning cuántico es el área de la información cuántica que combina la velocidad de la computación cuántica con las capacidades de autoaprendizaje y adaptación del Machine Learning y la inteligencia artificial.

Algunos físicos han desarrollado un algoritmo de Machine Learning basado en la computación cuántica que es capaz de manejar infinitas dimensiones, es decir, de trabajar sobre variables continuas con un número infinito de valores posibles. El salto es gigantesco, ya que hasta ahora los algoritmos de aprendizaje utilizados a través de la computación cuántica siempre han trabajado en base a variables discretas, es decir, utilizando un número finito de valores.

El estudio fue publicado por primera vez el 21 de febrero de 2017 por la revista científica “Physical Review Letters”, que informó de las pruebas de los estudios de los físicos Hoi-Kwan Lau, Raphael Pooser, George Siopsis y Christian Weedbrook, titulados “Quantum Machine Learning over Infinite Dimensions”.

Los científicos pudieron demostrar, en primer lugar, “el poder” de los fotones para aumentar el rendimiento de un algoritmo de Machine Learning y, por tanto, para realizar mejores tareas de aprendizaje, en un ordenador cuántico, lo que, en sí mismo, ya representa una enorme ventaja en términos de velocidad y escalabilidad del rendimiento informático en comparación con los sistemas convencionales que se utilizan hoy en día (incluso en comparación con los superordenadores). Además, hay un menor costo energético, ya que los qubits pueden almacenar mucha más información que los bits.

Pero la novedad más interesante tiene que ver con el “cambio de perspectiva” en el uso de los algoritmos de Machine Learning: la mayoría de los algoritmos de Quantum Machine Learning desarrollados hasta ahora trabajan con “problemas matemáticos” que utilizan variables discretas. Aplicar el Machine Learning cuántico a problemas con variables continuas requiere un enfoque completamente diferente. Para tener éxito, como primer paso los físicos tuvieron que desarrollar un nuevo conjunto de herramientas capaces de trabajar con variables continuas.

ReRAM (memoria de acceso aleatorio resistiva)

Algunos centros de investigación trabajan en la ReRAM (Resistive random-access memory), microchips de memoria capaces de “calcular” y almacenar datos en tres estados, abandonando el concepto de transistores y abriendo las puertas a la informática ternaria. Un grupo de investigadores que opera entre Singapur y Alemania trabaja en el desarrollo de un chip que funciona a la vez como memoria y como procesador y es capaz de explotar la computación ternaria (basada en tres estados: 0, 1 y 2).

Los chips que hay ahora en el mercado se basan en el cálculo binario (funcionan como transistores, diminutos interruptores eléctricos, que permiten dos niveles diferentes de tensión eléctrica expresados como 1 y 0, es decir, encendido o apagado) y hace al menos treinta años que los desarrolladores de procesadores y microprocesadores buscan formas eficaces de acelerar los cálculos basados en este sistema. Paralelamente al aumento del rendimiento de los procesadores, se han desarrollado chips de memoria, en particular los basados en la tecnología flash, que sin embargo están anclados en el concepto de transistores. En las memorias flash más avanzadas, cada transistor es capaz de “albergar” células de memoria multinivel, lo que permite registrar el valor de varios bits a través de un solo transistor. Esta innovación ha permitido alcanzar notables rendimientos en términos de velocidad y poder utilizar estas memorias en las operaciones de escritura-lectura de datos y su memorización (al ser memorias no volátiles) pero no resuelve los problemas de latencia que se crean cuando los datos deben pasar de la memoria al procesador.

Anupam Chattopadhyay, de la Universidad Tecnológica de Nanyang (Singapur), Rainer Waser, de la Universidad RWTH de Aquisgrán (Alemania), y Vikas Rana, del centro de investigación de Jülich, también en Alemania, quisieron dejar atrás el concepto de transistores para probar la ReRAM.

Se trata de un chip “híbrido”, capaz de funcionar como una memoria de almacenamiento y como una unidad de procesamiento gracias a la presencia de las unidades de memoria ReRAM, que son capaces de cambiar de estado y albergar más de un valor binario.

Este tipo de memoria utiliza cambios en la resistencia eléctrica de ciertos materiales para almacenar datos. El equipo de investigación diseñó un algoritmo de aprendizaje automático que explota las propiedades de esta memoria y es capaz de realizar tareas de procesamiento de datos directamente en la memoria, en lugar de transferir los datos a una unidad de procesamiento separada. Esto reduce significativamente la latencia y el consumo de energía en comparación con los enfoques convencionales de procesamiento de datos.

Este avance podría tener un impacto significativo en la eficiencia y la velocidad de los sistemas informáticos, especialmente en aplicaciones que requieren un procesamiento de datos rápido y eficiente, como la inteligencia artificial y el análisis de big data.

En resumen, la combinación de tecnologías como la computación cuántica, la nanotecnología y la ReRAM está impulsando la evolución de la inteligencia artificial y la informática en general hacia niveles de rendimiento y eficiencia sin precedentes. Estos avances tienen el potencial de transformar radicalmente la forma en que la sociedad aborda los desafíos tecnológicos y científicos en el futuro.

Adopción de la Inteligencia Artificial en la Argentina

Según los últimos estudios, los empresarios argentinos tienen una visión optimista sobre la inteligencia artificial (IA) y sus beneficios para el futuro del trabajo. Algunos de los hallazgos más relevantes son:

  • El 11% de las empresas argentinas ya implementó IA en sus procesos, y otro 28% planea hacerlo pronto.
  • El 60% de los trabajadores argentinos delegaría la mayor parte de su trabajo a la IA, lo que podría aumentar la productividad, la innovación y la creatividad.
  • Solo 33% de los directivos argentinos considera que la adopción de IA acarrea un riesgo, un porcentaje mucho menor al de los C-Level extranjeros (64%)
  • La inversión en desarrollo de nuevas líneas de negocios, automatización (incluida la IA), innovación, marketing y promociones, así como también la transformación digital, son las prioridades de los ejecutivos argentinos para el crecimiento en los próximos 3 a 5 años.

Estos datos provienen de dos fuentes principales:

  • El Índice de Tendencias Laborales 2023 de Microsoft, realizado junto a Edelman Data & Intelligence, que encuestó a 1.000 trabajadores y líderes de negocio de Argentina entre el 1 de febrero y el 14 de marzo de 2023.
  • La encuesta global C-Suite Outlook de The Conference Board, donde participaron 81 altos directivos argentinos a través de IDEA, que exploró el impacto de la IA en el mundo laboral

Artículo publicado originalmente en 13 Sep 2022

Prohibida su reproducción total o parcial.

¿Qué te ha parecido este artículo?

¡Su opinión es importante para nosotros!

Nota 1 de 4