¿Qué es la inteligencia artificial (IA)?

Representación 3D de un cerebro rodeado de iconos de chat

¿Qué es la IA? 

La inteligencia artificial (IA) es una tecnología que permite a los ordenadores y a las máquinas simular el aprendizaje, la comprensión, la resolución de problemas, la toma de decisiones, la creatividad y la autonomía humanas.

Las aplicaciones y dispositivos equipados con IA pueden ver e identificar objetos. Pueden comprender y responder al lenguaje humano. Pueden aprender de nueva información y experiencia. Pueden hacer recomendaciones detalladas a los usuarios y expertos. Pueden actuar de forma autónoma, por lo que no es necesaria la inteligencia o intervención humana (un ejemplo clásico es un coche autónomo).

Sin embargo, en 2024, la mayoría de los investigadores y profesionales del ámbito de la IA, así como la mayoría de las noticias relacionadas con esta tecnología, se centran en los avances de la IA generativa, una tecnología capaz de crear textos, imágenes, vídeos y otros contenidos originales. Para comprender plenamente la IA generativa, es importante conocer primero las tecnologías en las que se basan las herramientas de IA generativa: el machine learning (ML) y el deep learning.

Machine learning

Una forma sencilla de entender la IA es como una serie de conceptos anidados o derivados que han ido surgiendo a lo largo de más de 70 años:

Diagrama que compara distintos tipos de conceptos de machine learning en forma de cuadros anidados en tonos azulados. Cómo se relacionan la inteligencia artificial, el machine learning, el deep learning y la IA generativa.

Justo por debajo de la IA se encuentra el machine learning, que consiste en crear modelos mediante el entrenamiento de un algoritmo para que realice predicciones o tome decisiones basadas en datos. Abarca una amplia gama de técnicas que permiten a los ordenadores aprender de los datos y hacer inferencias basadas en ellos sin estar explícitamente programados para tareas específicas.

Existen muchos tipos de técnicas o algoritmos de machine learning, como la regresión linealla regresión logística, los árboles de decisión, los bosques aleatorios, las máquinas de vectores de soporte (SVM), el k-vecino más cercano (KNN), la agrupación en clústeres y más. Cada uno de estos enfoques es adecuado para distintos tipos de problemas y datos.

Sin embargo, uno de los tipos más populares de algoritmos de machine learning es la red neuronal (también conocida como red neuronal artificial). Las redes neuronales se basan en la estructura y el funcionamiento del cerebro humano. Están compuestas por nodos interconectados que procesan información de manera similar a las neuronas biológicas. Son muy adecuadas para tareas que implican identificar patrones y relaciones complejos en grandes cantidades de datos.

La forma más simple de machine learning es el el aprendizaje supervisado, que implica el uso de conjuntos de datos etiquetados para entrenar algoritmos y clasificar datos o predecir resultados con precisión. En el aprendizaje supervisado, los humanos emparejan cada ejemplo de entrenamiento con una etiqueta de output. El objetivo es que el modelo aprenda la asignación entre entradas y outputs en los datos de entrenamiento, de modo que pueda predecir las etiquetas de los datos nuevos e invisibles.

Deep learning

El deep learning es un subconjunto del machine learning que utiliza redes neuronales multicapa, llamadas redes neuronales profundas, que simulan de manera más cercana el complejo poder de toma de decisiones del cerebro humano.

Las redes neuronales profundas incluyen una capa de entrada, al menos tres, pero normalmente cientos de capas ocultas, y una capa de salida, a diferencia de las redes neuronales utilizadas en los modelos clásicos de machine learning, que suelen tener sólo una o dos capas ocultas.

Estas múltiples capas permiten el aprendizaje no supervisado: pueden automatizar la extracción de características de conjuntos de datos grandes, no etiquetados y no estructurados, y hacer sus propias predicciones sobre lo que representan los datos.

Dado que el deep learning no requiere intervención humana, permite el machine learning a gran escala. Es muy adecuado para el procesamiento del lenguaje natural (PLN), la visión artificial y otras tareas que implican la identificación rápida y precisa de patrones y relaciones complejos en grandes cantidades de datos. Algunas formas de deep learning impulsan la mayoría de las aplicaciones de inteligencia artificial (IA) en nuestras vidas hoy en día.

Diagrama que muestra cómo se procesan los datos en una red neuronal profunda. En una red neuronal profunda, múltiples capas de nodos pueden extraer el significado y las relaciones de grandes volúmenes de datos no estructurados ni etiquetados.

El deep learning también permite:

  • El aprendizaje semisupervisado, que combina el aprendizaje supervisado y el no supervisado mediante el uso de datos etiquetados y no etiquetados para entrenar modelos de IA para tareas de clasificación y regresión.

  • El aprendizaje autosupervisado, que genera etiquetas implícitas a partir de datos no estructurados, en lugar de confiar en conjuntos de datos etiquetados para señales de supervisión.

  • El aprendizaje por refuerzo, que aprende mediante funciones de prueba y error y recompensa en lugar de extraer información de patrones ocultos.

  • El aprendizaje por transferencia, en el que los conocimientos adquiridos a través de una tarea o conjunto de datos se utilizan para mejorar el rendimiento del modelo en otra tarea relacionada o conjunto de datos diferente.

Generative AI

La IA generativa se refiere a los modelos de deep learning capaces de crear contenidos originales y complejos, como textos extensos, imágenes de alta calidad, vídeos o audios realistas, entre otros, en respuesta a las instrucciones o solicitudes de un usuario.

A un alto nivel, los modelos generativos codifican una representación simplificada de sus datos de entrenamiento y, a continuación, se basan en esa representación para crear un nuevo trabajo que es similar, pero no idéntico, a los datos originales.

Los modelos generativos se han utilizado durante años en estadística para analizar datos numéricos. Pero en la última década, evolucionaron para analizar y generar tipos de datos más complejos. Esta evolución coincidió con la aparición de tres tipos sofisticados de modelos de deep learning:

  • Los autocodificadores variacionales, o VAE, que se presentaron en 2013 y permitieron a los modelos generar múltiples variaciones de contenido en respuesta a un mensaje o instrucción.

  • Modelos de difusión, vistos por primera vez en 2014, que añaden "ruido" a las imágenes hasta hacerlas irreconocibles, y luego eliminan el ruido para generar imágenes originales en respuesta a las indicaciones.

  • Los transformadores (también denominados "modelos transformadores"), que se entrenan con datos secuenciales para generar secuencias ampliadas de contenido, como palabras en frases, formas en una imagen, fotogramas de un vídeo o comandos en código de software. Los transformadores constituyen el núcleo de la mayoría de las herramientas de IA generativa que acaparan los titulares hoy en día, como ChatGPT, GPT-4, Copilot, BERT, Bard y Midjourney.
AI Academy

Conviértase en un experto en IA

Obtenga los conocimientos necesarios para priorizar las inversiones en IA que impulsan el crecimiento empresarial. Dé sus primeros pasos hoy mismo con nuestra AI Academy gratuita y lidere el futuro de la IA en su organización.

Cómo funciona la IA generativa

En general, la IA generativa funciona en tres fases:

  1. Entrenamiento, para crear un modelo fundacional.
  2. Ajuste, para adaptar el modelo a una aplicación específica.
  3. Generación, evaluación y ajustes adicionales, para incrementar la precisión.

Entrenamiento

La IA generativa comienza con un "modelo fundacional"; un modelo de deep learning que sirve de base para múltiples tipos diferentes de aplicaciones de IA generativa.

Los modelos fundacionales más comunes hoy en día son los modelos de lenguaje de gran tamaño (LLM), creados para aplicaciones de generación de texto. Pero también hay modelos fundacionales para la generación de imagen, vídeo, sonido o música, y modelos fundacionales multimodales que soportan varios tipos de contenido.

Para crear un modelo fundacional, los profesionales entrenan un algoritmo de deep learning con grandes volúmenes de datos relevantes, sin estructurar y sin etiquetar, como terabytes o petabytes de texto de datos, imágenes o videos de Internet. El entrenamiento proporciona una red neuronal de miles de millones de parámetros (representaciones codificadas de las entidades, patrones y relaciones en los datos) que puede generar contenido de forma autónoma en respuesta a las instrucciones. Este es el modelo fundacional.

Este proceso de formación es informático, lento y caro. Requiere miles de unidades de procesamiento gráfico (GPU) agrupadas y semanas de procesamiento, todo lo cual suele costar millones de dólares. Los proyectos de modelos fundacionales de código abierto, como Llama-2 de Meta, permiten a los desarrolladores de IA generativa evitar este paso y sus costes.

Ajuste

A continuación, el modelo debe ajustarse a una tarea específica de generación de contenido. Esto se puede hacer de varias maneras, entre ellas:

  • El ajuste fino, que consiste en alimentar el modelo con datos etiquetados específicos de la aplicación (preguntas o prompts que la aplicación probablemente recibirá) y las correspondientes respuestas correctas en el formato deseado.

  • El aprendizaje por refuerzo con comentarios humanos (RLHF), donde los usuarios humanos evalúan la precisión o relevancia de los outputs del modelo, de modo que éste pueda mejorarse a sí mismo. Esto puede ser tan sencillo como hacer que la gente escriba o responda con correcciones a un chatbot o asistente virtual.

Generación, evaluación y más ajuste

Los desarrolladores y los usuarios evalúan periódicamente los outputs de sus aplicaciones de IA generativa y ajustan el modelo, incluso una vez a la semana, para mejorar su precisión y relevancia. Por el contrario, el modelo fundacional se actualiza con mucha menos frecuencia, quizá una vez al año o cada 18 meses.

Otra opción para mejorar el rendimiento de una aplicación de IA generativa es la generación aumentada por recuperación (RAG), una técnica para ampliar el modelo fundacional y utilizar fuentes relevantes fuera de los datos de entrenamiento para refinar los parámetros y lograr una mayor precisión o relevancia.

Agentes de IA e IA agéntica

Un agente de IA es un programa de inteligencia artificial autónomo capaz de realizar tareas y alcanzar objetivos en nombre de un usuario o de otro sistema sin necesidad de intervención humana. El agente diseña su propio flujo de trabajo y utiliza las herramientas disponibles (otras aplicaciones o servicios).

La IA agéntica es un sistema compuesto por múltiples agentes de IA cuyas acciones se coordinan u orquestan para llevar a cabo una tarea más compleja o alcanzar un objetivo más ambicioso de lo que podría lograr cualquier agente del sistema por sí solo.

A diferencia de los chatbots y otros modelos de IA que operan dentro de restricciones predefinidas y requieren intervención humana, los agentes de IA y la IA agéntica exhiben autonomía, un comportamiento orientado a objetivos y adaptabilidad a circunstancias cambiantes. Los términos "agente" y "agéntico" se refieren a la agencia de estos modelos, o su capacidad para actuar de forma independiente y decidida.

Una forma de entender los agentes es como el próximo paso lógico tras la IA generativa. Los modelos de IA generativa se centran en crear contenido basado en patrones aprendidos, mientras que los agentes utilizan ese contenido para interactuar entre sí y con otras herramientas con el fin de tomar decisiones, resolver problemas y completar tareas. Por ejemplo, una aplicación de IA generativa podría indicarle cuál es el mejor momento para escalar el Everest teniendo en cuenta su horario de trabajo. Sin embargo, un agente no solo se lo dirá, sino que también utilizará un servicio de viajes en línea para reservarle el mejor vuelo y una habitación en el hotel más cómodo de Nepal.

Beneficios de la IA 

La IA ofrece numerosos beneficios en diversos sectores y aplicaciones. Algunas de las ventajas más citadas son

  • Automatización de tareas repetitivas.
  • Más conocimiento y más rápido a partir de los datos.
  • Mejora de la toma de decisiones.
  • Menos errores humanos.
  • Disponibilidad 24x7.
  • Reducción de riesgos físicos.

Automatización de tareas repetitivas

La IA puede automatizar tareas rutinarias, repetitivas y, a menudo, tediosas, tanto digitales (como la recopilación, introducción y preprocesamiento de datos) como físicas (como la preparación de pedidos en almacenes y los procesos de fabricación). Esta automatización permite dedicarse a tareas de mayor valor y más creativas.

Mejora de la toma de decisiones

Tanto si se utiliza como apoyo a la toma de decisiones como si se trata de una toma de decisiones totalmente automatizada, la IA permite realizar predicciones más rápidas y precisas y tomar decisiones confiables basadas en datos. Combinada con la automatización, la IA permite a las empresas aprovechar las oportunidades y responder a las crisis a medida que surgen, en tiempo real y sin necesidad de intervención humana.

Disminución de los errores humanos

La IA puede reducir los errores humanos de varias maneras, desde guiar a las personas a través de los pasos adecuados de un proceso, hasta señalar posibles errores antes de que ocurran y automatizar completamente los procesos sin intervención humana. Esto es especialmente importante en sectores como la sanidad, donde, por ejemplo, la robótica quirúrgica guiada por IA permite una precisión constante.

Los algoritmos de machine learning pueden mejorar continuamente su precisión y reducir aún más los errores a medida que están expuestos a más datos y "aprenden" de la experiencia.

Disponibilidad y consistencia las 24 horas del día

La IA está siempre activa y disponible las 24 horas del día, y ofrece un rendimiento constante. Herramientas como los chatbots o los asistentes virtuales con IA pueden aliviar la carga de trabajo del personal del servicio de atención al cliente o de asistencia técnica. En otras aplicaciones, como el procesamiento de materiales o las líneas de producción, la IA puede ayudar a mantener la calidad y los niveles de producción constantes al realizar tareas repetitivas o tediosas.

Reducción de los riesgos físicos

Al automatizar tareas peligrosas, como el control de animales, la manipulación de explosivos, los trabajos en aguas oceánicas profundas, en la alta atmósfera o en el espacio exterior, la IA puede eliminar la necesidad de exponer a los trabajadores humanos al riesgo de sufrir lesiones o consecuencias aún peores. Aunque aún no se han perfeccionado, los coches autónomos y otros vehículos ofrecen la posibilidad de reducir el riesgo de lesiones para los pasajeros.

Casos de uso de la IA 

Las aplicaciones de la IA en el mundo real son muchas. Esta es una pequeña muestra de aplicaciones en diferentes sectores para ilustrar su potencial:

Servicio, soporte y experiencia del cliente

Las empresas pueden implementar chatbots y asistentes virtuales con IA para gestionar consultas de clientes, tickets de soporte y más. Estas herramientas utilizan capacidades de procesamiento del lenguaje natural (PLN) e IA generativa para comprender y responder a las preguntas de los clientes sobre el estado del pedido, los detalles del producto y las políticas de devolución.

Los chatbots y los asistentes virtuales permiten prestar soporte de manera continua, proporcionan respuestas más rápidas a las preguntas más frecuentes (FAQ), liberan a los agentes humanos para que puedan centrarse en tareas de mayor nivel y ofrecen a los clientes un servicio más rápido y coherente.

Detección del fraude

Los algoritmos de machine learning y deep learning pueden analizar patrones de transacciones y señalar anomalías, como gastos inusuales o ubicaciones de inicio de sesión, que indiquen transacciones fraudulentas. Esto permite a las organizaciones responder con mayor rapidez a un posible fraude y limitar su impacto, lo que les proporciona a ellas mismas y a sus clientes una mayor tranquilidad.

Marketing personalizado

Los minoristas, los bancos y otras empresas orientadas al cliente pueden utilizar la IA para crear experiencias del cliente personalizadas y campañas de marketing que deleiten a los clientes, mejoren las ventas y eviten la pérdida de clientes. Basándose en los datos del historial de compras y los comportamientos de los clientes, los algoritmos de deep learning pueden recomendar productos y servicios que los clientes probablemente deseen, e incluso generar textos personalizados y ofertas especiales para clientes individuales en tiempo real.

Recursos humanos y contratación

Las plataformas de contratación impulsadas por IA pueden racionalizar la contratación mediante la revisión de los currículums, el emparejamiento de candidatos con descripciones de puestos de trabajo e incluso la realización de entrevistas preliminares mediante el análisis de vídeo. Estas y otras herramientas pueden reducir drásticamente la montaña de papeleo administrativo asociado a la presentación de un gran volumen de candidatos. También puede reducir los tiempos de respuesta y el tiempo de contratación, mejorando la experiencia de los candidatos, tanto si consiguen el trabajo como si no.

Desarrollo y modernización de aplicaciones

Las herramientas de generación de código de IA generativa y las herramientas de automatización pueden agilizar las tareas de codificación repetitivas asociadas al desarrollo de aplicaciones, y acelerar la migración y modernización (reformateo y replateo) de aplicaciones heredadas a escala. Estas herramientas pueden acelerar las tareas, ayudar a garantizar la consistencia del código y reducir errores.

Mantenimiento predictivo

Los modelos de machine learning pueden analizar datos de sensores, dispositivos de Internet de las cosas (IoT) y tecnología operativa (OT) para pronosticar cuándo será necesario el mantenimiento y predecir los fallos de los equipos antes de que ocurran. El mantenimiento preventivo con IA ayuda a evitar el tiempo de inactividad y le permite adelantarse a los problemas de la cadena de suministro antes de que afecten a los resultados finales.

Retos y riesgos de la IA 

Las organizaciones se apresuran a beneficiarse de las últimas tecnologías de IA y a sacar partido de sus numerosos beneficios. Esta adopción rápida es necesaria, pero adoptar y mantener flujos de trabajo de IA conlleva retos y riesgos.

Riesgos de datos

Los sistemas de IA se basan en conjuntos de datos que pueden ser vulnerables al envenenamiento, la manipulación o el sesgo de datos, o a ciberataques, lo que puede dar lugar a vulneraciones de datos. Las organizaciones pueden mitigar estos riesgos protegiendo la integridad de los datos e implementando medidas de seguridad y disponibilidad en todas las etapas del ciclo de vida de la IA, desde el desarrollo hasta la implementación y la fase posterior a esta.

Riesgos de modelos

Los actores de amenazas pueden apuntar a modelos de IA para robarlos, aplicar ingeniería inversa o manipularlos sin autorización. Los atacantes pueden poner en peligro la integridad de un modelo si alteran su arquitectura, sus ponderaciones o sus parámetros, los componentes básicos que determinan el comportamiento, la precisión y el rendimiento de un modelo.

Riesgos operativos

Al igual que todas las tecnologías, los modelos son susceptibles a riesgos operativos, como la deriva del modelo, el sesgo y los fallos en la estructura de gobierno. Si no se abordan, estos riesgos pueden provocar fallos en el sistema y vulnerabilidades de ciberseguridad que los actores de amenazas pueden utilizar.

Ética y riesgos legales

Si las organizaciones no priorizan la seguridad y la ética a la hora de desarrollar e implementar sistemas de IA, corren el riesgo de cometer violaciones de la privacidad y de producir resultados sesgados. Por ejemplo, los datos de entrenamiento sesgados utilizados para las decisiones de contratación podrían reforzar los estereotipos raciales o de género y crear modelos de IA que favorezcan a determinados grupos demográficos en detrimento de otros.

Ética y gobierno de la IA 

La ética de la IA es un campo multidisciplinar que estudia cómo optimizar el impacto beneficioso de la IA a la vez que se reducen los riesgos y los resultados adversos. Los principios de la ética de la IA se aplican a través de un sistema de gobierno de la IA constituido por medidas de seguridad que contribuyen a garantizar que las herramientas y los sistemas de IA sigan siendo seguros y éticos.  

El gobierno de la IA abarca mecanismos de supervisión que abordan los riesgos. Un planteamiento ético del gobierno de la IA requiere la participación de un amplio abanico de partes interesadas, incluidos desarrolladores, usuarios, responsables políticos y especialistas en ética, que ayuden a garantizar que los sistemas relacionados con la IA se desarrollen y utilicen en consonancia con los valores de la sociedad.

Estos son los valores comunes asociados con la ética de la IA y la IA responsable:

Explicabilidad e interpretabilidad

A medida que la IA se vuelve más avanzada, los seres humanos se enfrentan al reto de comprender y reconstruir el proceso mediante el cual el algoritmo ha llegado a un resultado. La IA explicable es un conjunto de procesos y métodos que permiten a los usuarios humanos interpretar y comprender los resultados y outputs generados por los algoritmos, y también confiar en ellos.

Equidad e inclusión

Aunque el machine learning, por su propia naturaleza, es una forma de discriminación estadística, la discriminación se vuelve objetable cuando coloca a grupos privilegiados en ventaja sistemática y a ciertos grupos no privilegiados en desventaja sistemática, lo que puede causar daños variados. Para fomentar la equidad, los profesionales pueden intentar minimizar el sesgo algorítmico en la recopilación de datos y el diseño de modelos, y crear equipos más diversos e inclusivos.

Solidez y seguridad

Una IA sólida maneja con eficacia condiciones excepcionales, como anomalías en la entrada o ataques maliciosos, sin causar daños involuntarios. Está diseñada para resistir interferencias intencionadas y no intencionadas protegiéndose de las vulnerabilidades expuestas.

Responsabilidad y transparencia

Las organizaciones deben implementar responsabilidades claras y estructuras de gobierno para el desarrollo, la implementación y los resultados de los sistemas de IA. Además, los usuarios deben ser capaces de ver cómo funciona un servicio de IA, evaluar su funcionalidad y comprender sus puntos fuertes y limitaciones. El aumento de la transparencia proporciona información para que los consumidores de IA entiendan mejor cómo se creó el modelo o servicio de IA.

Privacidad y cumplimiento

Muchos marcos regulatorios, incluido el RGPD, exigen que las organizaciones cumplan con ciertos principios de privacidad al procesar información personal. Es crucial poder proteger los modelos de IA que puedan contener información personal, controlar qué datos se introducen en el modelo en primer lugar y construir sistemas adaptables que puedan ajustarse a los cambios en la normativa y las actitudes en torno a la ética de la IA.

IA débil vs. IA fuerte 

Para contextualizar el uso de la IA en varios niveles de complejidad y sofisticación, los investigadores han definido los siguientes tipos de IA, según su nivel de sofisticación:

IA débil: también conocida como "IA limitada", se refiere a los sistemas de IA diseñados para realizar una tarea o un conjunto de tareas específicas. Los ejemplos podrían incluir aplicaciones de asistente de voz "inteligentes" como Alexa de Amazon, Siri de Apple, un chatbot de redes sociales o los vehículos autónomos prometidos por Tesla.

IA fuerte: también conocida como "inteligencia general artificial" (AGI) o "IA general", posee la capacidad de entender, aprender y aplicar los conocimientos en una amplia gama de tareas a un nivel igual o superior a la inteligencia humana. Este nivel de IA es actualmente teórico y ningún sistema de IA conocido se acerca a este nivel de sofisticación. Los investigadores sostienen que, si la IA general fuera posible, sería necesario un gran aumento de la potencia de cálculo. A pesar de los recientes avances en el desarrollo de la IA, los sistemas de IA autoconscientes de la ciencia ficción se mantienen firmemente en ese ámbito.

Historia de la IA 

La idea de "una máquina que piensa" se remonta a la antigua Grecia. Sin embargo, desde la llegada de la informática electrónica (y en relación con algunos de los temas tratados en este artículo) los hitos importantes en la evolución de la IA incluyen:

1950
Alan Turing publica Computing Machinery and Intelligence. En este artículo, Turing (famoso por descifrar el código alemán Enigma durante la Segunda Guerra Mundial y conocido como el "padre de la informática") se pregunta: "¿Pueden pensar las máquinas?".

A partir de ahí, propone una prueba, conocida en la actualidad como el "test de Turing", en la que una persona intentaría distinguir entre la respuesta de un ordenador y la de un ser humano. Aunque esta prueba ha sido objeto de un intenso escrutinio desde su publicación, sigue siendo una parte importante de la historia de la IA y un concepto vigente en el ámbito de la filosofía, ya que se basa en ideas relacionadas con la lingüística.

1956
John McCarthy acuña el término "inteligencia artificial" en la primera conferencia sobre IA en el Dartmouth College. (McCarthy llegó a inventar el lenguaje Lisp). Más tarde, ese mismo año, Allen Newell, J.C. Shaw y Herbert Simon crean Logic Theorist, el primer programa informático de IA operativo.

1967
Frank Rosenblatt construye el Mark 1 Perceptron, el primer ordenador basado en una red neuronal que "aprendía" mediante ensayo y error. Justo un año después, Marvin Minsky y Seymour Papert publican un libro titulado Perceptrons, que se convierte tanto en la obra fundamental sobre redes neuronales como, al menos durante un tiempo, en un argumento en contra de futuras iniciativas de investigación en redes neuronales.

1980
Las redes neuronales, que utilizan un algoritmo de retropropagación para entrenarse a sí mismas, se popularizan en las aplicaciones de IA.

1995
Stuart Russell y Peter Norvig publican Artificial Intelligence: A Modern Approach, que se convierte en uno de los principales libros de texto en el estudio de la IA. En él, profundizan en cuatro posibles objetivos o definiciones de la IA, que diferencian los sistemas informáticos en función de la racionalidad y el pensamiento frente a la actuación.

1997
Deep Blue de IBM vence al entonces campeón mundial de ajedrez Garry Kasparov, en una partida de ajedrez (y revancha).

2004
John McCarthy escribe un artículo titulado "What Is Artificial Intelligence?" ("¿Qué es la inteligencia artificial?") y propone una definición de la IA que se ha citado con frecuencia. En este momento, la era del big data y el cloud computing ya ha empezado, lo que permite a las organizaciones gestionar conjuntos de datos cada vez mayores, que algún día se utilizarán para entrenar modelos de IA. 

2011
IBM watsonx vence a los campeones Ken Jennings y Brad Rutter en Jeopardy!. También en esta época, la ciencia de datos comienza a emerger como una disciplina popular.

2015
El superordenador Minwa de Baidu utiliza una red neuronal profunda especial denominada red neuronal convolucional para identificar y categorizar imágenes con una tasa de precisión superior a la del ser humano medio. 

2016:
El programa AlphaGo de DeepMind, impulsado por una red neuronal profunda, vence a Lee Sodol, campeón del mundo de Go, en un combate a cinco partidas. La victoria es importante dado el enorme número de movimientos posibles a medida que avanza la partida (más de 14,5 billones tras sólo cuatro movimientos). Más tarde, Google compró DeepMind por 400 millones de dólares.

2022

Un aumento de los modelos de lenguaje de gran tamaño o LLM, como ChatGPT, de OpenAI, supone un enorme cambio en el rendimiento de la IA y su potencial para impulsar el valor empresarial. Con estas nuevas prácticas de IA generativa, los modelos de deep learning pueden entrenarse previamente con grandes cantidades de datos.

2024
Las últimas tendencias en IA apuntan a un continuo renacimiento de la misma. Los modelos multimodales que pueden tomar varios tipos de datos como entrada proporcionan experiencias más ricas y sólidas. Estos modelos reúnen las capacidades de reconocimiento de imágenes por visión artificial y de reconocimiento del habla por PLN. Los modelos más pequeños también están avanzando en una era de rendimientos decrecientes con modelos masivos con grandes recuentos de parámetros.

Autores

Cole Stryker

Staff Editor, AI Models

IBM Think

Eda Kavlakoglu

Business Development + Partnerships

IBM Research

Soluciones relacionadas
IBM watsonx.ai

Entrene, valide, ajuste e implemente IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de nueva generación para desarrolladores de IA. Cree aplicaciones de IA en menos tiempo y con menos datos.

Explore watsonx.ai
Soluciones de inteligencia artificial

Ponga la IA al servicio de su negocio con la experiencia líder del sector y el portfolio de soluciones de IA de IBM.

Explore las soluciones de IA
Servicios y consultoría de inteligencia artificial (IA)

Los servicios de IA de IBM Consulting ayudan a reinventar la forma de trabajar de las empresas usando IA para la transformación.

Explore los servicios de IA
Dé el siguiente paso

Gracias a la IA, IBM Concert descubre información crucial sobre sus operaciones y ofrece recomendaciones de mejora personalizadas para cada aplicación. Descubra cómo Concert puede hacer avanzar su negocio.

  1. Explorar el concierto
  2. Explore las soluciones de automatización de procesos empresariales