La inteligencia artificial (IA) es una tecnología que permite a ordenadores y máquinas simular las capacidades humanas de aprendizaje, comprensión, resolución de problemas, toma de decisiones, creatividad y autonomía.
Las aplicaciones y dispositivos equipados con IA pueden ver e identificar objetos. Pueden comprender y responder al lenguaje humano. Pueden aprender de nueva información y experiencia. Pueden hacer recomendaciones detalladas a los usuarios y expertos. Pueden actuar de forma autónoma, por lo que no es necesaria la inteligencia o intervención humana (un ejemplo clásico es un coche autónomo).
Pero en 2024, la mayoría de los investigadores y profesionales de IA (y la mayoría de los titulares relacionados con la IA) se centran en los avances en IA generativa, una tecnología que puede crear textos, imágenes, vídeos y otros contenidos originales. Para comprender completamente la IA generativa, es importante comprender primero las tecnologías sobre las que se basan las herramientas de IA generativa: machine learning (ML) y deep learning.
Boletín del sector
Obtenga conocimientos organizados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM.
Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.
Una forma sencilla de entender la IA es como una serie de conceptos anidados o derivados que han ido surgiendo a lo largo de más de 70 años:
Por debajo de la IA se encuentra el machine learning, que consiste en crear modelos mediante el entrenamiento de un algoritmo para que haga predicciones o tome decisiones basadas en datos. Abarca una amplia gama de técnicas que permiten a los ordenadores aprender de los datos y hacer inferencias basadas en ellos, sin necesidad de estar explícitamente programados para tareas específicas.
Existen muchos tipos de técnicas o algoritmos de machine learning, como regresión lineal, la regresión logística, los árboles de decisión, los bosques aleatorios, las máquinas de vectores de soporte (SVM), los k vecinos más cercanos (KNN), el clustering y otros. Cada uno de estos enfoques es adecuado para distintos tipos de problemas y datos.
Pero uno de los tipos más populares de algoritmo de machine learning se llama redes neuronales (o redes neuronales artificiales). Las redes neuronales se modelan a partir de la estructura y función del cerebro humano. Una red neuronal consta de capas interconectadas de nodos (análogas a las neuronas) que trabajan juntas para procesar y analizar datos complejos. Las redes neuronales son adecuadas para tareas que implican identificar patrones y relaciones complejos en grandes cantidades de datos.
La forma más simple de machine learning es el aprendizaje supervisado, que implica el uso de conjuntos de datos etiquetados para entrenar algoritmos y clasificar datos o predecir resultados con precisión. En el aprendizaje supervisado, los humanos emparejan cada ejemplo de entrenamiento con una etiqueta de output. El objetivo es que el modelo aprenda la asignación entre entradas y outputs en los datos de entrenamiento, de modo que pueda predecir las etiquetas de los datos nuevos e invisibles.
El deep learning es un subconjunto del machine learning que utiliza redes neuronales multicapa, llamadas redes neuronales profundas, que simulan de manera más cercana el complejo poder de toma de decisiones del cerebro humano.
Las redes neuronales profundas incluyen una capa de entrada, al menos tres, pero normalmente cientos de capas ocultas, y una capa de output, a diferencia de las redes neuronales utilizadas en los modelos clásicos de machine learning, que suelen tener solo una o dos capas ocultas.
Estas múltiples capas permiten el aprendizaje no supervisado: pueden automatizar la extracción de características de conjuntos de datos grandes, no etiquetados y no estructurados, y hacer sus propias predicciones sobre lo que representan los datos.
Al no requerir intervención humana, el deep learning permite el machine learning a gran escala. Es muy adecuado para el procesamiento del lenguaje natural (PLN), la visión artificial y otras tareas que requieren identificar rápidamente y con precisión patrones y relaciones complejas en grandes volúmenes de datos. La mayoría de las aplicaciones de inteligencia artificial (IA) que utilizamos hoy en día se basan en algún tipo de deep learning.
El deep learning también permite:
La IA generativa, se refiere a modelos de deep learning que pueden crear contenido original complejo, como texto de formato largo, imágenes de alta calidad, vídeo o audio realista y mucho más, en respuesta a la instrucción o solicitud de un usuario.
A un nivel superior, los modelos generativos codifican una representación simplificada de los datos de entrenamiento y se basan en ella para crear un resultado similar, pero no idéntico, a los datos originales.
Los modelos generativos se han utilizado durante años en estadística para analizar datos numéricos. Sin embargo, en la última década han evolucionado para analizar y generar tipos de datos más complejos. Esta evolución coincidió con la aparición de tres sofisticados modelos de deep learning.
En general, la IA generativa funciona en tres fases:
La IA generativa comienza con un "modelo fundacional", un modelo de deep learning que sirve de base para múltiples tipos diferentes de aplicaciones de IA generativa.
Los modelos fundacionales más comunes hoy en día son los modelos de lenguaje de gran tamaño (LLM), creados para aplicaciones de generación de texto. Pero también hay modelos fundacionales para la generación de imagen, vídeo, sonido o música, y modelos fundacionales multimodales que soportan varios tipos de contenido.
Para crear un modelo fundacional, los profesionales entrenan un algoritmo de deep learning con grandes volúmenes de datos relevantes, sin estructurar y sin etiquetar, como terabytes o petabytes de texto de datos, imágenes o videos de Internet. El entrenamiento proporciona una red neuronal de miles de millones de parámetros (representaciones codificadas de las entidades, patrones y relaciones en los datos) que puede generar contenido de forma autónoma en respuesta a las instrucciones. Este es el modelo fundacional.
Este proceso de entrenamiento requiere muchos cálculos, tiempo y dinero: requiere miles de unidades de procesamiento gráfico (GPU) agrupadas y semanas de procesamiento, todo lo cual cuesta millones de dólares. Los proyectos de modelos fundacionales de código abierto, como Llama-2 de Meta, permiten a los desarrolladores de IA generativa evitar este paso y sus costes.
A continuación, el modelo debe ajustarse a una tarea específica de generación de contenido. Esto se puede hacer de varias maneras, entre ellas:
Los desarrolladores y usuarios evalúan periódicamente los outputs de sus aplicaciones de IA generativa y ajustan el modelo, incluso una vez a la semana, para aumentar su precisión o relevancia. En contraste, el propio modelo fundacional se actualiza con mucha menos frecuencia, quizás cada año o cada 18 meses.
Otra opción para mejorar el rendimiento de una aplicación de IA generativa es la generación aumentada por recuperación (RAG), una técnica para ampliar el modelo fundacional y utilizar fuentes relevantes fuera de los datos de entrenamiento para refinar los parámetros y lograr una mayor precisión o relevancia.
La IA ofrece numerosos beneficios en diversos sectores y aplicaciones. Algunos de los más comúnmente citados incluyen:
La IA puede automatizar tareas rutinarias, repetitivas y a menudo tediosas, incluidas tareas digitales como la recopilación, introducción y preprocesamiento de datos, y tareas físicas como la recogida de existencias en almacenes y los procesos de fabricación. Esta automatización libera para trabajar en trabajos de mayor valor y más creativos.
Tanto si se utiliza como apoyo a la toma de decisiones como si se trata de una toma de decisiones totalmente automatizada, la IA permite realizar predicciones más rápidas y precisas y tomar decisiones fiables basadas en datos. Combinada con la automatización, la IA permite a las empresas aprovechar las oportunidades y responder a las crisis a medida que surgen, en tiempo real y sin intervención humana.
La IA puede reducir los errores humanos de varias maneras, desde guiar a las personas a través de los pasos adecuados de un proceso, hasta señalar posibles errores antes de que ocurran y automatizar completamente los procesos sin intervención humana. Esto es especialmente importante en sectores como la sanidad, donde, por ejemplo, la robótica quirúrgica guiada por IA permite una precisión constante.
Los algoritmos de machine learning pueden mejorar continuamente su precisión y reducir aún más los errores a medida que están expuestos a más datos y "aprenden" de la experiencia.
La IA está siempre activa, disponible las 24 horas del día y ofrece un rendimiento constante. Herramientas como los chatbots de IA o los asistentes virtuales pueden reducir la necesidad de personal para el servicio de atención al cliente. En otras aplicaciones, como el procesamiento de materiales o las líneas de producción, la IA puede ayudar a mantener la calidad del trabajo y los niveles de producción al automatizar tareas repetitivas o tediosas.
Al automatizar los trabajos peligrosos (como el control de animales, la manipulación de explosivos, la realización de tareas en aguas oceánicas profundas, a grandes altitudes o en el espacio exterior), la IA puede eliminar la necesidad de poner a los trabajadores humanos en riesgo de sufrir lesiones o algo peor. Aunque aún no se han perfeccionado, los coches autónomos y otros vehículos ofrecen la posibilidad de reducir el riesgo de lesiones a los pasajeros.
Las aplicaciones de la IA en el mundo real son muy numerosas. A continuación se muestra una pequeña selección de casos de uso en diversos sectores para ilustrar su potencial:
Las empresas pueden implementar chatbots y asistentes virtuales con IA para gestionar consultas de clientes, tickets de soporte y más. Estas herramientas utilizan el procesamiento del lenguaje natural (PLN) y las capacidades de IA generativa para entender y responder a preguntas de los clientes sobre el estado del pedido, los detalles del producto y las políticas de devolución.
Los chatbots y los asistentes virtuales permiten prestar soporte de manera continua, proporcionan respuestas más rápidas a las preguntas más frecuentes (FAQ), liberan a los agentes humanos para que puedan centrarse en tareas de mayor nivel y ofrecen a los clientes un servicio más rápido y coherente.
Los algoritmos de machine learning y deep learning pueden analizar patrones de transacciones y señalar anomalías, como gastos inusuales o ubicaciones de inicio de sesión, que indiquen transacciones fraudulentas. Esto permite a las organizaciones responder con mayor rapidez a un posible fraude y limitar su impacto, lo que les proporciona a ellas mismas y a sus clientes una mayor tranquilidad.
Los minoristas, los bancos y otras empresas orientadas al cliente pueden utilizar la IA para crear experiencias del cliente personalizadas y campañas de marketing que deleiten a los clientes, mejoren las ventas y eviten la pérdida de clientes. A partir de los datos del historial de compras y los comportamientos de los clientes, los algoritmos de deep learning pueden recomendar productos y servicios que los clientes probablemente deseen, e incluso generar textos personalizados y ofertas especiales para clientes individuales en tiempo real.
Las plataformas de contratación impulsadas por IA pueden racionalizar la contratación mediante la revisión de los currículums, el emparejamiento de candidatos con descripciones de puestos de trabajo e incluso la realización de entrevistas preliminares mediante el análisis de vídeo. Estas y otras herramientas pueden reducir de manera drástica la montaña de papeleo administrativo asociado con la selección de un gran volumen de candidatos. También puede reducir los tiempos de respuesta y el tiempo de contratación, lo que mejora la experiencia de los candidatos, tanto si consiguen el trabajo como si no.
Las herramientas de generación de código de IA generativa y las herramientas de automatización pueden agilizar las tareas de codificación repetitivas asociadas al desarrollo de aplicaciones, y acelerar la migración y modernización (reformateo y cambio de plataforma) de aplicaciones heredadas a escala. Estas herramientas pueden acelerar las tareas, ayudar a garantizar la consistencia del código y reducir errores.
Los modelos de machine learning pueden analizar datos de sensores, dispositivos de Internet de las cosas (IoT) y tecnología operativa (TO) para prever cuándo será necesario el mantenimiento y predecir los fallos de los equipos antes de que ocurran. El mantenimiento preventivo con IA ayuda a evitar el tiempo de inactividad y le permite adelantarse a los problemas de la cadena de suministro antes de que afecten a los resultados finales.
Las organizaciones se apresuran a beneficiarse de las últimas tecnologías de IA y a sacar partido de sus numerosos beneficios. Esta adopción rápida es necesaria, pero adoptar y mantener flujos de trabajo de IA conlleva retos y riesgos.
Los sistemas de IA se basan en conjuntos de datos que podrían ser vulnerables al envenenamiento, la manipulación y el sesgo de datos o a los ciberataques que pueden dar lugar a vulneraciones de datos. Las organizaciones pueden mitigar estos riesgos al proteger la integridad de los datos e implementar la seguridad y la disponibilidad a lo largo de todo el ciclo de vida de la IA, desde el desarrollo hasta el entrenamiento, la implementación y la posimplementación.
Los actores de amenazas pueden apuntar a modelos de IA para robarlos, realizar ingeniería inversa o manipularlos sin autorización. Los atacantes pueden poner en peligro la integridad de un modelo si alteran su arquitectura, sus ponderaciones o sus parámetros, los componentes básicos que determinan el comportamiento, la precisión y el rendimiento de un modelo.
Al igual que todas las tecnologías, los modelos son susceptibles a riesgos operativos, como la deriva del modelo, el sesgo y los fallos en la estructura de gobierno. Si no se abordan, estos riesgos pueden provocar fallos en el sistema y vulnerabilidades de ciberseguridad que los actores de amenazas pueden utilizar.
Si las organizaciones no priorizan la seguridad y la ética a la hora de desarrollar e implementar sistemas de IA, corren el riesgo de cometer violaciones de la privacidad y de producir resultados parciales. Por ejemplo, los datos de entrenamiento parciales utilizados para las decisiones de contratación podrían reforzar los estereotipos raciales o de género y crear modelos de IA que favorezcan a determinados grupos demográficos en detrimento de otros.
La ética de la IA es un campo multidisciplinar que estudia cómo optimizar el impacto beneficioso de la IA a la vez que se reducen los riesgos y los resultados adversos. Los principios de la ética de la IA se aplican a través de un sistema de gobierno de la IA constituido por barreras que contribuyen a garantizar que las herramientas y los sistemas de IA sigan siendo seguros y éticos.
El gobierno de la IA abarca mecanismos de supervisión que abordan los riesgos. Un planteamiento ético del gobierno de la IA requiere la participación de un amplio abanico de partes interesadas, incluidos desarrolladores, usuarios, responsables políticos y especialistas en ética, que ayuden a garantizar que los sistemas relacionados con la IA se desarrollen y utilicen en consonancia con los valores de la sociedad.
Estos son los valores comunes asociados con la ética de la IA y la IA responsable:
A medida que la IA avanza, los humanos se enfrentan al reto de comprender y descifrar cómo el algoritmo ha obtenido un resultado determinado. La IA explicable es un conjunto de procesos y métodos que permite a los usuarios humanos interpretar, entender y confiar en los resultados y outputs creados por algoritmos.
Aunque el machine learning, por su propia naturaleza, es una forma de discriminación estadística, la discriminación se vuelve objetable cuando coloca a grupos privilegiados en ventaja sistemática y a ciertos grupos no privilegiados en desventaja sistemática, lo que puede causar diversos daños. Para fomentar la equidad, los profesionales pueden intentar minimizar el sesgo algorítmico en la recopilación de datos y el diseño de modelos, y crear equipos más diversos e inclusivos.
Una IA sólida maneja con eficacia condiciones excepcionales, como anomalías en la entrada o ataques maliciosos, sin causar daños involuntarios. También está diseñada para resistir las interferencias intencionadas y no intencionadas mediante la protección contra las vulnerabilidades expuestas.
Las organizaciones deben establecer unas responsabilidades y estructuras de gobierno
claras para el desarrollo, la implementación y los resultados de los sistemas de IA.
Además, los usuarios deben poder ver cómo funciona un servicio de IA,
evaluar su funcionalidad y comprender sus puntos fuertes y
débiles. Una mayor transparencia proporciona información a los consumidores
de IA para que comprendan mejor cómo se ha creado el modelo o servicio de IA.
Muchos marcos regulatorios, incluido el RGPD, exigen que las organizaciones cumplan con ciertos principios de privacidad al procesar información personal. Es crucial poder proteger los modelos de IA que puedan contener información personal, controlar qué datos se introducen en el modelo en primer lugar y construir sistemas adaptables que puedan ajustarse a los cambios en la normativa y las actitudes en torno a la ética de la IA.
Para contextualizar el uso de la IA en varios niveles de complejidad y sofisticación, los investigadores han definido varios tipos de IA en función de su nivel de sofisticación:
IA débil: también conocida como "IA estrecha", define los sistemas de IA diseñados para realizar una tarea específica o un conjunto de tareas.Los ejemplos podrían incluir aplicaciones de asistente de voz "inteligentes" como Alexa de Amazon, Siri de Apple, un chatbot de redes sociales o los vehículos autónomos prometidos por Tesla.
IA sólida: también conocida como “inteligencia artificial general” (AGI) o “IA general”, posee la capacidad de comprender, aprender y aplicar conocimientos en una amplia gama de tareas a un nivel igual o superior a la inteligencia humana. Este nivel de IA es actualmente teórico y ningún sistema de IA conocido se acerca a este nivel de sofisticación. Los investigadores sostienen que, si la IA general fuera posible, sería necesario un gran aumento de la potencia de cálculo. A pesar de los recientes avances en el desarrollo de la IA, los sistemas de IA autoconscientes de la ciencia ficción se mantienen firmemente en ese ámbito.
La idea de "una máquina que piensa" se remonta a la antigua Grecia. Sin embargo, desde la llegada de la informática electrónica (y en relación con algunos de los temas tratados en este artículo), los acontecimientos clave en la evolución de la IA son los siguientes:
1950
Alan Turing publica Computing Machinery and Intelligence. En este artículo, Turing, famoso por descifrar el código alemán ENIGMA durante la Segunda Guerra Mundial y a menudo considerado el "padre de la informática", se plantea la siguiente pregunta: "¿Pueden pensar las máquinas?"
A partir de ahí, propone una prueba, ahora conocida como la "Prueba de Turing", en la que un interrogador humano intentaría distinguir entre la respuesta de un ordenador y la de un texto humano. Aunque esta prueba ha sido objeto de mucho escrutinio desde que se publicó, sigue siendo una parte importante de la historia de la IA y un concepto vigente dentro de la filosofía, ya que utiliza ideas en torno a la lingüística.
1956
John McCarthy acuña el término "inteligencia artificial" en la primera conferencia sobre IA en el Dartmouth College. (McCarthy llegó a inventar el lenguaje Lisp). Más tarde, ese mismo año, Allen Newell, J.C. Shaw y Herbert Simon crearon Logic Theorist, el primer programa informático de IA operativo.
1967
Frank Rosenblatt construye el Mark 1 Perceptron, el primer ordenador basado en una red neuronal que "aprendía" por ensayo y error. Justo un año después, Marvin Minsky y Seymour Papert publican un libro titulado Perceptrons, que se convirtió tanto en la obra fundamental sobre redes neuronales como, al menos durante un tiempo, en un argumento en contra de futuras iniciativas de investigación en redes neuronales.
1980
Las redes neuronales, que utilizan un algoritmo de retropropagación para entrenarse, se han generalizado en las aplicaciones de IA.
1995
Stuart Russell y Peter Norvig publican Artificial Intelligence: A Modern Approach, que se convierte en uno de los principales libros de texto en el estudio de la IA. En él, profundizan en cuatro posibles objetivos o definiciones de la IA, que diferencian los sistemas informáticos en función de la racionalidad y el pensamiento frente a la actuación.
1997
Deep Blue de IBM vence al entonces campeón mundial de ajedrez Garry Kasparov, en una partida de ajedrez (y revancha).
2004
John McCarthy escribe un artículo, ¿Qué es la inteligencia artificial?, y propone una definición de IA que se cita con frecuencia. En este momento, la era del big data y el cloud computing ya ha empezado, lo que permite a las organizaciones gestionar conjuntos de datos cada vez mayores, que algún día se utilizarán para entrenar modelos de IA.
2011
IBM Watson supera a los campeones Ken Jennings y Brad Rutter en el concurso televisivo "Jeopardy!". También en esta época, la ciencia de datos comienza a surgir como una disciplina popular.
2015
El superordenador Minwa de Baidu utiliza una red neuronal profunda especial denominada red neuronal convolucional para identificar y categorizar imágenes con una tasa de precisión superior a la del ser humano medio.
2016
El programa AlphaGo de DeepMind, impulsado por una red neuronal profunda, vence a Lee Sodol, campeón del mundo de Go, en un combate a cinco partidas. La victoria es importante dado el enorme número de movimientos posibles a medida que avanza la partida (más de 14,5 billones tras sólo cuatro movimientos). Más tarde, Google compró DeepMind por 400 millones de dólares.
2022
Un aumento de los modelos de lenguaje de gran tamaño, o LLM, como ChatGPT, de OpenAI, supone un enorme cambio en el rendimiento de la IA y su potencial para impulsar el valor empresarial. Con estas nuevas prácticas de IA generativa, los modelos de deep learning pueden entrenarse previamente con grandes cantidades de datos.
2024
Las últimas tendencias en IA apuntan a un continuo renacimiento de la IA. Los modelos multimodales que pueden tomar varios tipos de datos como entrada proporcionan experiencias más ricas y sólidas. Estos modelos reúnen las capacidades de reconocimiento de imágenes por visión artificial y de reconocimiento del habla por PLN. Los modelos más pequeños también están avanzando en una era de rendimientos decrecientes con modelos masivos que tienen un gran número de parámetros.
Hemos encuestado a 2000 organizaciones sobre sus iniciativas de IA para descubrir qué funciona, qué no y cómo puede adelantarse.
IBM Granite es nuestra familia de modelos de IA abiertos, eficaces y de confianza, adaptados a la empresa y optimizados para escalar sus aplicaciones de IA. Explore las opciones de idioma, código, series de tiempo y salvaguardas.
Acceda a nuestro catálogo completo de más de 100 cursos en línea al adquirir hoy mismo una suscripción individual o multiusuario, que le permitirá ampliar sus conocimientos en una amplia gama de nuestros productos a un precio reducido.
Dirigido por los principales líderes de opinión de IBM, el plan de estudios está diseñado para ayudar a los líderes empresariales a conseguir el conocimiento necesario para priorizar las inversiones en IA que pueden impulsar el crecimiento.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com