¿Qué es la inteligencia artificial (IA)?
La inteligencia artificial (IA) es una tecnología que permite a las computadoras y máquinas simular el aprendizaje humano, la comprensión, la resolución de problemas, la toma de decisiones, la creatividad y la autonomía.
Las aplicaciones y dispositivos equipados con IA pueden ver e identificar objetos. Pueden entender y responder al lenguaje humano. Pueden aprender de nueva información y experiencia. Pueden hacer recomendaciones detalladas a usuarios y expertos. Pueden actuar de manera independiente, reemplazando la necesidad de inteligencia o intervención humana (un ejemplo clásico es un automóvil autónomo).
Pero en 2024, la mayoría de los investigadores, profesionales y titulares relacionados con la IA se centran en los avances en la IA generativa, una tecnología que puede crear texto, imágenes, videos y otros contenidos originales. Para comprender completamente la IA generativa, es importante comprender primero las tecnologías sobre las que se construyen las herramientas de IA generativa: machine learning (ML) y aprendizaje profundo.
Una forma sencilla de pensar en la IA es como un serial de conceptos anidados o derivados que surgieron a lo largo de más de 70 años:
Directamente debajo de la IA, tenemos el machine learning, que consiste en crear modelos entrenando a un algoritmo para hacer predicciones o tomar decisiones basadas en datos. Abarca una amplia gama de técnicas que permiten a las computadoras aprender y hacer inferencias basadas en datos sin estar programadas explícitamente para tareas específicas.
Hay muchos tipos de técnicas o algoritmos de machine learning, incluyendo regresión lineal, regresión logística, árboles de decisión, bosque aleatorio, máquinas de vectores de soporte (SVM), k-vecinos más cercanos (KNN), agrupación en clústeres y más. Cada uno de estos enfoques es adecuado para diferentes tipos de problemas y datos.
Pero uno de los tipos más populares de algoritmo de machine learning se llama red neuronal (o red neuronal artificial). Las redes neuronales se modelan a partir de la estructura y función del cerebro humano. Una red neuronal consta de capas interconectadas de nodos (análogas a las neuronas) que trabajan juntas para procesar y analizar datos complejos. Las redes neuronales son adecuadas para tareas que implican identificar patrones y relaciones complejos en grandes cantidades de datos.
La forma más sencilla de machine learning se denomina aprendizaje supervisado, que implica el uso de conjuntos de datos etiquetados para entrenar algoritmos que clasifiquen datos o predigan resultados con precisión. En el aprendizaje supervisado, los humanos emparejan cada ejemplo de entrenamiento con una etiqueta de salida. El objetivo es que el modelo aprenda el mapeo entre entradas y salidas en los datos de entrenamiento, para que pueda predecir las etiquetas de datos nuevos e invisibles.
El aprendizaje profundo es un subconjunto de machine learning que utiliza redes neuronales multicapa, llamadas redes neuronales profundas, que simulan más de cerca el complejo poder de toma de decisiones del cerebro humano.
Las redes neuronales profundas incluyen una capa de entrada, al menos tres pero generalmente cientos de capas ocultas, y una capa de salida, a diferencia de Neural Networks utilizados en los modelos clásicos de machine learning, que generalmente tienen solo una o dos capas ocultas.
Estas múltiples capas permiten el aprendizaje no supervisado: pueden automatizar la extracción de características de conjuntos de datos grandes, no etiquetados y no estructurados, y hacer sus propias predicciones sobre lo que representan los datos.
Debido a que el aprendizaje profundo no requiere intervención humana, permite el machine learning a una escala tremenda. Es muy adecuado para el procesamiento de lenguaje natural (PLN), la visión artificial y otras tareas que implican la identificación rápida y precisa de patrones y relaciones complejos en grandes cantidades de datos. Cierta forma de aprendizaje profundo impulsa la mayoría de las aplicaciones de inteligencia artificial (IA) en nuestras vidas hoy en día.
El aprendizaje profundo también permite:
La IA generativa se refiere a modelos de aprendizaje profundo que pueden crear contenido original complejo, como texto extenso, imágenes de alta calidad, video o audio realistas y más, en respuesta a una instrucción o solicitud del usuario.
En un alto nivel, los modelos generativos codifican una representación simplificada de sus datos de entrenamiento y luego extraen de ella para crear un nuevo trabajo similar, pero no idéntico, a los datos originales.
Los modelos generativos se han utilizado durante años en estadísticas para analizar datos numéricos. Pero en la última década, evolucionaron para analizar y generar tipos de datos más complejos. Esta evolución coincidió con la aparición de tres tipos sofisticados de modelos de aprendizaje profundo:
En general, la IA generativa opera en tres fases:
La IA generativa comienza con un modelo "fundacional"; un modelo de aprendizaje profundo que sirve de base para múltiples tipos de aplicaciones de IA generativa.
Los modelos fundacionales más comunes en la actualidad son los modelos de lenguaje grandes (LLM), creados para aplicaciones de generación de texto. Pero también hay modelos fundacionales para la generación de imágenes, videos, sonido o música, y modelos fundacionales multimodales que admiten varios tipos de contenido.
Para crear un modelo fundacional, los profesionales entrenan un algoritmo de aprendizaje profundo en enormes volúmenes de datos relevantes sin procesar, no estructurados y sin etiquetar, como terabytes o petabytes de texto de datos o imágenes o videos de Internet. El entrenamiento produce una red neuronal de miles de millones de representaciones codificadas de parámetros de las entidades, patrones y relaciones en los datos que pueden generar contenido de forma autónoma en respuesta a las instrucciones. Este es el modelo fundacional.
Este proceso de entrenamiento requiere un uso intensivo de recursos informáticos, requiere mucho tiempo y es costoso. Requiere miles de unidades de procesamiento de gráficos en clúster (GPU) y semanas de procesamiento, todo lo cual generalmente cuesta millones de dólares. Los proyectos de modelos fundacionales de código abierto, como Llama-2 de Meta, permiten a los desarrolladores de IA generativa evitar este paso y sus costos.
A continuación, el modelo debe estar ajustado a una tarea específica de generación de contenido. Esto se puede hacer de varias maneras, que incluyen:
Los desarrolladores y usuarios evalúan regularmente los resultados de sus aplicaciones de IA generativa y ajustan adicionalmente el modelo, incluso una vez a la semana, para aumentar su precisión o relevancia. En contraste, el modelo fundacional se actualiza con mucha menos frecuencia, quizás cada año o cada 18 meses.
Otra opción para mejorar el rendimiento de una aplicación de IA generativa es la generación aumentada por recuperación (RAG, por sus siglas en inglés), una técnica para ampliar el modelo fundacional con el fin de utilizar fuentes relevantes fuera de los datos de entrenamiento para refinar los parámetros y conseguir una mayor precisión o relevancia.
Un agente de IA es un programa de IA autónomo, puede realizar tareas y lograr objetivos en nombre de un usuario u otro sistema sin intervención humana, diseñando su propio flujo de trabajo y utilizando las herramientas disponibles (otras aplicaciones o servicios).
La IA agéntica es un sistema de múltiples agentes de IA, cuyos esfuerzos se coordinan u orquestan para lograr una tarea más compleja o un objetivo mayor que el que podría lograr cualquier agente individual en el sistema.
A diferencia de los chatbots y otros modelos de IA que operan dentro de restricciones predefinidas y requieren intervención humana, los agentes de IA y la IA agéntica exhiben autonomía, comportamiento orientado a objetivos y adaptabilidad a circunstancias cambiantes. Los términos “agente” y “agéntico” se refieren a la agencia de estos modelos, o su capacidad para actuar de forma independiente y decidida.
Una forma de pensar en los agentes es como un siguiente paso natural después de la IA generativa. Los modelos de IA generativa se centran en crear contenido basado en patrones aprendidos; los agentes utilizan ese contenido para interactuar entre sí y con otras herramientas para tomar decisiones, resolver problemas y completar tareas. Por ejemplo, una aplicación de IA generativa podría indicarle el mejor momento para escalar el monte Everest dado su horario de trabajo, pero un agente puede decirle esto y luego usar un servicio de viajes en línea para reservarle el mejor vuelo y una habitación en el hotel más conveniente en Nepal.
La IA ofrece numerosos beneficios en diversas industrias y aplicaciones. Algunos de los beneficios más comúnmente citados incluyen:
La IA puede automatizar tareas rutinarias, repetitivas y a menudo tediosas, incluidas las tareas digitales como la recopilación de datos, la entrada y el preprocesamiento, y las tareas físicas como la selección de existencias en el almacén y los procesos de fabricación. Esta automatización libera para trabajar en tareas más creativas y de mayor valor.
Ya sea que se utilice para el apoyo a la toma de decisiones o para la toma de decisiones totalmente automatizada, la IA permite predicciones más rápidas y precisas y decisiones confiables basadas en datos. En combinación con la automatización, la IA permite a las empresas actuar sobre las oportunidades y responder a las crisis a medida que surgen, en tiempo real y sin intervención humana.
La IA puede reducir los errores humanos de varias maneras, desde guiar a las personas a través de los pasos adecuados de un proceso, hasta señalar posibles errores antes de que ocurran y automatizar completamente los procesos sin intervención humana. Esto es especialmente importante en sectores como el sanitario, donde, por ejemplo, la robótica quirúrgica guiada por IA permite una precisión constante.
Los algoritmos de machine learning pueden mejorar continuamente su precisión y reducir aún más los errores a medida que están expuestos a más datos y "aprender" de la experiencia.
La IA está siempre activa, disponible las 24 horas del día, y ofrece un rendimiento constante en todo momento. Las herramientas como los chatbots de IA o los asistentes virtuales pueden aligerar las demandas de personal para atención o soporte al cliente. En otras aplicaciones, como el procesamiento de materiales o las líneas de producción, la IA puede ayudar a mantener una calidad de trabajo y niveles de producción constantes cuando se utiliza para completar tareas repetitivas o tediosas.
Al automatizar trabajos peligrosos, como el control de animales, el manejo de explosivos, la realización de tareas en aguas profundas, en grandes altitudes o en el espacio exterior, la IA puede eliminar la necesidad de poner a los trabajadores humanos en riesgo de sufrir lesiones o algo peor. Si bien aún deben perfeccionar, los automóviles y otros vehículos autónomos ofrecen el potencial de reducir el riesgo de lesiones a los pasajeros.
Las aplicaciones de la IA en el mundo real son muchas. Aquí hay solo una pequeña muestra de casos de uso en varias industrias para ilustrar su potencial:
Las empresas pueden implementar chatbots y asistentes virtuales impulsados por IA para manejar las consultas de los clientes, los tickets de soporte, entre otras cosas. Estas herramientas usan el procesamiento de lenguaje natural (PLN) y las capacidades de IA generativa para comprender y responder a las preguntas de los clientes sobre el estado de los pedidos, los detalles del producto y las políticas de devolución.
Los chatbots y los asistentes virtuales permiten una asistencia permanente, ofrecen respuestas más rápidas a las preguntas más frecuentes (FAQ), liberan a los agentes humanos para que puedan centrar en tareas de mayor nivel y ofrecen a los clientes un servicio más rápido y coherente.
Los algoritmos de machine learning y aprendizaje profundo pueden analizar patrones de transacción y marcar anomalías, como gastos inusuales o ubicaciones de inicio de sesión, que indican transacciones fraudulentas. Esto permite a las organizaciones responder más rápidamente a posibles fraudes y limitar su impacto, lo que les brinda a ellos y a los clientes una mayor tranquilidad.
Minoristas, bancos y otras compañías de cara al cliente pueden emplear la IA para crear experiencias de cliente personalizadas y campañas de marketing que deleiten a los clientes, mejoren las ventas y eviten la pérdida de clientes. Basar en los datos del historial de compras y los comportamientos de los clientes, los algoritmos de aprendizaje profundo pueden recomendar productos y servicios que los clientes probablemente deseen, e incluso generar textos personalizados y ofertas especiales para clientes individuales en tiempo real.
Las plataformas de reclutamiento impulsadas por IA pueden agilizar la contratación mediante la selección de currículos, la coincidencia de candidatos con descripciones de puestos e incluso la realización de entrevistas preliminares mediante análisis de video. Estas y otras herramientas pueden reducir significativamente la montaña de papeleo administrativo asociado con la presentación de un gran volumen de candidatos. También puede reducir los tiempos de respuesta y el tiempo de contratación, mejorando la experiencia de los candidatos, ya sea que obtengan el trabajo o no.
Las herramientas de generación de código de IA generativa y las herramientas de automatización pueden agilizar las tareas de codificación repetitivas asociadas con el desarrollo de aplicaciones y acelerar la migración y modernización (reformateo y reestructuración) de aplicaciones heredadas a escala. Estas herramientas pueden acelerar las tareas, ayudar a garantizar la coherencia del código y reducir los errores.
Los modelos de machine learning pueden analizar datos de sensores, dispositivos del Internet de las Cosas (IoT) y tecnología operativa (OT) para forecast cuando será necesario el mantenimiento y predecir fallos en los equipos antes de que se produzcan. El mantenimiento preventivo basado en IA ayuda a evitar tiempos de inactividad y le permite anticipar a los problemas de la cadena de suministro antes de que afecten a los resultados finales.
Las organizaciones se apresuran a usar las últimas tecnologías de IA y sacar partido de sus numerosos beneficios. Esta rápida adopción es necesaria, pero adoptar y mantener los flujos de trabajo de IA conlleva retos y riesgos.
Los sistemas de IA se basan en conjuntos de datos que pueden ser vulnerables al envenenamiento, la manipulación o el sesgo de datos o ataques cibernéticos que pueden provocar filtraciones de datos. Las organizaciones pueden mitigar estos riesgos protegiendo la integridad de los datos e implementando la seguridad y disponibilidad a lo largo de todo el ciclo de vida de la IA, desde el desarrollo hasta el entrenamiento y el despliegue y posterior a la implementación.
Los actores de amenazas pueden apuntar a los modelos de IA para robo, ingeniería inversa o manipulación no autorizada. Los atacantes pueden comprometer la integridad de un modelo al alterar su arquitectura, pesos o parámetros; los componentes centrales que determinan el comportamiento, precisión y rendimiento de un modelo.
Al igual que todas las tecnologías, los modelos son susceptibles a riesgos operativos como la desviación del modelo, el sesgo y las fallas en la estructura de gobernanza. Si no se abordan, estos riesgos pueden provocar fallas en el sistema y vulnerabilidades de ciberseguridad que los actores de amenazas pueden aprovechar.
Si las organizaciones no dan prioridad a la seguridad y la ética a la hora de desarrollar y desplegar sistemas de IA, corren el riesgo de cometer violaciones de la privacidad y producir resultados con sesgo. Por ejemplo, los datos de entrenamiento con sesgo utilizados para las decisiones de contratación podrían reforzar los estereotipos de género o raciales y crear modelos de IA que favorezcan a determinados grupos demográficos en detrimento de otros.
La ética de la IA es un campo multidisciplinario que estudia cómo optimizar el impacto beneficioso de la IA, al tiempo que se reducen los riesgos y los resultados adversos. Los principios de la ética de la IA se aplican a través de un sistema de gobernanza de la IA que consiste en medidas de seguridad que ayudan a garantizar que las herramientas y los sistemas de IA sigan siendo seguros y éticos.
La gobernanza de la IA abarca mecanismos de supervisión que abordan los riesgos. Un enfoque ético para la gobernanza de la IA requiere la participación de una amplia gama de stakeholders, incluidos los desarrolladores, los usuarios, los responsables de las políticas y los especialistas en ética, para ayudar a garantizar que los sistemas relacionados con la IA se desarrollen y utilicen de acuerdo con los valores de la sociedad.
Estos son los valores comunes asociados con la ética de la IA y la IA responsable:
A medida que la IA se vuelve más avanzada, los humanos se enfrentan al reto de comprender y repasar cómo el algoritmo llegó a un resultado. La IA explicable es un conjunto de procesos y métodos que permite a los usuarios humanos interpretar, comprender y confiar en los resultados y salidas creados por los algoritmos.
Aunque machine learning, por su propia naturaleza, es una forma de discriminación estadística, la discriminación se vuelve objetable cuando coloca a los grupos privilegiados en un beneficio sistemático y a ciertos grupos no privilegiados en una desventaja sistemática, lo que puede causar daños diversos. Para fomentar la equidad, los profesionales pueden intentar minimizar el sesgo algorítmico en la recopilación de datos y el diseño de modelos, y crear equipos más diversos e inclusivos.
Una IA robusta gestiona eficazmente condiciones excepcionales, como anomalías en la entrada o ataques maliciosos, sin causar daños involuntarios. También está diseñado para resistir interferencias intencionales y no intencionales al proteger contra vulnerabilidades expuestas.
Las organizaciones deben implementar responsabilidades claras y estructuras de gobernanza
para el desarrollo, despliegue y resultados de los sistemas de IA.
Además, los usuarios deberían poder ver cómo funciona un servicio de IA,
evaluar su funcionalidad y comprender sus fortalezas y
Limitaciones. Una mayor transparencia proporciona información a los consumidores de AI
para que comprendan mejor cómo se creó el modelo o servicio de AI.
Muchos marcos regulatorios, incluido el RGPD, exigen que las organizaciones cumplan con ciertos principios de privacidad al procesar información personal. Es crucial poder proteger los modelos de IA que pueden contener información personal, controlar qué datos entran en el modelo en primer lugar y crear sistemas adaptables que puedan ajustar a los cambios en la regulación y las actitudes en torno a la ética de la IA.
Para contextualizar el uso de la IA en varios niveles de complejidad y sofisticación, los investigadores definieron varios tipos de IA que se refieren a su nivel de sofisticación:
IA débil: también conocida como “IA estrecha”, define los sistemas de IA diseñados para realizar una tarea específica o un conjunto de tareas. Los ejemplos podrían incluir aplicaciones de asistentes de voz “inteligentes”, como Alexa de Amazon, Siri de Apple, un chatbot de redes sociales o los vehículos autónomos prometidos por Tesla.
IA fuerte: también conocida como “inteligencia artificial general” (AGI) o “IA general”, posee la capacidad de comprender, aprender y aplicar conocimientos en una amplia gama de tareas a un nivel igual o superior a la inteligencia humana. Este nivel de IA es actualmente teórico y ningún sistema de IA conocido se acerca a este nivel de sofisticación. Los investigadores sostienen que, si la AGI es siquiera posible, requiere grandes aumentos de la potencia de cálculo. A pesar de los recientes avances en el desarrollo de la IA, los sistemas de IA autoconscientes de la ciencia ficción permanecen firmemente en ese ámbito.
La idea de "una máquina que piensa" se remonta a la antigua Grecia. Pero desde el surgimiento de la computación electrónica (y en relación con algunos de los temas discutidos en este artículo) los eventos e hitos importantes en la evolución de la IA incluyen los siguientes:
1950
Alan Turing publica Computing Machinery and Intelligence. En este artículo, Turing, famoso por descifrar el código alemán ENIGMA durante la Segunda Guerra Mundial y a menudo llamado el "padre de la informática", plantea la siguiente pregunta: "¿Pueden pensar las máquinas?"
A partir de ahí, ofrece una prueba, ahora conocida como la “Prueba de Turing”, en la que un interrogador humano intentaría distinguir entre una respuesta de texto humana y de una computadora. Si bien esta prueba fue objeto de mucho escrutinio desde que se publicó, sigue siendo una parte importante de la historia de la IA y un concepto vigente dentro de la filosofía, ya que utiliza ideas en torno a la lingüística.
1956
John McCarthy acuña el término “inteligencia artificial” en la primera conferencia de IA en Dartmouth College. (McCarthy inventó el lenguaje Lisp). Más tarde ese año, Allen Newell, J.C. Shaw y Herbert Simon crean el Logic Theorist, el primer programa de computadora de IA en funcionamiento de la historia.
1967
Frank Rosenblatt construye la Mark 1 Perceptron, la primera computadora basada en una red neuronal que “aprendió” a través de prueba y error. Tan solo un año después, Marvin Minsky y Seymour Papert publican un libro titulado Perceptrons, que se convierte en el trabajo emblemático en redes neuronales y, al menos, durante un tiempo, un argumento contra futuras iniciativas de investigación de redes neuronales.
1980
Las redes neuronales, que utilizan un algoritmo de retropropagación para entrenarse, se volvieron ampliamente utilizadas en aplicaciones de IA.
1995
Stuart Russell y Peter Norvig publican Artificial Intelligence: A Modern Approach, que se convierte en uno de los manuales más destacados en el estudio de la IA. En este, ahondan en cuatro posibles objetivos o definiciones de IA, que diferencia a los sistemas informáticos basados en la racionalidad y el pensamiento frente a la actuación.
1997
Deep Blue de IBM vence al entonces campeón mundial de ajedrez, Garry Kasparov, en una partida de ajedrez (y revancha).
2004
John McCarthy escribe un artículo, What Is Artificial Intelligence?, y propone una definición de IA que se cita a menudo. En este momento, la era del big data y la computación en la nube está en marcha, lo que permite a las organizaciones gestionar patrimonios de datos cada vez más grandes, que algún día se usarán para entrenar modelos de IA.
2011
IBM® Watson vence a los campeones Ken Jennings y Brad Rutter en Jeopardy! Además, en esta época, la ciencia de datos comienza a surgir como una disciplina popular.
2015
La supercomputadora Minwa de Baidu utiliza una red neuronal profunda especial llamada red neuronal convolucional para identificar y categorizar imágenes con una mayor precisión que el humano promedio.
2016
El programa AlphaGo de DeepMind, impulsado por una red neuronal profunda, vence a Lee Sodol, campeón mundial de Go, en un partido de cinco juegos. La victoria es significativa dada la enorme cantidad de jugadas posibles a medida que avanza el juego (más de 14.5 billones después de solo cuatro jugadas). Posteriormente, Google compró DeepMind por unos 400 millones de dólares reportados.
2022
El auge de los modelos de lenguaje grandes o LLM, como ChatGPT de OpenAI, supone un cambio enorme en el rendimiento de la IA y en su potencial para generar valor empresarial. Con estas nuevas prácticas de IA generativa, los modelos de aprendizaje profundo se pueden entrenar previamente en grandes cantidades de datos.
2024
Las últimas tendencias de la IA apuntan a un renacimiento continuo de la IA. Los modelos multimodales que pueden tomar múltiples tipos de datos como entrada están proporcionando experiencias más enriquecidas y sólidas. Estos modelos reúnen las capacidades de reconocimiento de imágenes de visión artificial y reconocimiento de voz con PLN. Los modelos más pequeños también están avanzando en una era de rendimientos decrecientes con modelos masivos con grandes recuentos de parámetros.