Aunque en las últimas décadas han surgido varias definiciones de inteligencia artificial (IA), John McCarthy ofrece la siguiente definición en este artículo de 2004 (enlace externo), "Es la ciencia y la ingeniería para crear máquinas inteligentes, especialmente programas informáticos inteligentes. Está relacionada con la tarea similar de utilizar ordenadores para comprender la inteligencia humana, pero la IA no tiene por qué limitarse a métodos que sean biológicamente observables".
Sin embargo, décadas antes de esta definición, el nacimiento de la conversación sobre inteligencia artificial se destacó en la obra seminal de Alan Turing, "Maquinaria computacional e inteligencia" (enlace externo), publicada en 1950. En este artículo, Turing, a menudo llamado "padre de la informática", hace la siguiente pregunta: "¿Las máquinas pueden pensar?" A partir de ahí, propone una prueba, ahora conocida como la "Prueba de Turing", en la que un interrogador humano intentaría distinguir entre la respuesta de un ordenador y la de un texto humano.Aunque esta prueba ha sido objeto de mucho escrutinio desde su publicación, sigue siendo una parte importante de la historia de la IA, así como un concepto actual dentro de la filosofía, ya que utiliza ideas en torno a la lingüística.
Stuart Russell y Peter Norvig publicaron después Inteligencia Artificial: Un enfoque moderno (enlace externo), que se convirtió en uno de los principales libros de texto en el estudio de la IA. En él, profundizan en cuatro posibles objetivos o definiciones de la IA, que diferencian los sistemas informáticos en función de la racionalidad y el pensamiento frente a la actuación:
Enfoque humano:
Enfoque ideal:
La definición de Alan Turing habría caído en la categoría de "sistemas que actúan como humanos".
En su forma más simple, la inteligencia artificial es un campo que combina la informática y sólidos conjuntos de datos para permitir la resolución de problemas.También abarca los subcampos del aprendizaje automático y el aprendizaje profundo, que se mencionan con frecuencia junto con la inteligencia artificial.Estas disciplinas se componen de algoritmos de IA que buscan crear sistemas expertos que hagan predicciones o clasificaciones basadas en datos de entrada.
A lo largo de los años, la inteligencia artificial ha pasado por muchos ciclos de auge, pero incluso para los escépticos,
el lanzamiento de ChatGPT de OpenAI parece marcar un punto de inflexión.La última vez que la IA generativa tuvo tanta atención, los avances se produjeron en la visión por ordenador, pero ahora el salto adelante está en el procesamiento de lenguajes naturales.Y no se trata solo del lenguaje, sino que los modelos generativos también pueden aprender la gramática de códigos de software, moléculas, imágenes naturales y otros tipos de datos.
Las aplicaciones de esta tecnología crecen día a día, y apenas estamos empezando a
explorar sus posibilidades. Pero a medida que se extiende el uso de la IA en las empresas,
las conversaciones sobre ética adquieren una importancia importante. Para obtener más información sobre dónde se encuentra IBM dentro de la conversación sobre la ética de la IA, puede leer más aquí.
Multiplique el poder de la IA para su empresa con la plataforma de datos e IA de próxima generación de IBM.
IBM watsonx Orchestrate
IBM watsonx Assistant
Explore el aprendizaje de Gen AI para desarrolladores
La IA débil, también llamada IA estrecha o inteligencia artificial estrecha (ANI, por sus siglas en inglés), está entrenada y enfocada en la IA para realizar tareas específicas. La inteligencia artificial débil sustenta la mayor parte de la IA que nos rodea hoy en día."Estrecha" podría ser un calificativo más preciso para este tipo de IA, ya que es cualquier cosa menos débil, permite algunas aplicaciones muy sólidas, como Siri de Apple, Alexa de Amazon, IBM watsonx y los vehículos autónomos.
La IA sólida está formada por la inteligencia artificial general (AGI, por sus siglas en inglés) y la superinteligencia artificial (ASI, por sus siglas en inglés). La inteligencia artificial general (IAG, por sus siglas en inglés) o IA general es una forma teórica de IA en la que una máquina tendría una inteligencia equiparable a la humana, tendría una conciencia autoconsciente capaz de resolver problemas, aprender y planificar el futuro.La superinteligencia artificial (ASI, por sus siglas en inglés), también conocida como superinteligencia, superaría la inteligencia y la capacidad del cerebro humano. Aunque la IA fuerte sigue siendo totalmente teórica y no existen ejemplos prácticos en la actualidad, eso no significa que los investigadores de IA no estén explorando su desarrollo.Mientras tanto, los mejores ejemplos de ASI pueden encontrarse en la ciencia ficción, como HAL, el asistente informático superhumano y malvado de 2001: Una odisea en el espacio.
Dado que el aprendizaje profundo y el aprendizaje automático tienden a utilizarse indistintamente, conviene señalar los matices entre ambos.Como ya se ha mencionado, tanto el aprendizaje profundo como el aprendizaje automático son subcampos de la inteligencia artificial, y el aprendizaje profundo es en realidad un subcampo del aprendizaje automático.
En realidad, el aprendizaje profundo está compuesto por redes neuronales. "Profundo" en aprendizaje profundo se refiere a una red neuronal compuesta por más de tres capas, que incluirían las entradas y la salida, puede considerarse un algoritmo de aprendizaje profundo.Esto generalmente se representa mediante el siguiente diagrama.
La diferencia entre el aprendizaje profundo y el aprendizaje automático tiene que ver con la forma en que aprende cada algoritmo.El aprendizaje profundo automatiza gran parte del proceso de extracción de características, eliminando parte de la intervención humana manual necesaria y permitiendo el uso de conjuntos de datos más grandes.Se puede pensar en el aprendizaje profundo como en un "aprendizaje automático escalable", como señaló Lex Fridman en la misma conferencia del MIT.El aprendizaje automático clásico, o "no profundo", depende más de la intervención humana para aprender.Los expertos humanos determinan la jerarquía de características para comprender las diferencias entre las entradas de datos, lo que suele requerir datos más estructurados para aprender.
El aprendizaje automático "profundo" puede aprovechar conjuntos de datos etiquetados, también conocidos como aprendizaje supervisado, para informar al algoritmo, pero no requiere necesariamente un conjunto de datos etiquetados.Puede ingerir datos no estructurados en su forma bruta (p. ej. texto, imágenes) y puede determinar automáticamente la jerarquía de entidades que distinguen diferentes categorías de datos entre sí. A diferencia del aprendizaje automático, no requiere intervención humana para procesar los datos, lo que nos permite escalar el aprendizaje automático de formas más interesantes.
La IA generativa se refiere a modelos de aprendizaje profundo que pueden tomar datos brutos, por ejemplo, toda la Wikipedia o la colección de obras de Rembrandt, y "aprender" a generar resultados estadísticamente probables cuando sea necesario.A un nivel superior, los modelos generativos codifican una representación
simplificada de los datos de entrenamiento y se basan en ella para crear un resultado similar,
pero no idéntico, a los datos originales.
Los modelos generativos se han utilizado durante años en estadística para analizar datos numéricos. Sin embargo, el auge del aprendizaje profundo permitió ampliarlos a imágenes, voz y otros tipos de datos complejos.Entre los primeros modelos que lograron esta hazaña se encuentran los autocodificadores variacionales, o VAE, por sus siglas en inglés, introducidos en 2013.Los VAE fueron los primeros modelos de aprendizaje profundo que se utilizaron ampliamente para generar imágenes y voz realistas.
“Los VAE la puerta al modelado generativo profundo al facilitar la escalabilidad de los modelos
”, afirma Akash Srivastava, experto en IA generativa del MIT-IBM Watson AI Lab.
“Gran parte de lo que hoy consideramos IA generativa comenzó aquí”.
Los primeros ejemplos de modelos, como GPT-3, BERT o DALL-E 2, han demostrado lo que es posible. El futuro está en los modelos entrenados con un gran conjunto de datos sin etiquetar que puedan utilizarse para distintas tareas con una optimización mínima.Los sistemas que realizan tareas específicas en un único dominio están dando paso a una IA más amplia que aprende de forma más general y opera en múltiples dominios y problemas.Los modelos de base, entrenados en grandes conjuntos de datos no etiquetados y optimizados para una serie de aplicaciones, están impulsando este cambio.
En lo que respecta a la IA generativa, se prevé que los modelos fundacionales
aceleren drásticamente la adopción de la IA en las empresas.La reducción de los requisitos de etiquetado
facilitará mucho a las empresas embarcarse en esta aventura, y la automatización altamente precisa y eficiente impulsada por la IA que permiten significará que muchas más empresas serán capaces de desplegar la IA en una gama más amplia de situaciones de misión crítica.Para IBM, la esperanza es que la potencia de los modelos fundacionales pueda llevarse a todas las empresas en un entorno de nube híbrida sin precedentes.
Hoy en día, existen numerosas aplicaciones reales de sistemas de IA. A continuación se presentan algunos de los casos de uso más comunes:
La idea de "una máquina que piensa" se remonta a la antigua Grecia. Sin embargo, desde la llegada de la informática electrónica (y en relación con algunos de los temas tratados en este artículo), los acontecimientos clave en la evolución de la inteligencia artificial son los siguientes:
Ponga la IA al servicio de su negocio con la experiencia líder del sector y la cartera de soluciones de IA de IBM.
Reinvente las operaciones y flujos de trabajo críticos añadiendo IA para maximizar las experiencias, la toma de decisiones y el valor empresarial.
La IA está cambiando las reglas del juego de la ciberseguridad, analizando cantidades masivas de datos de riesgo para acelerar los tiempos de respuesta y aumentar las operaciones de seguridad con recursos insuficientes.