¿Qué es la inteligencia artificial general (AGI)?

Esquema del cerebro humano con diferentes formas y colores

Autores

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

¿Qué es la inteligencia artificial general (AGI)?

La inteligencia artificial general (AGI) es una etapa hipotética en el desarrollo de machine learning (ML) en la que un sistema de inteligencia artificial (IA) puede igualar o superar las capacidades cognitivas de los seres humanos en cualquier tarea. Representa el objetivo fundamental y abstracto del desarrollo de la IA: la replicación artificial de la inteligencia humana en una máquina o software.

La AGI se ha explorado activamente desde los primeros días de la investigación en IA. Aún así, no hay consenso dentro de la comunidad académica con respecto a exactamente qué calificaría como AGI o cómo lograrlo mejor. Aunque el objetivo general de la inteligencia similar a la humana es bastante sencillo, los detalles son matizados y subjetivos. Por lo tanto, la búsqueda de AGI comprende el desarrollo tanto de un marco para comprender la inteligencia en las máquinas como de los modelos capaces de satisfacer ese marco.

El desafío es tanto filosófico como tecnológico. Filosóficamente, una definición formal de AGI requiere tanto una definición formal de "inteligencia" como un acuerdo general sobre cómo esa inteligencia podría manifestarse en IA. Tecnológicamente, la AGI requiere la creación de modelos de IA con un nivel sin precedentes de sofisticación y versatilidad, métricas y pruebas para verificar la cognición del modelo y la potencia de computación necesaria para mantenerlo.

De la IA estrecha a la IA general

La noción de inteligencia "general" o IA general se puede entender mejor en contraste con la IA estrecha: un término que describe efectivamente casi toda la IA actual, cuya "inteligencia" se demuestra solo en dominios especializados.

El Dartmouth Summer Research Project on Artificial Intelligence de 1956, que reunió a matemáticos y científicos de instituciones como Dartmouth, IBM, Harvard y Bell Labs, se considera el origen del término "inteligencia artificial". Como se describe en la propuesta, "el estudio [era] proceder con base en la conjetura de que cada aspecto del aprendizaje o cualquier otra característica de la inteligencia se puede describir con tanta precisión que se puede hacer una máquina para simularlo".

Este floreciente campo de la "IA" buscó desarrollar una hoja de ruta hacia máquinas que puedan pensar por sí mismas. Pero en las décadas siguientes, el progreso hacia una inteligencia similar a la humana en las máquinas resultó difícil de alcanzar.

Se lograron avances mucho mayores en la búsqueda de máquinas informáticas que realicen tareas específicas que normalmente requieren una inteligencia significativa en los humanos, como jugar al ajedrez, diagnósticos de atención médica, forecasting o conducción de automóviles. Pero estos modelos, por ejemplo, los que impulsan automóviles autónomos, demuestran inteligencia solo dentro de sus dominios específicos.

En 2007, el investigador de IA Ben Goertzel popularizó el término "inteligencia general artificial" (AGI), por sugerencia del cofundador de DeepMind, Shane Legg, en un influyente libro del mismo nombre. A diferencia de lo que denominó “IA estrecha”, una inteligencia artificial general sería un nuevo tipo de IA con, entre otras cualidades, “la capacidad de resolver problemas generales sin restricciones de dominio, en el mismo sentido que un ser humano puede”.

Comparación de AGI, IA fuerte y superinteligencia artificial

La AGI está fuertemente asociada con otros conceptos en machine learning, y a menudo se confunde o incluso se emplea indistintamente con IA fuerte o superinteligencia artificial. Si bien estos conceptos tienen una buena cantidad de superposición, cada uno es una concepción distinta de la IA por derecho propio.

AGI frente a IA fuerte

La "IA fuerte", un concepto discutido de manera destacada en el trabajo del filósofo John Searle, se refiere a un sistema de IA que demuestra conciencia y sirve principalmente como contrapunto a la IA débil. Si bien la IA fuerte generalmente es análoga a la AGI (y la IA débil generalmente es análoga a la IA estrecha), no son meros sinónimos entre sí.

En esencia, mientras que la IA débil es simplemente una herramienta para ser utilizada por una mente consciente, es decir, un ser humano, la IA fuerte es en sí misma una mente consciente. Aunque normalmente se da a entender que esta conciencia implicaría una inteligencia correspondiente igual o superior a la de los seres humanos, la IA fuerte no se preocupa explícitamente por el rendimiento relativo en diversas tareas. Los dos conceptos a menudo se confunden porque la conciencia generalmente se considera un requisito previo o una consecuencia de la "inteligencia general".

A pesar de sus similitudes, AGI y la IA fuerte finalmente describen conceptos complementarios , en lugar de conceptos idénticos.

AGI frente a superinteligencia artificial

La superinteligencia artificial, como su nombre lo indica, constituye un sistema de IA cuyas capacidades superan ampliamente las de los seres humanos.

Vale la pena señalar que este concepto no presupone necesariamente una superinteligencia "general". De estas 3 etapas análogas de IA (AGI, IA fuerte y superinteligencia artificial), la superinteligencia artificial es la única que podría decirse que ya se ha logrado. En lugar de ser el único dominio de la ciencia ficción, existen modelos de IA estrechos que demuestran lo que podría llamarse superinteligencia, ya que superan el rendimiento de cualquier ser humano en su tarea específica.

Por ejemplo,

  • AlphaFold supera a todos los científicos humanos en la predicción de la estructura 3D de una proteína a partir de una secuencia de aminoácidos.
  • Deep Blue de IBM derrotó al campeón mundial Garry Kasparov en ajedrez en 1997.
  • IBM® Watson derrotó a los campeones de Jeopardy! Ken Jennings y Brad Rutter en 2013.
  • AlphaGo (y su modelo sucesor AlphaZero) es considerado el mejor jugador del mundo en Go.

Aunque estos modelos pueden representar avances en la superinteligencia artificial, no han logrado una inteligencia artificial "general", ya que tales sistemas de IA no pueden aprender nuevas tareas de forma autónoma o ampliar sus capacidades de resolución de problemas más allá de su alcance estrictamente definido.

Además, vale la pena señalar que la superinteligencia no es un requisito previo de la AGI. En teoría, un sistema de IA que demuestre conciencia y un nivel de inteligencia comparable al de un ser humano promedio representaría tanto una AGI como una IA fuerte, pero no una superinteligencia artificial.

Definiciones existentes de inteligencia artificial general

No hay consenso entre los expertos con respecto a qué debería calificar exactamente como AGI, aunque se han propuesto muchas definiciones a lo largo de la historia de la informática. Estas definiciones generalmente se enfocan en la noción abstracta de inteligencia artificial, en lugar de los algoritmos específicos o modelos de machine learning que deben usarse para lograrlo.

En 2023, un documento de Google Deepmindencuestó la literatura académica existente e identificó varias categorías de infraestructuras para definir la inteligencia artificial general:

  • La prueba de Turing: máquinas que pueden actuar de manera convincente como humanos
  • IA fuerte: sistemas que poseen conciencia
  • Analogías con el cerebro humano
  • Rendimiento a nivel humano en tareas cognitivas
  • Capacidad para aprender nuevas tareas
  • Trabajo económicamente valioso
  • Capacidades flexibles y generales
  • “Inteligencia con capacidad artificial” (ACI)

La prueba de Turing

Alan Turing, una figura fundamental en la historia de la informática teórica, publicó una de las primeras y más influyentes definiciones de inteligencia artificial en su artículo de 1950, “Computer Machinery and Intelligence”. El núcleo de su argumento era que la inteligencia puede definirse por el comportamiento, en lugar de cualidades filosóficas místicas. Reconociendo la dificultad de precisar definiciones firmes de conceptos como máquinas y pensamiento, Turing propuso una forma sencilla de solucionar el problema basada en un juego de mesa llamado Imitation Game.

La "prueba de Turing" es simple: un observador humano debe leer muestras de texto y determinar si fueron generadas por un humano o por una máquina. Turing propuso que si un humano no puede distinguir entre el resultado del programa y el resultado de otro humano, se puede decir que el programa demuestra una inteligencia similar a la humana.

Críticas a la prueba de Turing
A pesar de su enorme influencia, los informáticos actuales no consideran que la prueba de Turing sea una medida adecuada de la AGI. En lugar de demostrar la capacidad de las máquinas para pensar, la prueba a menudo simplemente destaca lo fácil que es engañar a los humanos.

Por ejemplo, en 1966, Joseph Weizelbaum creó un programa de chatbot llamado ELIZA que aplicaba reglas simples para transformar el lenguaje humano de la entrada de un usuario en una respuesta del chatbot. El primer programa que diseñó con este chatbot se llamó DOCTOR, diseñado para imitar a un psicoterapeuta rogeriano respondiendo de manera genérica o reformulando la entrada del usuario en forma de pregunta:

Humano: Bueno, mi novio me hizo venir aquí.
ELIZA: ¿Tu novio te hizo venir aquí?
Humano: Dice que estoy deprimida la mayor parte del tiempo.
ELIZA: Lamento escuchar que estás deprimida.
Humano: Es verdad. No estoy contenta.
ELIZA: ¿Crees que venir aquí te ayudará a no ser infeliz?
 

Como explicó Weizelbaum en su trabajo de 1976, Computer Power and Human Reason, "le sorprendió ver cuán rápida y profundamente las personas que conversaban con DOCTOR se involucraron emocionalmente con la computadora y cuán inequívocamente la antropomorfizaron". Señaló que incluso su secretaria, que lo vio trabajar en el programa durante meses y obviamente conocía su metodología simple, le pidió que abandonara la habitación para tener privacidad cuando comenzó a conversar con él.1 Este fenómeno se conoce como efecto ELIZA.

IA fuerte: sistemas que poseen conciencia

Otra definición propuesta establece un estándar más alto para la AGI: un sistema de IA que posee conciencia. Como lo expresó Searles, “según la IA fuerte, la computadora no es simplemente una herramienta en el estudio de la mente; más bien, la computadora debidamente programada es realmente una mente”.2

Searles fue autor de una destacada refutación filosófica de la capacidad de la prueba de Turing para demostrar una IA fuerte en 1980. Describe a un hablante de inglés sin ningún conocimiento de chino, encerrado en una habitación llena de libros de símbolos chinos e instrucciones (en inglés) para manipular los símbolos. Argumenta que el hablante de inglés podría engañar a alguien en una habitación diferente haciéndole creer que puede hablar chino simplemente siguiendo las instrucciones para manipular números y símbolos, a pesar de no entender los mensajes de la otra persona y ni siquiera sus propias respuestas.3

Las décadas de debate en torno al argumento de la habitación china, resumidas en este artículo de la Enciclopedia de Filosofía de Stanford , demuestran la falta de consenso científico sobre una definición de "comprensión" y si un programa informático puede poseerla. Este desacuerdo, junto con la posibilidad de que la conciencia ni siquiera sea un requisito para un rendimiento humano, hace que la IA sola sea un marco impráctico para definir la AGI.

Analogías con el cerebro humano

Un enfoque intuitivo de AGI, que tiene como objetivo replicar el tipo de inteligencia que (hasta donde sabemos) solo ha sido logrado por el cerebro humano, es replicar el propio cerebro humano.4 Esta intuición condujo a las redes neuronales artificiales originales, que a su vez han producido los modelos de aprendizaje profundo que actualmente representan lo último en casi todos los subcampos de la IA.

El éxito de las redes neuronales de aprendizaje profundo, en particular los modelos de lenguaje grandes (LLM) y los modelos multimodales a la vanguardia de la IA generativa, demuestran los beneficios de inspirarse en el cerebro humano a través de redes autoorganizadas de neuronas artificiales. Sin embargo, muchos de los modelos de aprendizaje profundo más capaces hasta la fecha utilizan arquitecturas basadas en transformadores, que en sí mismas no emulan estrictamente estructuras similares a las del cerebro. Esto sugiere que imitar explícitamente el cerebro humano podría no ser inherentemente necesario para lograr la AGI.

Rendimiento a nivel humano en tareas cognitivas

Un enfoque más holístico es simplemente definir la AGI como un sistema de IA que puede realizar todas las tareas cognitivas que las personas pueden hacer. Si bien esta definición es flexible e intuitiva, es ambigua: ¿qué tareas? ¿Qué personas? Esta ambigüedad limita su uso práctico como marco formal para la AGI.

La contribución más notable de esta infraestructura es que limita el enfoque de la AGI a tareas no físicas. Al hacerlo, se ignoran capacidades como el uso de herramientas físicas, la locomoción o la manipulación de objetos, que a menudo se consideran demostraciones de "inteligencia física".5 Esto elimina nuevos avances en robótica como requisito previo para el desarrollo de AGI.

Capacidad para aprender nuevas tareas

Otro enfoque intuitivo de la AGI, y de la inteligencia en sí misma, es enfatizar la capacidad de aprender,específicamente, una gama tan amplia de tareas y conceptos como los humanos puedan. Esto se hace eco de Turing en “Computing Machinery and Intelligence”, donde especula que podría ser más prudente programar una IA infantil y someterla a un período de educación, en lugar de programar directamente un sistema informático como una mente adulta.6

Este enfoque está en desacuerdo con la IA estrecha, que entrena explícitamente a los modelos para realizar una tarea específica. Por ejemplo, incluso un LLM como GPT-4 que supuestamente demuestra la capacidad para el few-shot learning o incluso zero-shot learning en tareas "nuevas" está limitado a funciones adyacentes a su tarea principal: predecir de forma autorregresiva la siguiente palabra en una secuencia.

Aunque los modelos multimodales de IA de última generación pueden realizar tareas cada vez más diversas, desde procesamiento de lenguaje natural (PLN) hasta visión artificial y reconocimiento de voz, siguen limitados a una lista finita de habilidades clave representadas en sus conjuntos de datos de entrenamiento. Por ejemplo, tampoco pueden aprender a conducir un automóvil. Una verdadera AGI sería capaz de aprender de nuevas experiencias en tiempo real, una hazaña poco notable para los niños humanos e incluso para muchos animales.

El investigador de IA Pei Wang ofrece una definición de inteligencia de máquina que es útil dentro de este marco: "la capacidad de un sistema de procesamiento de información para adaptarse a su entorno con conocimientos y recursos insuficientes".7

Trabajo económicamente valioso

La IA abierta, cuyo modelo GPT-3 a menudo se acredita con el inicio de la era actual de la IA generativa tras el lanzamiento de ChatGPT, define la AGI en su carta como "sistemas altamente autónomos que superan a los humanos en la mayoría del trabajo económicamente más valioso".8

Como señala el documento de DeepMind, esta definición omite elementos de la inteligencia humana cuyo valor económico es difícil de definir, como la creatividad artística o la inteligencia emocional. En el mejor de los casos, esos aspectos de la inteligencia pueden obtener valor económico de manera indirecta, como la creatividad que produce películas rentables o la inteligencia emocional que impulsa máquinas que realizan psicoterapia.

El enfoque en el valor económico también implica que las capacidades que comprenden la AGI solo se pueden contar si realmente se ponen en despliegue en el mundo real. Si un sistema de IA puede rivalizar con los humanos en una tarea específica, pero no es práctico desplegarlo para esa tarea por razones legales, éticas o sociales, ¿se puede decir que "supera" a los humanos?

El documento de DeepMind también señala que OpenAI cerró su división de robótica en 2021, lo que implica que la replicación del trabajo físico, y las implicaciones correspondientes sobre el papel de la "inteligencia física" en la AGI, no forman parte de esta interpretación del valor económico.

Capacidades flexibles y generales

Gary Marcus, psicólogo, científico cognitivo e investigador de la IA, definió la AGI como "una abreviatura de cualquier inteligencia... que sea flexible y general, con ingenio y confiabilidad comparables a las (o más allá) de la inteligencia humana".9 Marcus propuso un conjunto de tareas de punto de referencia destinadas a demostrar esa adaptabilidad y competencia general, similar a una implementación específica y práctica de la infraestructura de "tareas de aprendizaje".

Esta cuantificación de la AGI recuerda un experimento mental propuesto por el cofundador de Apple, Steve Wozniak, quien preguntó: "¿Podría una computadora hacer una taza de café?" Wozniak señala que esta tarea aparentemente simple es en realidad bastante compleja: uno debe poder caminar, saber qué son las cocinas, saber cómo sería una máquina de café o un café e interactuar con cajones y gabinetes. En resumen, un humano debe recurrir a toda una vida de experiencia solo para preparar una taza de café.10

Específicamente, Marcus propuso un conjunto de 5 tareas de punto de referencia que demostrarían la AGI si fueran realizadas por un solo sistema de IA.11

  • Ver una película y comprender a los personajes, sus conflictos y sus motivaciones.
  • Leer una novela y responder preguntas de manera confiable, con insights más allá del texto original, sobre la trama, los personajes, los conflictos y las motivaciones.
  • Trabajar como un cocinero competente en una cocina arbitraria (similar al punto de referencia del café de Wozniak).
  • Construir de manera confiable 10 000 líneas de código sin errores a partir de instrucciones en lenguaje natural, sin improvisar código de bibliotecas existentes.
  • Convertir pruebas matemáticas en lenguaje natural en forma simbólica.

Si bien esta infraestructura orientada a tareas introduce cierta objetividad muy necesaria en la validación de AGI, es difícil ponerse de acuerdo sobre si estas tareas específicas cubren toda la inteligencia humana. La tercera tarea, trabajar como cocinero, implica que la robótica (y, por lo tanto, la inteligencia física) sería una parte necesaria de la AGI.

"Inteligencia artificial capaz"

En 2023, el director ejecutivo (CEO) de Microsoft IA y cofundador de DeepMind, Mustafa Suleyman, propuso el término "inteligencia artificial capaz" (ACI) para describir los sistemas de IA que pueden realizar tareas complejas, abiertas y de varios pasos en el mundo real. Más específicamente, propuso una "Prueba de giro moderno" en la que una IA recibiría 100 000 USD de capital inicial y se le asignaría la tarea de convertirlo en 1 millón de dólares.12 En términos generales, esto combina la noción de valor económico de OpenAI con el enfoque de Marcus en la flexibilidad y la inteligencia general.

Si bien este punto de referencia probablemente demuestre ingenio genuino y competencia interdisciplinaria, en términos prácticos, este encuadre de la inteligencia como un tipo específico de resultado económico es prohibitivamente estrecho. Además, centrarse únicamente en el beneficio introduce importantes riesgos de alineación.13

¿Los LLM ya son AGI?

Algunos investigadores, como Blase Agüera y Arcas y Peter Norvig, han argumentado que los LLM avanzados como Llama de Meta, GPT de Open AI y Claude de Anthropic ya han alcanzado la AGI. Postulan que la generalidad es el elemento clave de la AGI y que los modelos actuales ya pueden discutir una amplia gama de temas, realizar una amplia gama de tareas y procesar una amplia gama de entradas multimodales. “La 'inteligencia general' debe pensarse en términos de una tabla de puntuación multidimensional”, postulan. “Ni una sola propuesta de sí o no”.14

Hay muchos detractores de esta posición. Los autores del artículo de DeepMind argumentan que la generalidad en sí misma no califica como AGI: debe ir acompañada de un cierto grado de rendimiento. Por ejemplo, si un LLM puede escribir código, pero ese código no es confiable, entonces esa generalidad "aún no tiene el rendimiento suficiente".

Yann LeCun, científico jefe de IA de Meta, ha declarado que los LLM carecen de AGI porque no tienen sentido común: no pueden pensar antes de actuar, no pueden realizar acciones en el mundo real o aprender a través de la experiencia incorporada y carecen de memoria persistente y capacidad para la planificación jerárquica.15 En un nivel más fundamental, LeCun y Jacob Browning han argumentado que "un sistema entrenado solo en el lenguaje nunca se aproximará a la inteligencia humana, incluso si se entrena desde ahora hasta la muerte por calor del universo".16

Enfoques tecnológicos de AGI

Goertzel y Pennachin afirman que existen al menos tres enfoques tecnológicos básicos para los sistemas AGI, en términos de algoritmos y arquitecturas de modelos.

  • Emulación cercana del cerebro humano en software: dado que el cerebro humano es el único sistema que conocemos que es capaz de inteligencia general, una emulación casi perfecta de él teóricamente produciría una inteligencia similar. Si bien las redes neuronales replican superficialmente los mecanismos básicos del cerebro, el funcionamiento real del cerebro es mucho más variado y sofisticado que los modelos actuales de aprendizaje profundo. Más allá del desafío tecnológico de emular realmente el cerebro, este enfoque también requiere una mayor comprensión de las maquinaciones del cerebro de la que tenemos actualmente.17

  • Una arquitectura de modelo novedosa, distinta tanto del cerebro como de las arquitecturas de IA: este enfoque supone que el cerebro no es la única estructura propicia para la inteligencia general y que los enfoques existentes para la IA no pueden trascender sus limitaciones tecnológicas o conceptuales. Por lo tanto, la AGI requeriría un nuevo tipo de inteligencia artificial. Por ejemplo, LeCun ha propuesto evitar las arquitecturas de modelos de IA autorregresivas y otras generativas y probabilísticas en favor de "sistemas de IA basados en objetivos"cuyos "modelos mundiales" aprenden más como lo hacen los animales y los niños.

  • Un enfoque integrador, que sintetiza algoritmos de IA estrechos: este enfoque es el foco de la mayoría de las iniciativas actuales del mundo real para alcanzar a la AGI, intentando unir el progreso aislado que se ha logrado en herramientas de IA estrechas como LLM, modelos de imágenes y agentes de aprendizaje por refuerzo. Los modelos multimodales actuales podrían verse como pasos intermedios en este camino. Estos enfoques integradores suelen utilizar un modelo central de "agente", a menudo un LLM, para navegar por un proceso de toma de decisiones y automatizar la delegación de subtareas a modelos especializados.

¿Cuándo llegará la AGI?

Las predicciones sobre el futuro de la IA siempre conllevan un alto grado de incertidumbre, pero casi todos los expertos coinciden en que será posible para finales de siglo y algunos estiman que podría suceder mucho antes.

En 2023, Max Roser de Our World in Data fue autor de un resumen de pronósticos de la AGI para resumir cómo ha evolucionado el pensamiento de los expertos sobre el forecasting de la AGI en los últimos años. En cada encuesta se preguntó a los encuestados (investigadores de IA y machine learning) cuánto tiempo creían que llevaría alcanzar un 50 % de posibilidades de inteligencia a nivel humano. El cambio más significativo de 2018 a 2022 es la creciente certeza de los encuestados de que la AGI llegaría dentro de 100 años.

Sin embargo, vale la pena señalar que esos tres estudios se realizaron antes del lanzamiento de ChatGPT y el comienzo de la era moderna de la IA generativa. El ritmo creciente de los avances en tecnología de IA desde finales de 2022, particularmente en los LLM y la IA multimodal, ha dado lugar a un entorno de forecasting muy diferente.

En una encuesta de seguimiento más amplia realizada por Grace et al de 2778 investigadores de IA, realizada en octubre de 2023 y publicada en enero de 2024, los encuestados estimaron un 50 % de probabilidades de que “las máquinas sin ayuda superen a los humanos en todas las tareas posibles” para 2047,13 años antes que los expertos predijeron en un estudio similar solo un año antes.

Pero, como señala Roser, la investigación demostró que los expertos en muchos campos no son necesariamente confiables cuando pronostican el futuro de su propia disciplina. Cita el ejemplo de los hermanos Wright, generalmente considerados los inventores del primer avión exitoso del mundo. En un discurso de aceptación del premio el 5 de noviembre de 1908 en el Aéro Club de France en París, se dice que Wilbur Wright proclamó: “Confieso que en 1901, le dije a mi hermano Orville que los hombres no volarían durante 50 años. Dos años después, estábamos haciendo vuelos”.18

Soluciones relacionadas
IBM watsonx.ai

Entrene, valide, ajuste y despliegue IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de próxima generación para creadores de IA. Diseñe aplicaciones de IA en menos tiempo y con menos datos.

Descubra watsonx.ai
Soluciones de inteligencia artificial

Ponga la IA a trabajar en su negocio con la experiencia en IA líder en la industria y la cartera de soluciones de IBM a su lado.

Explore las soluciones de IA
Consultoría y servicios de IA

Reinvente los flujos de trabajo y las operaciones críticas añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Conozca los servicios de IA
Dé el siguiente paso

Obtenga acceso único a capacidades que abarcan el ciclo de vida del desarrollo de IA. Produzca potentes soluciones de IA con interfaces fáciles de usar, flujos de trabajo y acceso a API y SDK estándar de la industria.

Explore watsonx.ai Reserve una demostración en vivo
Notas de pie de página

1 Computer Power and Human Reason: from Judgement to Calculation (página 6), Joseph Weizenbaum, 1976.
2 “Minds, cerebros y programas”, Behavioral and Brain Sciences (archivado mediante OCR por la Universidad de Southampton), 1980.
3 ibíd.
4 “Can we accurately bridge neurobiology to brain-inspired AGI to effectively emulate the human brain?”, Research Directions: Bioelectronics (publicado en línea por Cambridge University), 12 February 2024.
5 “Physical intelligence as a new paradigm”, Extreme Mechanics Letters, Volume 46, julio de 2021.
6 “Computing Machinery and Intelligence”, Mind 49: 433-460 (publicado en línea por la Universidad de Maryland, condado de Baltimore), 1950.
7 “On the Working Definition of Intelligence”, ResearchGate, enero de 1999.
8 “Open AI Charter”, OpenAI, archivado el 1 de septiembre de 2024.
9 “AGI will not sucede in your life. ¿O sí?”, Gary Marcus (en Substack), 22 de enero de 2023.
10 “Wozniak: Could a Computer Make a Cup of Coffee?”, Fast Company (en YouTube), 2 de marzo de 2010.
11 “Dear Elon Musk, here are five things you might want to consider about AGI”, Gary Marcus (on Substack), 31 May 2022.
12 “Mustafa Suleyman: My new Turing test would see if AI can make $1 million”, MIT Technology Review, 14 de julio de 2023.
13 “Alignment of Language Agents”, arXiv, 26 de marzo de 2021.
14 “Artificial General Intelligence Is Ready Here”, Noema Magazine, 10 de octubre de 2023.
15 “Yann Lecun: Meta AI, Open Source, Limits of LLMs, AGI & the Future of AI”, Lex Fridman Podcast (en YouTube), 10 de octubre de 2023.
16 “AI and The Limits of Language” , Noema Magazine, 23 August 2023.
17 “¿Por qué es tan difícil entender el cerebro humano? Le preguntamos a 4 neurocientíficos". Allen Institute, 21 de abril de 2022.
18 “Great Aviation Quotes: Predictions” , Great Aviation Quotes.