¿Qué es la inteligencia artificial general (AGI)?

Contorno del cerebro humano con diferentes formas y colores

Autores

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

¿Qué es la inteligencia artificial general (AGI)?

La inteligencia artificial general (AGI) es una etapa hipotética en el desarrollo del machine learning (ML) en la que un sistema de inteligencia artificial (IA) puede igualar o superar las capacidades cognitivas de los seres humanos en cualquier tarea. Representa el objetivo fundamental y abstracto del desarrollo de la IA: la replicación artificial de la inteligencia humana en una máquina o software.

La AGI se ha explorado activamente desde los primeros días de la investigación en IA. Aún así, no hay consenso dentro de la comunidad académica sobre qué calificaría exactamente como AGI o cuál es la mejor manera de lograrlo. Aunque el objetivo general de la inteligencia humana es bastante sencillo, los detalles son matizados y subjetivos. Por lo tanto, la búsqueda de AGI comprende el desarrollo tanto de un marco para comprender la inteligencia en las máquinas como de los modelos capaces de satisfacer ese marco.

El reto es tanto filosófico como tecnológico. Filosóficamente, una definición formal de AGI requiere tanto una definición formal de "inteligencia" como un acuerdo general sobre cómo esa inteligencia podría manifestarse en la IA. Tecnológicamente, la AGI requiere la creación de modelos de IA con un nivel sin precedentes de sofisticación y versatilidad, métricas y pruebas para verificar de manera fiable la cognición del modelo y la potencia informática necesaria para mantenerlo.

De la IA limitada a la IA general

La noción de inteligencia "general" o IA general puede entenderse mejor en contraste con la IA estrecha: un término que describe eficazmente casi toda la IA actual, cuya "inteligencia" solo se demuestra en dominios especializados.

El Proyecto de Investigación de Verano de Dartmouth sobre Inteligencia Artificial de 1956, que reunió a matemáticos y científicos de instituciones como Dartmouth, IBM, Harvard y Bell Labs, se considera el origen del término "inteligencia artificial". Como se describe en la propuesta, "el estudio [consistía] en proceder basándose en la conjetura de que todos los aspectos del aprendizaje o cualquier otra característica de la inteligencia pueden describirse con tanta precisión que se puede fabricar una máquina para simularlo".

Este floreciente campo de la "IA" buscaba desarrollar una hoja de ruta hacia máquinas que puedan pensar por sí mismas. Pero en las décadas siguientes, el progreso hacia una inteligencia similar a la humana en las máquinas resultó difícil de alcanzar.

Se avanzó mucho más en la búsqueda de máquinas informáticas que realizaran tareas específicas que normalmente requieren una inteligencia significativa en los humanos, como jugar al ajedrez, diagnósticos sanitarios, previsión o conducción de automóviles. Pero estos modelos, por ejemplo, los que impulsan coches autónomos, demuestran inteligencia solo dentro de sus dominios específicos.

En 2007, el investigador de IA Ben Goertzel popularizó el término "inteligencia general artificial" (IAG), por sugerencia del cofundador de DeepMind, Shane Legg, en un influyente libro del mismo nombre. A diferencia de lo que denominó "IA estrecha", una inteligencia artificial general sería un nuevo tipo de IA con, entre otras cualidades, "la capacidad de resolver problemas generales de una manera no restringida al dominio, en el mismo sentido que puede hacerlo un ser humano".

AGI vs. IA fuerte vs. superinteligencia artificial

La AGI está fuertemente asociada a otros conceptos del machine learning, y a menudo se combina o incluso se utiliza indistintamente con la IA fuerte o la superinteligencia artificial.Aunque estos conceptos se solapan bastante, cada uno de ellos es una concepción distinta de la IA por derecho propio.

AGI vs. IA fuerte

La "IA fuerte", un concepto discutido de manera destacada en el trabajo del filósofo John Searle, se refiere a un sistema de IA que demuestra conciencia y sirve principalmente como contrapunto a la IA débil. Aunque la IA fuerte suele ser análoga a la AGI (y la IA débil suele ser análoga a la IA estrecha), no son meros sinónimos entre sí.

En esencia, mientras que la IA débil es simplemente una herramienta para ser utilizada por una mente consciente, es decir, un ser humano, la IA fuerte es en sí misma una mente consciente. Aunque normalmente se da a entender que esta conciencia implicaría una inteligencia correspondiente igual o superior a la de los seres humanos, la IA fuerte no se preocupa explícitamente del rendimiento relativo en diversas tareas. Los dos conceptos a menudo se confunden porque la conciencia suele considerarse un requisito previo o una consecuencia de la "inteligencia general".

A pesar de sus similitudes, la AGI y la IA fuerte describen en última instancia conceptos complementarios , en lugar de conceptos idénticos.

AGI vs. superinteligencia artificial

La superinteligencia artificial, como su nombre indica, constituye un sistema de IA cuyas capacidades superan con creces las de los seres humanos.

Vale la pena señalar que este concepto no presupone necesariamente una superinteligencia "general". De estas 3 etapas análogas de IA (AGI, IA fuerte y superinteligencia artificial), la superinteligencia artificial es la única que podría decirse que ya se ha logrado. En lugar de ser dominio exclusivo de la ciencia ficción, existen modelos de IA que demuestran lo que podría llamarse superinteligencia, ya que superan el rendimiento de cualquier ser humano en su tarea específica.

Por ejemplo,

  • AlphaFold supera a todos los científicos humanos en la predicción de la estructura 3D de una proteína a partir de una secuencia de aminoácidos.
  • Deep Blue de IBM derrotó al campeón mundial Garry Kasparov en ajedrez en 1997.
  • IBM® Watson derrotó a los campeones de Jeopardy! Ken Jennings y Brad Rutter en 2013.
  • AlphaGo (y su modelo sucesor AlphaZero) es considerado el mejor jugador del mundo de Go.

Aunque estos modelos pueden representar avances en la superinteligencia artificial, no han logrado una inteligencia artificial "general", ya que estos sistemas de IA no pueden aprender nuevas tareas de forma autónoma ni ampliar sus capacidades de resolución de problemas más allá de su ámbito estrictamente definido.

Además, cabe señalar que la superinteligencia no es un requisito previo de la AGI. En teoría, un sistema de IA que demuestre conciencia y un nivel de inteligencia comparable al de un ser humano normal y corriente representaría tanto una AGI como una IA fuerte, pero no una superinteligencia artificial.

Definiciones existentes de inteligencia artificial general

No hay consenso entre los expertos sobre qué debe calificarse exactamente como AGI, aunque se han propuesto muchas definiciones a lo largo de la historia de la informática. Estas definiciones generalmente se centran en la noción abstracta de inteligencia artificial, en lugar de los algoritmos específicos o modelos de machine learning que deben utilizarse para lograrlo.

En 2023, un artículo de Google Deepmindexaminó la literatura académica existente e identificó varias categorías de marcos para definir la inteligencia artificial general:

  • El test de Turing: máquinas que pueden actuar de forma convincente como humanos
  • IA fuerte: sistemas que poseen conciencia
  • Analogías con el cerebro humano
  • Rendimiento a nivel humano en tareas cognitivas
  • Capacidad para aprender nuevas tareas
  • Trabajo económicamente valioso
  • Capacidades flexibles y generales
  • "Inteligencia capaz artificial" (ACI)

El test de Turing

Alan Turing, una figura fundamental en la historia de la informática teórica, publicó una de las primeras y más influyentes definiciones de inteligencia artificial en su artículo de 1950, "Computer Machinery and Intelligence". El núcleo de su argumento era que la inteligencia puede definirse por el comportamiento, en lugar de por cualidades filosóficas místicas. Reconociendo la dificultad de precisar definiciones firmes de conceptos como máquinas y pensamiento, Turing propuso una forma sencilla de solucionar el problema basada en un juego de mesa llamado Imitation Game.

La "prueba de Turing" es simple: un observador humano debe leer muestras de texto y determinar si fueron generadas por un humano o por una máquina. Turing propuso que si un humano no puede distinguir entre el output del programa y el output de otro humano, se puede decir que el programa demuestra una inteligencia similar a la humana.

Críticas al test de Turing
A pesar de su monumental influencia, los informáticos actuales no consideran que el test de Turing sea una medida adecuada de la AGI. En lugar de demostrar la capacidad de las máquinas para pensar, la prueba a menudo simplemente destaca lo fácil que es engañar a los humanos.

Por ejemplo, en 1966 Joseph Weizelbaum creó un programa de chatbot llamado ELIZA que aplicaba reglas simples para transformar el lenguaje humano de la entrada de un usuario en una respuesta del chatbot. El primer programa que diseñó con este chatbot se llamó DOCTOR, diseñado para imitar a un psicoterapeuta rogeriano respondiendo de forma genérica o reformulando la entrada del usuario en forma de pregunta:

Humano: Mi novio me ha hecho venir.
ELIZA: ¿Su novio te ha hecho venir?
Humano: Dice que estoy deprimida la mayor parte del tiempo.
ELIZA: Siento oir que está deprimida.
Humano: Es verdad. Soy infeliz.
ELIZA: ¿Cree que venir aquí le ayudará a no ser infeliz?
 

Como explicó Weizelbaum en su obra de 1976, Computer Power and Human Reason, le "sorprendió ver lo rápido y profundamente que las personas que conversaban con DOCTOR se involucraban emocionalmente con el ordenador y con qué inequívoca antropomorfización". Señaló que incluso su secretaria, que lo vio trabajar en el programa durante meses y obviamente conocía su metodología simple, le pidió que abandonara la sala para tener privacidad cuando comenzó a conversar con él.1 Este fenómeno se conoce como el efecto ELIZA.

IA fuerte: sistemas que poseen conciencia

Otra definición propuesta establece un listón más alto para la AGI: un sistema de IA que posee conciencia. Como articula Searles, "según la IA fuerte, el ordenador no es simplemente una herramienta en el estudio de la mente; más bien, el ordenador debidamente programado es realmente una mente".2

Searles fue autor de una destacada refutación filosófica de la capacidad del test de Turing para demostrar una IA fuerte en 1980. Describe a un hablante de inglés sin ningún conocimiento de chino, encerrado en una habitación llena de libros de símbolos chinos e instrucciones (en inglés) para manipular los símbolos. Argumenta que el hablante inglés podría engañar a alguien en una habitación diferente haciéndole creer que puede hablar chino simplemente siguiendo las instrucciones para manipular números y símbolos, a pesar de no entender los mensajes de la otra persona ni siquiera sus propias respuestas.3

Las décadas de debate en torno al argumento de la habitación china, resumidas en este artículo de la Enciclopedia de Filosofía de Stanford, demuestran la falta de consenso científico sobre una definición de "comprensión" y si un programa informático puede poseerla. Este desacuerdo, junto con la posibilidad de que la conciencia ni siquiera sea un requisito para un rendimiento similar al humano, hace que la IA fuerte por sí sola sea un marco poco práctico para definir la AGI.

Analogías con el cerebro humano

Un enfoque intuitivo de la AGI, que tiene como objetivo replicar el tipo de inteligencia que (hasta donde sabemos) solo ha sido lograda por el cerebro humano, es replicar el propio cerebro humano.4 Esta intuición condujo a las redes neuronales originales, que a su vez han dado lugar a los modelos de deep learning que actualmente representan la vanguardia en casi todos los subcampos de la IA.

El éxito de las redes neuronales de deep learning, en particular los modelos de lenguaje de gran tamaño (LLM) y los modelos multimodales a la vanguardia de la IA generativa, demuestra los beneficios de inspirarse en el cerebro humano a través de redes autoorganizadas de neuronas artificiales. Sin embargo, muchos de los modelos de deep learning más capaces hasta la fecha utilizan arquitecturas basadas en transformadores, que en sí mismas no emulan estrictamente estructuras similares a las del cerebro. Esto sugiere que imitar explícitamente el cerebro humano podría no ser intrínsecamente necesario para lograr AGI.

Rendimiento a nivel humano en tareas cognitivas

Un enfoque más holístico es simplemente definir la AGI como un sistema de IA que puede realizar todas las tareas cognitivas que las personas pueden hacer. Aunque esta definición es flexible e intuitiva, es ambigua: ¿qué tareas? ¿Qué personas? Esta ambigüedad limita su uso práctico como marco formal para la AGI.

La contribución más notable de este marco es que limita el enfoque de AGI a tareas no físicas. Al hacerlo, se ignoran capacidades como el uso de herramientas físicas, la locomoción o la manipulación de objetos, que a menudo se consideran demostraciones de "inteligencia física".5 Esto elimina nuevos avances en robótica como requisito previo para el desarrollo de AGI.

Capacidad para aprender nuevas tareas

Otro enfoque intuitivo de la AGI, y de la propia inteligencia, es hacer hincapié en la capacidad de aprender,en concreto, de aprender una gama de tareas y conceptos tan amplia como sea posible para los humanos. De esto se hace eco Turing en "Computing Machinery and Intelligence", donde especula que podría ser más prudente programar una IA y someterla a un período de formación, en lugar de programar directamente un sistema informático como una mente adulta.6

Este enfoque está reñido con la IA estrecha, que entrena explícitamente a los modelos para realizar una tarea específica. Por ejemplo, incluso un LLM como GPT-4 que demuestra ostensiblemente la capacidad de aprendizaje few-shot o incluso aprendizaje zero-shot en tareas "nuevas" se limita a funciones adyacentes a su tarea principal: predecirautorregresivamente la siguiente palabra en una secuencia.

Aunque los modelos de IA multimodal de última generación pueden realizar tareas cada vez más diversas, desde el procesamiento del lenguaje natural (PLN) hasta la visión artificial y el reconocimiento de voz, siguen estando limitados a una lista finita de habilidades básicas representadas en sus conjuntos de datos de entrenamiento. Por ejemplo, tampoco pueden aprender a conducir un coche. Una verdadera AGI sería capaz de aprender de nuevas experiencias en tiempo real, una hazaña poco destacable para los niños humanos e incluso para muchos animales.

El investigador de IA Pei Wang ofrece una definición de inteligencia artificial que es útil dentro de este marco: "la capacidad de un sistema de procesamiento de información para adaptarse a su entorno con conocimientos y recursos insuficientes".7

Trabajo económicamente valioso

La IA abierta, cuyo modelo GPT-3 se atribuye el inicio de la actual era de la IA generativa tras el lanzamiento de ChatGPT, define la AGI en su carta fundacional como "sistemas altamente autónomos que superan a los humanos en el trabajo más valioso económicamente".8

Como señala el documento de DeepMind, esta definición omite elementos de la inteligencia humana cuyo valor económico es difícil de definir, como la creatividad artística o la inteligencia emocional. En el mejor de los casos, esos aspectos de la inteligencia pueden obtener valor económico de forma indirecta, como la creatividad que produce películas rentables o la inteligencia emocional que impulsa máquinas que realizan psicoterapia.

El enfoque en el valor económico también implica que las capacidades que comprenden AGI solo pueden contarse si realmente se ponen en implementación en el mundo real. Si un sistema de IA puede rivalizar con los humanos en una tarea específica, pero es poco práctico implementarlo para esa tarea por razones legales, éticas o sociales, ¿puede decirse que "supera" a los humanos?

El documento de DeepMind también señala que OpenAI cerró su división de robótica en 2021, lo que implica que la replicación del trabajo físico, y las correspondientes implicaciones sobre el papel de la "inteligencia física" en AGI, no forman parte de esta interpretación del valor económico.

Capacidades flexibles y generales

Gary Marcus, psicólogo, científico cognitivo e investigador de IA, definió la AGI como "una abreviatura de cualquier inteligencia... que sea flexible y general, con ingenio y fiabilidad comparables a (o más allá) de la inteligencia humana".9 Marcus propuso un conjunto de tareas de referencia destinadas a demostrar esa adaptabilidad y competencia general, similar a una implementación específica y práctica del marco de "tareas de aprendizaje".

Esta cuantificación de la AGI recuerda a un experimento mental propuesto por el cofundador de Apple, Steve Wozniak, quien preguntó: "¿Podría un ordenador hacer una taza de café?" Wozniak señala que esta tarea aparentemente sencilla es en realidad bastante compleja: hay que ser capaz de caminar, saber qué son las cocinas, saber cómo sería una cafetera o un café e interactuar con cajones y armarios. En resumen, un ser humano debe recurrir a toda una vida de experiencia solo para preparar una taza de café.10

En concreto, Marcus propuso un conjunto de 5 tareas de referencia que demostrarían la AGI si las realizara un único sistema de IA.11

  • Ver una película y comprender a los personajes, sus conflictos y sus motivaciones.
  • Leer una novela y responder preguntas de forma fiable, con conocimiento más allá del texto original, sobre la trama, los personajes, los conflictos y las motivaciones.
  • Trabajar como cocinero competente en una cocina arbitraria (similar al punto de referencia del café de Wozniak).
  • Construir de forma fiable 10 000 líneas de código sin errores a partir de instrucciones en lenguaje natural, sin necesidad de improvisar código de bibliotecas existentes.
  • Convertir pruebas matemáticas en lenguaje natural en forma simbólica.

Si bien este marco orientado a tareas introduce cierta objetividad muy necesaria en la validación de la AGI, es difícil ponerse de acuerdo sobre si estas tareas específicas cubren toda la inteligencia humana. La tercera tarea, trabajar como cocinero, implica que la robótica (y, por tanto, la inteligencia física) sería una parte necesaria de la AGI.

"Inteligencia capaz artificial"

En 2023, el CEO de Microsoft IA y cofundador de DeepMind, Mustafa Suleyman, propuso el término "inteligencia capaz artificial" (ACI) para describir los sistemas de IA que pueden realizar tareas complejas, abiertas y de varios pasos en el mundo real. Más concretamente, propuso una "prueba de giro moderno" en la que se daría a una IA 100 000 USD de capital inicial y se le encargaría convertirlos en 1 millón de USD.12 En términos generales, esto combina la noción de valor económico de OpenAI con el enfoque de Marcus en la flexibilidad y la inteligencia general.

Si bien es probable que esta referencia demuestre un ingenio genuino y una competencia interdisciplinaria, en términos prácticos, este encuadre de la inteligencia como un tipo específico de output es prohibitivamente limitado. Además, centrarse únicamente en los beneficios introduce importantes riesgos de alineación.13

¿Los LLM ya son AGI?

Algunos investigadores, como Blase Agüera y Arcas y Peter Norvig, han argumentado que los LLM avanzados como Llama de Meta, GPT de Open IA y Claude de Anthropic ya han alcanzado la AGI. Postulan que la generalidad es el elemento clave de la AGI y que los modelos actuales ya pueden discutir una amplia gama de temas, realizar una amplia gama de tareas y procesar una amplia gama de entradas multimodales. "La 'inteligencia general' debe concebirse en términos de un cuadro de mandos multidimensional", postulan. "Ni una sola proposición de sí o no".14

Hay muchos detractores de esta postura. Los autores del artículo de DeepMind argumentan que la generalidad en sí misma no califica como AGI: debe ir acompañada de un cierto grado de rendimiento. Por ejemplo, si un LLM puede escribir código, pero ese código no es fiable, entonces esa generalidad "aún no tiene el rendimiento suficiente".

Yann LeCun, científico jefe de IA de Meta, ha afirmado que los LLM carecen de AGI porque no tienen sentido común: no pueden pensar antes de actuar, no pueden realizar acciones en el mundo real o aprender a través de la experiencia y carecen de memoria persistente y capacidad de planificación jerárquica.15 En un nivel más fundamental, LeCun y Jacob Browning han argumentado que "un sistema entrenado solo en el lenguaje nunca se aproximará a la inteligencia humana, incluso si se entrena desde ahora hasta la muerte térmica del universo".16

Enfoques tecnológicos de la AGI

Goertzel y Pennachin afirman que existen al menos tres enfoques tecnológicos básicos para los sistemas AGI, en términos de algoritmos y arquitecturas de modelos.

  • Emulación cercana del cerebro humano en el software: dado que el cerebro humano es el único sistema que conocemos que es capaz de inteligencia general, una emulación casi perfecta de él teóricamente produciría una inteligencia similar. Aunque las redes neuronales replican superficialmente los mecanismos básicos del cerebro, el funcionamiento real del cerebro es mucho más variado y sofisticado que los modelos actuales de deep learning. Más allá del desafío tecnológico de emular realmente el cerebro, este enfoque también requiere una mayor comprensión de las maquinaciones del cerebro de la que tenemos actualmente.17

  • Una arquitectura de modelo novedosa, distinta tanto del cerebro como de las arquitecturas de IA estrecha: este enfoque supone que el cerebro no es la única estructura propicia para la inteligencia general y que los enfoques existentes para la IA estrecha no pueden trascender sus limitaciones tecnológicas o conceptuales. Por lo tanto, la AGI requeriría un nuevo tipo de inteligencia artificial. Por ejemplo, LeCun ha propuesto evitar las arquitecturas de modelos de IA autorregresivas y otras generativas y probabilísticas en favor de "sistemas de IA impulsados por objetivos", cuyos "modelos mundiales" aprenden más como lo hacen los animales y los niños.

  • Un enfoque integrador, que sintetiza algoritmos de IA estrechos: este enfoque es el centro de la mayoría de las iniciativas actuales del mundo real para lograr AGI, intentando unir el progreso aislado que se ha logrado en herramientas de IA estrechas como LLM, modelos de imagen y agentes de aprendizaje por refuerzo. Los modelos multimodales actuales podrían verse como pasos intermedios en este camino. Estos enfoques integradores suelen utilizar un modelo central de "agente", a menudo un LLM, para navegar por un proceso de toma de decisiones y automatizar la delegación de subtareas a modelos especializados.

¿Cuándo llegará la AGI?

Las predicciones sobre el futuro de la IA siempre conllevan un alto grado de incertidumbre, pero casi todos los expertos coinciden en que será posible a finales de siglo y algunos estiman que podría suceder mucho antes.

En 2023, Max Roser, de Our World in Data, escribió un resumen de las previsiones de AGI para resumir cómo ha evolucionado el pensamiento de los expertos sobre la previsión de AGI en los últimos años. En cada encuesta se preguntó a los encuestados (investigadores de IA y machine learning) cuánto tiempo pensaban que llevaría alcanzar un 50 % de posibilidades de inteligencia a nivel humano. El cambio más significativo de 2018 a 2022 es la creciente certeza de los encuestados de que la AGI llegaría dentro de 100 años.

Sin embargo, cabe destacar que esos tres estudios se llevaron a cabo antes del lanzamiento de ChatGPT y el inicio de la era moderna de la IA generativa. El ritmo cada vez mayor de los avances en tecnología de IA desde finales de 2022, especialmente en los LLM y la IA multimodal, ha dado lugar a un entorno de previsión muy diferente.

En una encuesta de seguimiento más amplia realizada por Grace et al de 2778 investigadores de IA, realizada en octubre de 2023 y publicada en enero de 2024, los encuestados estimaron un 50 % de probabilidades de que "las máquinas sin ayuda superen a los humanos en todas las tareas posibles" para 204713 años antes de lo que los expertos predijeron en un estudio similar solo un año antes.

Pero como señala Roser, la investigación ha demostrado que los expertos en muchos campos no son necesariamente fiables a la hora de prever el futuro de su propia disciplina. Cita el ejemplo de los hermanos Wright, generalmente considerados los inventores del primer avión exitoso del mundo. En un discurso de aceptación del premio el 5 de noviembre de 1908 en el Aéro Club de France de París, se dice que Wilbur Wright proclamó: "Confieso que en 1901 le dije a mi hermano Orville que los hombres no volarían durante 50 años. Dos años después, estábamos haciendo vuelos".18

Soluciones relacionadas
IBM watsonx.ai

Entrene, valide, ajuste e implemente IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de nueva generación para desarrolladores de IA. Cree aplicaciones de IA en menos tiempo y con menos datos.

Descubra watsonx.ai
Soluciones de inteligencia artificial

Ponga la IA a trabajar en su negocio con la experiencia líder en IA del sector de IBM y junto a su cartera de soluciones.

Explore las soluciones de IA
Consultoría y servicios de IA

Reinvente las operaciones y flujos de trabajo críticos añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Explore los servicios de IA
Dé el siguiente paso

Obtenga acceso único a capacidades que abarcan el ciclo de vida de desarrollo de la IA. Produzca potentes soluciones de IA con interfaces intuitivas, flujos de trabajo y acceso a API y SDK estándar del sector.

Explore watsonx.ai Solicite una demostración en directo
Notas a pie de página

1 Computer Power and Human Reason: from Judgment to Calculation (page 6), Joseph Weizenbaum, 1976.
2 “Minds, brains, and programs”, Behavioral and Brain Sciences (archivado mediante OCR por la Universidad de Southampton), 1980.
3 ibid.
4 “Can we accurately bridge neurobiology to brain-inspired AGI to effectively emulate the human brain?”, Research Directions: Bioelectronics (publicado en línea por la Universidad de Cambridge), 12 de febrero de 2024.
5 “Physical intelligence as a new paradigm”, Extreme Mechanics Letters, Volume 46, julio de 2021.
6 “Computing Machinery and Intelligence”, Mind 49: 433-460 (publicado en línea por la Universidad de Maryland, condado de Baltimore), 1950.
7 “On the Working Definition of Intelligence”, ResearchGate, enero de 1999.
8 “Open IA Charter”, OpenIA, archivado el 1 de septiembre de 2024.
9 “AGI will not happen in your lifetime. Or will it?”, Gary Marcus (en Substack), 22 de enero de 2023.
10 “Wozniak: Could a Computer Make a Cup of Coffee?”, Fast Company (en YouTube), 2 de marzo de 2010.
11 “Dear Elon Musk, here are five things you might want to consider about AGI”, Gary Marcus (en Substack), 31 de mayo de 2022.
12 “Mustafa Suleyman: My new Turing test would see if AI can make $1 million”, MIT Technology Review, 14 de julio de 2023.
13 “Alignment of Language Agents”, arXiv, 26 de marzo de 2021.
14 “Artificial General Intelligence Is Already Here”, Noema Magazine, 10 de octubre de 2023.
15 “Yann Lecun: Meta AI, Open Source, Limits of LLMs, AGI & the Future of AI”, pódcast de Lex Fridman (en YouTube), 10 de octubre de 2023.
16 “AI and The Limits of Language” , Noema Magazine, 23 de agosto de 2023.
17 “Why is the human brain so difficult to understand? We asked 4 neuroscientists.” Allen Institute, 21 de abril de 2022.
18 “Great Aviation Quotes: Predictions” , Great Aviation Quotes.