O que é inteligência geral artificial (AGI)?

Contorno do cérebro humano com diferentes formas e cores

Autores

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

O que é inteligência geral artificial (AGI)?

Inteligência geral artificial (AGI) é um estágio hipotético no desenvolvimento do aprendizado de máquina (ML) em que um sistema de inteligência artificial (IA) pode igualar ou exceder as habilidades cognitivas de seres humanos em qualquer tarefa. Ela representa o objetivo fundamental e abstrato do desenvolvimento da IA: a replicação artificial da inteligência humana em uma máquina ou software.

A AGI tem sido explorada ativamente desde os primórdios da pesquisa em IA. Ainda assim, não há consenso na comunidade acadêmica sobre o que exatamente se qualificaria como AGI ou como melhor alcançá-lo. Embora o objetivo geral da inteligência semelhante à humana seja bastante simples, os detalhes são sutis e subjetivos. A busca pela AGI, portanto, compreende o desenvolvimento de um framework para entender a inteligência nas máquinas e os modelos capazes de satisfazer essa framework.

O desafio é tanto filosófico quanto tecnológico. Filosoficamente, uma definição formal de AGI requer tanto uma definição formal de “inteligência" quanto um acordo geral sobre como essa inteligência pode se manifestar na IA. Tecnologicamente, AGI exige a criação de modelos de IA com um nível sem precedentes de sofisticação e versatilidade, métricas e testes para verificar de forma confiável a cognição do modelo e a potência necessária para mantê-lo.

Da IA estreita à IA geral

A noção de inteligência "geral" ou IA geral pode ser melhor compreendida em contraste com a IA estreita: um termo que descreve efetivamente quase todas as IA atuais, cuja "inteligência" é demonstrada apenas em domínios especializados.

O Dartmouth Summer Research Project on Artificial Intelligence de 1956, que reuniu matemáticos e cientistas de instituições como Dartmouth, IBM, Harvard e Bell Labs, é considerado a origem do termo "inteligência artificial". Conforme descrito na proposta, “o estudo [deveria] prosseguir com base na conjectura de que todos os aspectos do aprendizado ou qualquer outra funcionalidade da inteligência podem ser descritos com tanta precisão que uma máquina pode ser feita para simulá-lo”.

Esse campo crescente de "IA" buscou desenvolver um roteiro para máquinas que podem pensar por si. Mas nas décadas seguintes, o progresso em direção a uma inteligência semelhante à humana em máquinas se mostrou enganosa.

Um progresso muito maior foi feito na busca de máquinas de computação que executem tarefas específicas que normalmente exigem inteligência significativa em humanos, como jogar xadrez, diagnósticos de saúde, forecasting ou dirigir automóveis. Mas esses modelos (como, por exemplo, os que alimentam carros autônomos) demonstram inteligência apenas dentro de seus domínios específicos.

Em 2007, o pesquisador de IA Ben Goertzel popularizou o termo "inteligência geral artificial" (AGI), por sugestão do cofundador da DeepMind Shane Legg, em um livro influente de mesmo nome. Em contraste com o que ele chamou de "IA estreita", uma inteligência artificial geral seria um novo tipo de IA com, entre outras qualidades, "a capacidade de resolver problemas gerais de maneira não restrita ao domínio, no mesmo sentido que um ser humano pode."

AGI versus IA forte versus superinteligência artificial

A AGI está fortemente associada a outros conceitos em aprendizado de máquina, muitas vezes sendo confundida ou até mesmo usada de forma intercambiável com IA forte ou superinteligência artificial. Embora esses conceitos tenham uma boa sobreposição, cada um deles é uma concepção distinta de IA por si só.

AGI versus IA forte

"IA forte", um conceito discutido com destaque na obra do Filósofo John Searle, refere-se a um sistema de IA que demonstra consciência e serve principalmente como um contraponto à IA fraca. Embora a IA forte seja geralmente análoga à AGI (e a IA fraca seja geralmente análoga à IA estreita), elas não são meros sinônimos uma da outra.

Em resumo, enquanto a IA fraca é simplesmente uma ferramenta a ser usada por uma mente consciente, ou seja, um ser humano, a IA forte é em si uma mente consciente. Embora normalmente esteja implícito que essa consciência implicaria uma inteligência correspondente igual ou superior à dos seres humanos, a IA forte não se preocupa explicitamente com o desempenho relativo em várias tarefas. Os dois conceitos são frequentemente confundidos porque a consciência geralmente é considerada um pré-requisito ou uma consequência da “inteligência geral”.

Apesar de suas semelhanças, a AGI e a IA forte acabam descrevendo conceitos complementares em vez de conceitos idênticos.

AGI versus superinteligência artificial

A superinteligência artificial, como seu nome implica, constitui um sistema de IA cujos recursos excedem amplamente os dos seres humanos.

Vale a pena notar que este conceito não pressupõe necessariamente superinteligência “geral”. Dessas três etapas análogas de IA — AGI, IA forte e superinteligência artificial — a superinteligência artificial é a única que já foi alcançada. Em vez de ser o único domínio da ficção científica, existem modelos de IA estreita que demonstram o que poderia ser chamado de superinteligência, na medida em que excedem o desempenho de qualquer ser humano em sua tarefa específica.

Por exemplo,

  • O AlphaFold supera todos os cientistas humanos na previsão da estrutura 3D de uma proteína a partir de uma sequência de aminoácidos.
  • O Deep Blue da IBM venceu o campeão mundial Garry Kasparov no xadrez em 1997.
  • O IBM Watson® venceu os campeões do Jeopardy!,Ken Jennings e Brad Rutter, em 2013.
  • O AlphaGo (e seu modelo sucessor AlphaZero) é considerado o maior jogador de Go do mundo.

Embora esses modelos possam representar avanços na superinteligência artificial, eles não alcançaram a inteligência artificial "general", pois esses sistemas de IA não podem aprender novas tarefas de forma autônoma ou expandir seus recursos de resolução de problemas para além do seu escopo estreitamente definido.

Além disso, vale a pena notar que a superinteligência não é um pré-requisito da AGI. Em teoria, um sistema de IA que demonstre consciência e um nível de inteligência comparável ao de um ser humano comum e normal representaria tanto a AGI quanto a IA forte, mas não a superinteligência artificial.

Definições existentes de inteligência geral artificial

Não há consenso entre os especialistas sobre o que exatamente deve se qualificar como AGI, embora muitas definições tenham sido propostas ao longo da história da ciência da computação. Essas definições geralmente se concentram na noção abstrata de inteligência de máquina, em vez de algoritmos específicos ou modelos de aprendizado de máquina que devem ser usados para alcançá-la.

Em 2023, um artigo do Google Deepmind pesquisou a literatura acadêmica existente e identificou várias categorias de frameworks para a definição de inteligência geral artificial:

  • Teste de Turing: máquinas que podem agir de forma convincente como seres humanos
  • IA forte: sistemas que possuem consciência
  • Analogias com o cérebro humano
  • Desempenho de nível humano em tarefas cognitivas
  • Capacidade de aprender novas tarefas
  • Trabalho economicamente valioso
  • Recursos flexíveis e gerais
  • "Inteligência capaz artificial" (ACI)

O Teste de Turing

Alan Turing, uma figura seminal na história da ciência da computação teórica, publicou uma das primeiras e mais influentes definições de inteligência de máquina em seu artigo de 1950, "Computer Machinery and Intelligence". O núcleo de seu argumento era que a inteligência pode ser definida pelo comportamento, em vez de qualidades filosóficas místicas. Reconhecendo a dificuldade de definir definições sólidas de conceitos como máquinas e pensamento, Turing propôs uma maneira simples de contornar o problema com base em um jogo festivo chamado Jogo da Imitação.

O "Teste de Turing" é simples: um observador humano deve ler amostras de texto e determinar se elas foram geradas por um humano ou por uma máquina. Turing propôs que, se um humano não consegue distinguir entre a saída do programa e a saída de outro ser humano, pode-se dizer que o programa demonstra inteligência semelhante à humana.

Críticas ao Teste de Turing
Apesar de sua influência gigantesca, os cientistas da computação hoje não consideram que o Teste de Turing seja uma medida adequada de AGI. Em vez de demonstrar a capacidade de as máquinas pensam, o teste muitas vezes simplesmente destaca como os seres humanos são fáceis de enganar.

Por exemplo, em 1966 Joseph Weizelbaum criou um programa de chatbot chamado ELIZA que aplicava regras simples para transformar a linguagem humana da entrada de um usuário em uma resposta do chatbot. O primeiro programa que ele projetou com esse chatbot foi chamado DOCTOR, projetado para imitar um psicoterapeuta rogeriano, respondendo genericamente ou reformulando a entrada do usuário na forma de uma pergunta:

Humano: bem, meu namorado me fez vir aqui.
ELIZA: seu namorado fez você vir aqui?
Humano: ele diz que eu fico deprimido na maior parte do tempo.
ELIZA: lamento saber que você está deprimida.
Humano: é verdade. Estou infeliz.
ELIZA: você acha que vir aqui vai te ajudar a não ser infeliz?
 

Como Weizelbaum explicou em seu trabalho de 1976, Computer Power and Human Reason, ele ficou “surpreso ao ver como as pessoas conversando com a DOCTOR de forma rápida e profunda se envolveram emocionalmente com o computador e como elas o antropomorfizaram de forma inequívoca”. Ele observou que até mesmo sua assistente, que o observou trabalhar no programa por meses e obviamente conhecia sua metodologia simples, pediu-lhe para sair da sala por privacidade quando ela começou a conversar com ele.1 Esse fenômeno veio a ser conhecido como O Efeito ELIZA.

IA forte: sistemas que possuem consciência

Outra definição proposta estabelece um padrão mais elevado para a AGI: um sistema de IA que possui consciência. Conforme articulado por Searles, “de acordo com a IA robusta, o computador não é apenas uma ferramenta no estudo da mente; em vez disso, o computador adequadamente programado é realmente uma mente.”2

Searles foi o autor de uma refutação filosófica proeminente da capacidade do Teste de Turing de provar uma IA forte em 1980. Ele descreve um falante de inglês sem nenhuma compreensão de chinês, trancado em uma sala cheia de livros de símbolos chineses e instruções (em inglês) para manipular os símbolos. Ele argumenta que o locutor de inglês poderia enganar alguém em uma sala diferente, fazendo-o pensar que ele pode falar chinês simplesmente seguindo as instruções para manipular números e símbolos, apesar de não compreender as mensagens da outra pessoa nem mesmo suas próprias respostas.3

As décadas de debate em torno do argumento da sala chinesa, resumidas neste artigo da Stanford Encyclopedia of Philosophy, demonstram a falta de consenso científico sobre uma definição de "compreensão" e se um programa de computador pode possuí-lo. Essa discordância, juntamente com a possibilidade de que a consciência pode nem mesmo ser um requisito para o desempenho semelhante ao humano, torna a IA forte sozinha uma estrutura impraticável para definir a AGI.

Analogias com o cérebro humano

Uma abordagem intuitiva da AGI, que visa replicar o tipo de inteligência que (até onde sabemos) só foi alcançado pelo cérebro humano, é replicar o próprio cérebro humano.4 Essa intuição levou às redes neurais artificiais originais, que por sua vez produziram os modelos de deep learning que atualmente representam a vanguarda em quase todos os subcampos da IA.

O sucesso das redes neurais de deep learning, especialmente os grandes modelos de linguagem (LLMs) e os modelos multimodais na vanguarda da IA generativa (IA gen), demonstra os benefícios de se inspirar no cérebro humano por meio de redes auto-organizadas de neurônios artificiais. No entanto, muitos dos modelos de deep learning mais capazes até o momento usam arquiteturas baseadas em transformadores, que não emulam rigorosamente estruturas semelhantes ao cérebro. Isso sugere que imitar explicitamente o cérebro humano pode não ser inerentemente necessário para alcançar a AGI.

Desempenho de nível humano em tarefas cognitivas

Uma abordagem mais holística é simplesmente definir a AGI como um sistema de IA que pode realizar todas as tarefas cognitivas que as pessoas podem fazer. Embora essa definição seja útil de forma flexível e intuitiva, ela é ambígua: quais tarefas? Quais pessoas? Essa ambiguidade limita seu uso prático como um framework formal para a AGI.

A contribuição mais notável desse framework é que ele limita o foco da AGI a tarefas não físicas. Isso desconsidera recursos como o uso de ferramentas físicas, locomoção ou manipulação de objetos, que muitas vezes são considerados demonstrações de "inteligência física".5 Isso elimina novos avanços em robótica como um pré-requisito para o desenvolvimento da AGI.

Capacidade de aprender novas tarefas

Outra abordagem intuitiva à AGI, e à própria inteligência, é enfatizar a capacidade de aprender —especificamente, de aprender a maior gama de tarefas e conceitos que os seres humanos conseguem. Isso reflete Turing em "Computing Machinery and Intelligence", em que ele especula que pode ser mais sensato programar uma IA infantil e sujeitá-la a um período de educação, em vez de programar diretamente um sistema de computador como uma mente adulta.6

Esta abordagem está em desacordo com a IA estreita, que explicitamente treina os modelos para realizar uma tarefa específica. Por exemplo, mesmo um LLM como o GPT-4, que ostensivamente demonstra capacidade para aprendizado few-shot ou mesmo aprendizado zero-shot em “novas” tarefas, está limitado a funções adjacentes à sua tarefa principal: prever de forma autorregressiva a próxima palavra em uma sequência .

Embora os modelos de IA multimodal de última geração possam executar tarefas cada vez mais diversificadas, desde processamento de linguagem natural (NLP) até computer vision e reconhecimento de fala, eles ainda estão limitados a uma lista finita de habilidades essenciais representadas em seus conjuntos de dados de treinamento. Eles não podem, por exemplo, também aprender a dirigir um carro. Uma verdadeira AGI seria capaz de aprender com novas experiências em tempo real, um feito comum para crianças humanas e até mesmo para muitos animais.

O pesquisador de IA Pei Wang oferece uma definição de inteligência de máquina que é útil dentro desse framework: "a capacidade de um sistema de processamento de informações de se adaptar ao seu ambiente com conhecimento e recursos insuficientes".7

Trabalho economicamente valioso

A Open AI, cujo modelo GPT-3 é frequentemente creditado como o início da atual era da IA generativa após o lançamento do ChatGPT, define a AGI em seu regulamento como "sistemas altamente autônomos que superam os humanos nos trabalhos economicamente mais valiosos".8

Como observa o artigo da DeepMind, essa definição omite elementos da inteligência humana cujo valor econômico é difícil de definir, como criatividade artística ou inteligência emocional. Na melhor das hipóteses, esses aspectos da inteligência podem gerar valor econômico de forma indireta, como a criatividade, que produz filmes lucrativos, ou a inteligência emocional, que alimenta máquinas que realizam psicoterapia.

O foco no valor econômico também implica que os recursos que compõem a AGI só podem ser contados se forem realmente colocados em implementação no mundo real. Se um sistema de IA pode rivalizar com os humanos em uma tarefa específica, mas é impraticável realmente implementar para essa tarefa por motivos legais, éticos ou sociais, pode-se dizer que "supera" os seres humanos?

O artigo da DeepMind também observa que a OpenAI encerrou sua divisão de robótica em 2021, implicando que a replicação do trabalho físico (e as implicações correspondentes sobre o papel da “inteligência física” na AGI) não faz parte dessa interpretação de valor econômico.

Recursos flexíveis e gerais

Gary Marcus, psicólogo, cientista cognitivo e pesquisador de IA, definiu a AGI como "uma abreviação para qualquer inteligência... que seja flexível e geral, com recursos e confiabilidade comparáveis à (ou além) da inteligência humana".9 Marcus propôs um conjunto de tarefas de benchmark destinadas a demonstrar essa adaptabilidade e competência geral, semelhante a uma implementação específica e prática do framework de "tarefas de aprendizado".

Essa quantificação da AGI lembra um experimento mental proposto pelo cofundador da Apple, Steve Wozniak, que perguntou: "Um computador poderia fazer uma xícara de café?" Wozniak observa que essa tarefa aparentemente simples é, na verdade, bastante complexa: é preciso ser capaz de andar, saber o que é uma cozinha, saber a aparência de uma máquina de café ou café e interagir com gavetas e armários. Resumindo, um ser humano deve utilizar a experiência de uma vida inteira apenas para preparar uma xícara de café.10

Especificamente, Marcus propôs um conjunto de cinco tarefas de benchmark que demonstrariam AGI se executadas por um único sistema de IA.11

  • Assistir a um filme e entender seus personagens, seus conflitos e suas motivações.
  • Ler um romance e responder a perguntas de forma confiável, com insights além do texto original, sobre enredo, personagens, conflitos e motivações.
  • Trabalhar como um chef competente em uma cozinha qualquer (semelhante ao benchmark de café de Wozniak).
  • Construir de forma confiável 10.000 linhas de código livre de bugs a partir de instruções em linguagem natural, sem precisar recompilar códigos de bibliotecas existentes.
  • Converter provas matemáticas de linguagem natural em forma simbólica.

Embora esse framework orientado a tarefas introduza uma objetividade tão necessária na validação da AGI, é difícil concordar se essas tarefas específicas abrangem toda a inteligência humana. A terceira tarefa, trabalhar como chef, implica que a robótica e, portanto, a inteligência física, seriam uma parte necessária da AGI.

"Inteligência capaz artificial"

Em 2023, o CEO da Microsoft IA e cofundador da DeepMind, Mustafa Suleyman, propôs o termo “inteligência capaz artificial” (ACI) para descrever sistemas de IA que podem realizar tarefas complexas, abertas e de várias etapas no mundo real. Mais especificamente, ele propôs um "Teste de Turing Moderno", no qual uma IA receberia US$ 100 mil de capital inicial e seria encarregada de transformá-la em US$ 1 milhão.12 Em termos gerais, isso combina a noção de valor econômico da OpenAI com o foco de Marcus na flexibilidade e inteligência geral.

Embora esse benchmark provavelmente comprove engenhosidade genuína e competência interdisciplinar, em termos práticos esse enquadramento de inteligência como um tipo específico de saída é proibitivamente restrito. Além disso, focar apenas no lucro introduz riscos significativos de alinhamento. 13

Os LLMs já são AGI?

Alguns pesquisadores, como Blase Aguera y Arcas e Peter Norvig, argumentaram que LLMs avançados, como o Llama da Meta, o GPT da Open IA e o Claude da Anthropic, já alcançaram a AGI. Eles postulam que a generalidade é o elemento-chave da AGI e que os modelos de hoje já podem discutir uma ampla gama de tópicos, realizar uma ampla gama de tarefas e processar uma gama diversificada de entradas multimodais. “A inteligência geral deve ser pensada em termos de um quadro de avaliação multidimensional”, afirmam eles. “Não é uma simples proposta de sim ou não.”14

Há muitos detratores nessa posição. Os autores do artigo da DeepMind argumentam que a generalidade em si não se qualifica como AGI: ela deve ser combinada com um certo grau de desempenho. Por exemplo, se um LLM pode escrever código, mas esse código não é confiável, então essa generalidade "ainda não tem desempenho suficiente".

Yann LeCun, cientista-chefe de IA da Meta, afirmou que os LLMs não têm AGI porque não têm senso comum: não podem pensar antes de agir, não podem realizar ações no mundo real ou aprender por meio de experiência incorporada e não têm memória persistente e capacidade de planejamento hierárquico.15 Em um nível mais fundamental, LeCun e Jacob Browning argumentaram que "um sistema treinado apenas na linguagem nunca se aproximará da inteligência humana, mesmo que treinado a partir de agora até a morte térmica do universo".16

Abordagens tecnológicas para a AGI

Goertzel e Pennachin afirmam que existem pelo menos três abordagens tecnológicas básicas para sistemas AGI, em termos de algoritmos e arquiteturas de modelos.

  • Emulação aproximada do cérebro humano em software: como o cérebro humano é o único sistema que conhecemos capaz de inteligência geral, uma emulação quase perfeita dele produziria, teoricamente, uma inteligência semelhante. Enquanto as redes neurais artificiais replicam superficialmente os mecanismos básicos do cérebro, o funcionamento real do cérebro é muito mais variado e sofisticado do que os modelos de deep learning atuais. Além do desafio tecnológico de emular verdadeiramente o cérebro, essa abordagem também requer uma maior compreensão das máquinas do cérebro do que temos atualmente.17
  • Uma nova arquitetura de modelo, distinta tanto do cérebro quanto das arquiteturas de IA estreita: essa abordagem assume que o cérebro não é a única estrutura propícia à inteligência geral e que as abordagens existentes para IA estreita não podem superar suas limitações tecnológicas ou conceituais. A AGI, portanto, exigiria um novo tipo de inteligência artificial. Por exemplo, LeCun propôs evitar arquiteturas de modelos de IA autorregressivos e outras arquiteturas de modelos de IA generativos e probabilísticos em favor de “Sistemas de IA orientados por objetivos", cujos “modelos mundiais” aprendem mais como animais e crianças.

  • Uma abordagem integrativa, sintetizando algoritmos de IA estreita: essa abordagem é o foco da maioria das iniciativas atuais do mundo real para alcançar a AGI, tentando unir o progresso isolado que foi feito em ferramentas de IA estreita, como LLMs, modelos de imagens e agentes de aprendizado por reforço . Os modelos multimodais atuais podem ser vistos como etapas intermediárias nesse caminho. Essas abordagens integrativas normalmente usam um modelo central de "agente", geralmente um LLM, para navegar em um processo de tomada de decisão e automatizar a delegação de subtarefas a modelos especializados.

Quando a AGI chegará?

As previsões sobre o futuro da IA sempre envolvem um alto grau de incerteza, mas quase todos os especialistas concordam que ele será possível até o final do século e alguns estimam que isso pode acontecer muito mais cedo.

Em 2023, Max Roser, de Our World in Data, fez um resumo de previsões da AGI para resumir como o pensamento especializado evoluiu sobre o forecasting da AGI nos últimos anos. Cada pesquisa perguntou aos entrevistados (pesquisadores de IA e aprendizado de máquina) quanto tempo eles achavam que levaria para alcançar uma chance de 50% de inteligência de máquina de nível humano. A mudança mais significativa em relação a 2018-2022 é a crescente certeza dos entrevistados de que a AGI chegaria dentro de 100 anos.

No entanto, vale a pena notar que esses três estudos foram conduzidos antes do lançamento do ChatGPT e do início da era moderna da IA generativa. O ritmo cada vez maior dos avanços na tecnologia de IA desde o final de 2022, especialmente em LLMs e IA multimodal, resultou em um ambiente de forecasting muito diferente.

Em uma pesquisa de acompanhamento maior por Grace et al de 2.778 pesquisadores de IA, realizada em outubro de 2023 e publicada em janeiro de 2024, os entrevistados estimaram uma chance de 50% de "máquinas sem ajuda superando os humanos em todas as tarefas possíveis" em 204713 anos antes do que especialistas previram em um estudo semelhante apenas um ano antes.

Mas, como observa Roser, a pesquisa mostrou que especialistas em muitas áreas não são necessariamente confiáveis quando fazem forecasting do futuro de sua própria disciplina. Ele cita o exemplo dos irmãos Wright, geralmente considerados os inventores do primeiro avião bem-sucedido do mundo. Em um discurso de aceitação de prêmio em 5 de novembro de 1908 no Aéro Club de France em Paris, Wilbur Wright disse: "Confesso que, em 1901, eu disse ao meu irmão Orville que os homens não voariam por 50 anos. Dois anos depois, estávamos fazendo voos.”18

Soluções relacionadas
IBM watsonx.ai

Treine, valide, ajuste e implemente recursos de IA generativa, modelos de base e recursos de aprendizado de máquina com o IBM watsonx.ai, um estúdio empresarial de última geração para construtores de IA. Crie aplicações de IA em uma fração do tempo com uma fração dos dados.

Conheça o watsonx.ai
Soluções de inteligência artificial

Use a IA a serviço de sua empresa com a experiência e o portfólio de soluções líder do setor da IBM à sua disposição.

Explore as soluções de IA
Consultoria e serviços em IA

Reinvente os fluxos de trabalho e operações críticos adicionando IA para maximizar experiências, tomadas de decisão em tempo real e valor de negócios.

Explore os serviços de IA
Dê o próximo passo

Obtenha acesso completo aos recursos que abrangem o ciclo de vida do desenvolvimento da IA. Produza soluções poderosas de IA com interfaces fáceis de usar, fluxos de trabalhos e acesso a APIs e SDKs padrão do setor.

Explore o watsonx.ai Agende uma demonstração em tempo real
Notas de rodapé

1 Computer Power and Human Reason: from Judgment to Calculation (page 6), Joseph Weizenbaum, 1976.
2 “Minds, brains, and programs”, Behavioral and Brain Sciences (archived via OCR by University of Southampton), 1980.
3 ibid.
4 “Can we accurately bridge neurobiology to brain-inspired AGI to effectively emulate the human brain?”, Research Directions: Bioelectronics (published online by Cambridge University), 12 de fevereiro de 2024.
5 “Physical intelligence as a new paradigm”, Extreme Mechanics Letters, Volume 46, julho de 2021.
6 “Computing Machinery and Intelligence”, Mind 49: 433-460 (publicado online pela University of Maryland, Baltimore County), 1950.
7 “On the Working Definition of Intelligence”, ResearchGate, janeiro de 1999.
8 “Open AI Charter”, OpenAI, arquivado em 1 de setembro de 2024.
9 “AGI will not happen in your lifetime. Or will it?”, Gary Marcus (on Substack), 22 January 2023.
10 “Wozniak: Could a Computer Make a Cup of Coffee?”, Fast Company (on YouTube), 2 de março de 2010.
11 “Dear Elon Musk, here are five things you might want to consider about AGI”, Gary Marcus (on Substack), 31 de maio de 2022.
12 “Mustafa Suleyman: My new Turing test would see if AI can make $1 million”, MIT Technology Review, 14 de julho de 2023.
13 “Alignment of Language Agents”, arXiv, 26 de março de 2021.
14 “Artificial General Intelligence Is Already Here”, Noema Magazine, 10 de outubro de 2023.
15 “Yann Lecun: Meta AI, Open Source, Limits of LLMs, AGI & the Future of AI”, Lex Fridman Podcast (on YouTube), 10 de outubro de 2023.
16 “AI and The Limits of Language” , Noema Magazine, 23 de agosto de 2023.
17 “Why is the human brain so difficult to understand? We asked 4 neuroscientists.” Allen Institute, 21 de abril de 2022.
18 “Great Aviation Quotes: Predictions” , Great Aviation Quotes.