A inteligência artificial senciente é definida teoricamente como máquinas autoconscientes que podem agir de acordo com seus próprios pensamentos, emoções e motivos. Até o momento, os especialistas concordam que a IA está longe de ser complexa o suficiente para ser senciente.
Desde que os computadores foram inventados, os cientistas desenvolveram benchmarks, como o Teste de Turing, com o objetivo de avaliar a “inteligência” das máquinas. Logo depois, os debates sobre a inteligência das máquinas se transformaram em deliberações sobre sua consciência ou senciência.
Embora as discussões sobre a consciência da IA tenham surgido desde o início dos anos 2000, a popularidade de grandes modelos de linguagem, o acesso do consumidor à IA generativa, como no ChatGPT, e uma entrevista no The Washington Post 1 com o ex-engenheiro do Google Blake Lemoine reacenderam o interesse na questão: a IA é senciente?
Lemoine disse ao Post que o LaMDA, o gerador de chatbot artificialmente inteligente do Google, é senciente porque começou a falar sobre direitos e personalidade e estava aparentemente ciente de suas próprias necessidades e sentimentos.
Os especialistas em ética do Google negaram publicamente essas alegações. Yann LeCun, Chefe de Pesquisa de IA da Meta, disse ao The New York Times2 que esses sistemas não são potentes o suficiente para alcançar a "verdadeira inteligência". O consenso atual entre os principais especialistas é de que a IA não é senciente.
À medida que o aprendizado de máquina se torna mais avançado, os cientistas da computação estão pressionando por mais inovações nas ferramentas de IA na esperança de criar dispositivos que possam ter uma compreensão mais profunda do comportamento humano, levando a mais personalização e respostas relevantes em tempo real sem a necessidade de programação humana entediante. Isso levou a desenvolvimentos na computação cognitiva, onde os sistemas interagem naturalmente com seres humanos e resolvem problemas por meio de algoritmos de autoaprendizado. O modelo GPT da OpenAI e o LaMDA do Google são uma indicação do que pode estar em andamento em outras empresas de tecnologia, como a Meta, Apple ou Microsoft.
A senciência seria um passo adiante. É definida pela capacidade de ter experiências subjetivas, consciência, memória e sentimentos. Mas as definições de senciência, cognição e consciência são muitas vezes inconsistentes e ainda fortemente debatidas 3 por filósofos e cientistas cognitivos.
Em teoria, a IA senciente perceberia o mundo ao seu redor, processaria estímulos externos e usaria tudo isso para tomar decisões, além de pensar e sentir como os seres humanos.
Embora a IA aprenda como os seres humanos aprendem e seja capaz de raciocinar até certo ponto, ela não é tão complexa quanto os humanos ou mesmo alguns cérebros de animais. Ainda é relativamente desconhecido como o cérebro humano dá origem à consciência, mas há mais envolvido do que apenas o número de células cerebrais conectadas entre si. Muitas vezes, a senciência é confundida com inteligência, que é outra funcionalidade que a comunidade científica ainda está trabalhando para quantificar nas máquinas.
As máquinas inteligentes aprendem por meio da exploração e podem se adaptar a novas entradas. A maioria dos programas de IA atualmente são especializados, em vez de generalistas, mais diretos que cerebrais. Cada programa é treinado para ser bom em uma tarefa ou tipo de problema muito restrito, como jogar xadrez ou fazer um teste padronizado.
Na pesquisa em ciência da computação, os especialistas em IA têm brincado com o conceito de "inteligência geral artificial" (AGI), também conhecida como IA forte, cujo objetivo é imbuir a IA de uma inteligência mais parecida com a humana, que não seja específica de uma tarefa. Além disso, há também o hipotético estado futuro da superinteligência artificial.
Essas habilidades têm o objetivo de proporcionar à IA uma melhor compreensão dos comandos e contextos humanos e, como resultado, automatizar o processamento de informações que permitem que as máquinas deduzam a função correta a ser executada em uma determinada condição por conta própria.
Ferramentas como o Teste de Turing foram criadas para avaliar como os comportamentos das máquinas são discerníveis dos humanos. Ele considera que um programa é inteligente se puder enganar outro ser humano, fazendo-o acreditar que ele também é humano.
Mas a inteligência é complicada de classificar. Por exemplo, o Argumento da Sala Chinesa ilustrou falhas no Teste de Turing para determinar a inteligência. É importante ressaltar que a inteligência geralmente se refere à capacidade de adquirir e usar o conhecimento. Não equivale a senciência. Não há evidências de que um modelo de IA tenha monólogos internos ou possa sentir sua própria existência em um mundo maior, que são duas qualidades da senciência.
Grandes modelos de linguagem podem replicar de forma convincente a fala humana por meio do processamento de linguagem natural e da Natural Language Understanding.
Alguns tecnólogos argumentam que a arquitetura de redes neurais subjacentes à IA, como os LLMs, imita as estruturas do cérebro humano e estabelece as bases para a consciência.
Muitos cientistas da computação discordam, dizendo que a IA não é senciente e que ela simplesmente aprendeu como funciona a linguagem humana regurgitando conteúdo ingerido de sites como Wikipedia, Reddit e redes sociais sem realmente entender o significado por trás do que está dizendo ou por que está dizendo.
Os sistemas de IA historicamente se destacaram no reconhecimento de padrões, que pode se estender a imagens, vídeos, áudio, dados complexos e textos. Também podem assumir personas estudando os padrões de fala dessa pessoa específica.
Alguns especialistas se referem à IA como papagaios estocásticos4 que estão "costurando aleatoriamente sequências de formas linguísticas observadas em seus vastos dados de treinamento, de acordo com informações probabilísticas sobre como elas se combinam, mas sem qualquer referência ao significado".
O problema é que os seres humanos têm esse desejo inato de conexão, que os impulsiona a antropomorfizar5 objetos e projetar em seus sentimentos e personalidades, porque facilita os laços sociais.
Como disseram os pesquisadores do artigo sobre o papagaio estocástico: "Temos que levar em conta o fato de que nossa percepção do texto em linguagem natural, independentemente de como ele foi gerado, é mediada por nossa própria competência linguística e nossa predisposição para interpretar atos comunicativos como se transmitissem um significado e uma intenção coerentes, independentemente de serem ou não."
É por isso que algumas pessoas podem acreditar no que a IA diz, mesmo sabendo que essas tecnologias não podem realmente perceber ou entender o mundo além do que está disponível por meio de seus dados de treinamento.
Como os chatbots IA podem manter conversas coerentes e transmitir sentimentos, as pessoas podem interpretar isso como algo significativo e muitas vezes se esquecem de que os LLMs, entre outras máquinas humanoides, são "programados para serem críveis", de acordo com a Scientific American6. Cada funcionalidade que ele possui, sejam as palavras que diz ou a forma como tenta imitar as expressões humanas, alimenta esse design.
A IA cria uma ilusão de presença ao seguir os movimentos da comunicação entre humanos, sem depender da experiência física do ser.
"Todas as sensações (fome, dor, ver vermelho, apaixonar-se) são o resultado de estados fisiológicos que um LLM simplesmente não tem", escreveram Fei-Fei Li e John Etchemendy, cofundadores do Institute for Human-Centered Artificial Intelligence da Stanford University, em um artigo da TIME 7. Portanto, mesmo que um chatbot IA seja solicitado a dizer que está com fome, ele não pode realmente estar com fome porque não tem estômago.
As IAs atuais não são sencientes. Por meio de ensaios e testes, esse tipo de modelo de IA também mostrou que ainda é muito falho e muitas vezes pode cometer erros ou inventar informações, resultando em um fenômeno chamado alucinações.
Esses erros geralmente surgem quando os modelos não conseguem colocar o contexto em que a informação existe ou é incerta. Existe o risco de que essas falhas possam ser amplificadas se a IA se tornar mais autônoma.
Além disso, os especialistas em ética estão preocupados com a IA senciente porque não sabem o que pode acontecer se os cientistas da computação perderem o controle de sistemas que aprendem a pensar de forma independente. Isso pode representar um problema "existencial" se os objetivos da IA entrarem em conflito com os objetivos humanos. Se isso ocorrer, não está claro onde estaria a responsabilidade pelos danos, pela má tomada de decisões e pelos comportamentos imprevisíveis em que a lógica não pode ser rastreada até um comando original inserido por humanos.
Além disso, os especialistas temem não conseguir se comunicar com a IA ou confiar totalmente em suas saídas. No total, alguns concluem que a IA tendo senciência pode resultar em ameaças à segurança, à proteção e à privacidade.
À medida que a IA se torna mais integrada às tecnologias existentes, especialistas do setor pressionam por mais frameworks regulatórios e proteções técnicas. Eles são mais relevantes à luz dos dilemas morais e éticos em torno da autonomia e dos recursos da IA.
1 “The Google engineer who thinks the company’s AI has come to life,” The Washington Post, 11 de junho de 2022
2 “Google Sidelines Engineer Who Claims Its A.I. Is Sentient,” The New York Times, 12 de junho de 2022
3 “Brains, Minds, and Machines: Consciousness and Intelligence,” Infinite MIT
4 “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 1º de março de 2021
5 “The mind behind anthropomorphic thinking: attribution of mental states to other species,” Animal Behaviour, novembro de 2015
6 “Google Engineer Claims AI Chatbot Is Sentient: Why That Matters,” Scientific American, 12 de julho de 2022
7 “No, Today’s AI Isn’t Sentient. Here’s How We Know,” TIME, 22 de maio de 2024