A inteligência artificial (IA) forte, conhecida como inteligência artificial geral (AGI) ou IA geral, é uma forma teórica de IA usada para descrever uma parte da mentalidade do desenvolvimento de IA. Se os pesquisadores conseguirem desenvolver uma IA forte, a máquina exigiria uma inteligência igual a dos humanos, teria uma consciência própria com capacidade de resolver problemas, descobrir e planejar para o futuro.
A IA forte tem o propósito de criar máquinas inteligentes que não se distinguem da mente humana. Porém, como uma criança, a máquina de IA teria que descobrir por meio de input e experiências, progredindo constantemente e aprimorando suas habilidades ao longo do tempo.
Enquanto os pesquisadores de IA acadêmicos e do setor privado estão investindo na criação de inteligência artificial geral (AGI), ela existe hoje somente como um conceito e não como uma realidade tangível. Enquanto algumas pessoas, como Marvin Minsky, foram citados como sendo excessivamente otimistas sobre o que poderíamos realizar em algumas décadas no campo da IA, outros diriam que os sistemas de IA forte não podem nem ser desenvolvidos. Até que as métricas de sucesso, como inteligência e compreensão, sejam explicitamente definidas, eles estão corretos em acreditar nisso. Por enquanto, muitos usam o teste de Turing para avaliar a inteligência de um sistema de IA.
Alan Turing desenvolveu o Teste de Turing em 1950 e o apresentou em seu artigo, "Máquinas de computação e inteligência" (PDF, 566 KB) (link externo a IBM). Originalmente conhecido como Jogo da Imitação, o teste avalia se o comportamento de uma máquina pode ser diferenciado de um humano. Neste teste, existe uma pessoa conhecida como o "interrogador" que procura identificar uma diferença entre outputs gerados por computador e daqueles gerados por humanos através de uma série de perguntas. Se o interrogador não conseguir discernir de forma confiável as máquinas dos humanos, a máquina passa no teste. Porém, se o avaliador conseguir identificar corretamente as respostas humanas, isso elimina a classificação da máquina como inteligente.
Embora não haja um conjunto de diretrizes de avaliação para o Teste de Turing, Turing especificou que um avaliador humano tem apenas 70% de chance de prever corretamente uma conversa humana em relação a uma conversa gerada por computador após 5 minutos. O teste de Turing deu início à aceitação geral em torno da ideia de inteligência da máquina.
No entanto, o Teste de Turing original testa apenas um grupo de conhecimento técnico, output de texto ou xadrez, como exemplos. A IA forte precisa executar diversas tarefas igualmente bem, levando ao desenvolvimento do Teste de Turing Estendido. Este teste avalia o desempenho textual, visual e auditivo da IA e o compara com o output gerado por humanos. Esta versão é usada na famosa competição do Prêmio Loebner, na qual um juiz humano adivinha se o output foi criado por um humano ou por um computador.
O Argumento da sala chinesa foi criado por John Searle em 1980. Em seu artigo, ele discute a definição de compreensão e pensamento, afirmando que os computadores jamais seriam capazes de fazer isso. Este trecho de seu artigo, do website de Stanford (link externo a IBM), resume bem seu argumento,
"A computação é definida, em sua forma mais pura, formalmente ou sintaticamente, considerando que as mentes possuem conteúdo mental e semântico real, e não podemos passar do sintático ao semântico apenas com as operações sintáticas e nada mais…Um sistema, eu, por exemplo, não poderia adquirir um entendimento do chinês apenas seguindo os passos de um programa de computador que simulasse o comportamento de um falante do idioma chinês (p.17)".
O argumento da sala chinesa propõe o cenário a seguir:
Imagine uma pessoa, que não fala chinês, sentada em uma sala fechada. Na sala, encontra-se um livro com regras, frases e instruções da língua chinesa. Outra pessoa, que é fluente em chinês, envia notas por escrito em chinês para a sala. Com a ajuda do livro de frases do idioma, a pessoa dentro da sala pode selecionar a resposta adequada e devolvê-las para a pessoa fluente em chinês.
Embora a pessoa dentro da sala tenha conseguido fornecer a resposta certa usando o livro de frases do idioma, ele ou ela continuam sem saber falar ou entender chinês. Isso não passou de uma simulação de compreensão por meio de uma resposta ou declarações correspondentes com as respostas adequadas. Searle argumenta que a IA Forte precisaria, de fato, uma mente para ter consciência e compreensão. O Argumento da sala chinesa mostra as falhas do Teste de Turing, demonstrando as diferenças nas definições de inteligência artificial.
A IA fraca, conhecida também como IA restrita, foca em desempenhar uma tarefa específica, como fornecer a resposta à dúvidas baseado no input do usuário ou no jogo de xadrez. Ela pode executar um tipo de tarefa, mas não ambas, considerando que a IA forte pode desempenhar diversas funções, eventualmente ensinando a si própria a resolver novos problemas. A IA fraca depende da interferência humana para definir os parâmetros de seus algoritmos de aprendizado e para oferecer dados de treinamento relevantes a fim de assegurar a precisão. Embora o input humano acelere a fase de crescimento da IA forte, ele não é necessário e, com o tempo, ela desenvolverá uma consciência parecida com a humana ao invés de simulá-la, como a IA fraca faz. Os carros autônomos e os assistentes virtuais, como a Siri, são exemplos de IA fraca.
Embora não haja exemplos claros de inteligência artificial forte, o campo da IA está apresentando inovações constantemente. Outra teoria de IA surgiu, conhecida como superinteligência artificial (ASI), superinteligência ou super IA. Este tipo de IA supera a IA forte em inteligência humana e capacidade. No entanto, a super IA ainda é puramente especulativa, pois não temos exemplos de IA forte.
Dito isso, existem áreas em que a IA está desempenhando um papel mais importante, como:
Os termos inteligência artificial, machine learning e deep learning são frequentemente usados em contexto errado. Esses termos são usado geralmente para descrever a IA forte e, portanto, vale a pena definir brevemente cada um desses termos:
A definição de inteligência artificial por John McCarthy (link externo a IBM) é "a ciência e a engenharia para a criação de máquinas inteligentes, especialmente programas de computador inteligentes. Ela está relacionada à tarefa semelhante de usar computadores para entender a inteligência humana, mas a IA não precisa se limitar aos métodos biologicamente observáveis".
Machine learning é um subcampo da inteligência artificial. Os modelos clássicos (não profundos) de machine learning exigem mais intervenção humana para segmentar os dados em categorias (ou seja, por meio do aprendizado de recursos).
Deep learning é também um subcampo do machine learning, que tenta imitar a interconectividade do cérebro humano usando redes neurais. Suas redes neurais artificiais são constituídas por camadas de modelos, que identificam padrões dentro de um dado conjunto de dados. Elas usam um grande volume de dados de treinamento para descobrir com precisão, o que posteriormente demanda hardware mais potente, como GPUs ou TPUs. Os algoritmos de deep learning são mais fortemente associados à IA de nível humano.
Para uma análise mais detalhada das diferenças de nuances entre essas tecnologias, veja "IA vs. machine learning vs. deep learning vs. redes neurais: qual é a diferença?"
O deep learning pode lidar bem com problemas complexos e, como resultado, é usado em muitas tecnologias emergentes e inovadoras atuais. Os algoritmos de deep learning têm sido aplicados diversas áreas. Veja alguns exemplos:
O Watson Assistant é o chatbot de IA para empresas. Esta tecnologia de inteligência artificial corporativa permite que os usuários criem soluções de IA conversacional.
O IBM Watson Assistant fornece aos clientes respostas rápidas, consistentes e precisas em qualquer aplicativo, dispositivo ou canal.