Inteligência artificial (IA) é uma tecnologia que permite que computadores e máquinas simulem o aprendizado, a compreensão, a resolução de problemas, a tomada de decisões, a criatividade e a autonomia dos seres humanos.
Aplicações e dispositivos equipados com IA podem ver e identificar objetos. Eles podem entender e responder à linguagem humana. Eles são capazes de aprender com novas informações e experiências. Eles podem fazer recomendações detalhadas para usuários e especialistas. Podem agir de forma independente, substituindo a necessidade de inteligência ou intervenção humana (um exemplo clássico é um carro autônomo).
Mas, em 2024, a maioria dos pesquisadores e profissionais de IA (e a maioria das manchetes relacionadas à IA) está focada em avanços na IA generativa (IA gen), uma tecnologia que pode criar textos, imagens, vídeos e outros conteúdos originais. Para entender completamente a IA generativa, é importante entender primeiro as tecnologias nas quais as ferramentas de IA generativa são construídas: aprendizado de máquina (ML) e deep learning.
Boletim informativo do setor
Receba insights selecionados sobre as notícias mais importantes (e intrigantes) sobre IA. Inscreva-se no nosso boletim informativo semanal Think. Consulte a Declaração de privacidade da IBM.
Sua assinatura será entregue em inglês. Você encontrará um link para cancelar a assinatura em cada boletim informativo. Você pode gerenciar suas assinaturas ou cancelar a assinatura aqui. Consulte nossa Declaração de privacidade da IBM para obter mais informações.
Uma maneira simples de pensar sobre IA é como uma série de conceitos aninhados ou derivados que surgiram ao longo de mais de 70 anos:
Diretamente abaixo da IA, temos o aprendizado de máquina, que envolve a criação de modelos ao treinar um algoritmo para fazer previsões ou tomar decisões com base em dados. Ele abrange uma ampla gama de técnicas que permitem aos computadores aprender e fazer inferências com base nos dados sem serem explicitamente programados para tarefas específicas.
Existem muitos tipos de técnicas ou algoritmos de machine learning (aprendizado de máquina), incluindo regressão linear, regressão logística, decision trees, random forest, máquinas de vetores de suporte (SVMs), k vizinhos mais próximos (KNN), agrupamento e muito mais. Cada uma dessas abordagens é adequada para diferentes tipos de problemas e dados.
Mas um dos tipos mais populares de algoritmo de aprendizado de máquina é chamado de rede neural (ou rede neural artificial). As redes neurais são modeladas de acordo com a estrutura e função do cérebro humano. Uma rede neural consiste em camadas interconectadas de nós (análogas aos neurônios), que trabalham juntas para processar e analisar dados complexos. As redes neurais são adequadas para tarefas que envolvem a identificação de padrões e relacionamentos complexos em grandes quantidades de dados.
A forma mais simples de aprendizado de máquina é chamada de aprendizagem supervisionada, que envolve o uso de conjuntos de dados rotulados para treinar algoritmos a classificar dados ou prever resultados com precisão. Na aprendizagem supervisionada, os humanos emparelham cada exemplo de treinamento com um rótulo de saída. O objetivo é que o modelo aprenda o mapeamento entre entradas e saídas nos dados de treinamento, para que possa prever os rótulos de novos dados não vistos.
O deep learning é um subconjunto do aprendizado de máquina, que usa redes neurais multicamadas, chamadas de redes neurais profundas, que simulam de forma mais aproximada o complexo poder de tomada de decisões do cérebro humano.
As redes neurais profundas incluem uma camada de entrada, pelo menos três, mas geralmente centenas de camadas ocultas, e uma camada de saída, ao contrário das redes neurais usadas em modelos clássicos de aprendizado de máquina, que geralmente têm apenas uma ou duas camadas ocultas.
Essas múltiplas camadas permitem o aprendizado não supervisionado: elas podem automatizar a extração de recursos de grandes conjuntos de dados não rotulados e não estruturados e fazer suas próprias previsões sobre o que os dados representam.
Como o deep learning não requer intervenção humana, ele permite o aprendizado de máquina em uma escala tremenda. Ele é bem adequado para processamento de linguagem natural (NLP), visão computacional e outras tarefas que envolvem a identificação rápida e precisa de padrões e relacionamentos complexos em grandes quantidades de dados. Alguma forma de deep learning potencializa a maioria das aplicações de inteligência artificial (IA) em nossas vidas atualmente.
O deep learning também permite:
A IA generativa, às vezes chamada de "IA gen", refere-se a modelos de deep learning que podem criar conteúdo original complexo, como texto longo, imagens de alta qualidade, vídeo ou áudio realista e muito mais, em resposta a um prompt ou solicitação do usuário.
Em um nível elevado, os modelos generativos codificam uma representação simplificada de seus dados de treinamento e, em seguida, extraem desta representação para criar um novo trabalho semelhante, mas não idêntico, aos dados originais.
Os modelos generativos têm sido utilizados há anos em estatística para analisar dados numéricos. Mas, durante a última década, eles evoluíram para analisar e gerar tipos de dados mais complexos. Essa evolução coincidiu com o surgimento de três tipos sofisticados de modelos de deep learning:
Em geral, a IA generativa opera em três fases:
A IA generativa começa com um "modelo de base"; um modelo de deep learning que serve de base para vários tipos diferentes de aplicações de IA generativa.
Os modelos de base mais comuns atualmente são grandes modelos de linguagem (LLMs), criados para aplicações de geração de texto. Mas também há modelos de base para geração de imagens, vídeo, som ou música, e modelos de base multimodais, são compatíveis com vários tipos de conteúdo.
Para criar um modelo de base, os profissionais treinam um algoritmo de deep learning em grandes volumes de dados brutos, não estruturados e não rotulados relevantes, como terabytes ou petabytes de texto de dados, imagens ou vídeo da internet. O treinamento produz uma rede neural de bilhões de parâmetros (representações codificadas das entidades, padrões e relacionamentos nos dados), que pode gerar conteúdo de forma autônoma em resposta a prompts. Esse é o modelo de base.
Esse processo de treinamento tem um uso intensivo de computação, é demorado e caro. Requer milhares de unidades de processamento gráfico (GPUs) agrupadas e semanas de processamento, o que geralmente custa milhões de dólares. Projetos de modelos de base de código aberto, como o Llama-2 da Meta, permitem que os desenvolvedores da IA generativa evitem essa etapa e seus custos.
Em seguida, o modelo deve ser ajustado para uma tarefa específica de geração de conteúdo. Isso pode ser feito de várias maneiras, incluindo:
Desenvolvedores e usuários avaliam regularmente as produções de seus aplicativos de IA generativa e ajustam ainda mais o modelo (até uma vez por semana), para obter maior precisão ou relevância. Ao contrário, o modelo de base em si é atualizado muito menos frequentemente, talvez a cada ano ou 18 meses.
Outra opção para melhorar o desempenho de um aplicativo de IA generativa é a geração aumentada de recuperação (RAG), uma técnica para ampliar o modelo de base para usar fontes relevantes fora dos dados de treinamento para refinar os parâmetros para maior precisão ou relevância.
A IA oferece vários benefícios em vários setores e aplicações. Alguns dos benefícios mais comumente citados incluem:
A IA pode automatizar tarefas rotineiras, repetitivas e muitas vezes tediosas, incluindo tarefas digitais, como coleta, inserção e pré-processamento de dados, e tarefas físicas, como separação de estoque em armazéns e processos de fabricação. Essa automação libera você para trabalhar em tarefas mais criativas e de maior valor.
Quer seja usada para apoio à decisão ou para tomada de decisões totalmente automatizada, a IA permite previsões mais rápidas e precisas, além de decisões confiáveis e baseadas em dados.
Combinada com a automação, a IA permite que as empresas aproveitem as oportunidades e respondam às crises à medida que surgem, em tempo real e sem intervenção humana.
A IA pode reduzir os erros humanos de várias maneiras, desde a orientação das pessoas pelas etapas adequadas de um processo até a sinalização de possíveis erros antes que ocorram e a automatização completa dos processos sem intervenção humana. Isso é especialmente importante em setores como o de saúde, onde, por exemplo, a robótica cirúrgica guiada por IA permite uma precisão consistente.
Os algoritmos de aprendizado de máquina podem melhorar continuamente sua precisão e reduzir ainda mais os erros à medida que são expostos a mais dados e "aprendem" com a experiência.
A IA está sempre ativa, disponível 24 horas por dia e oferece sempre um desempenho consistente. Ferramentas como chatbots IA ou assistentes virtuais podem reduzir a demanda de pessoal para atendimento ou suporte ao cliente. Em outras aplicações, como processamento de materiais ou linhas de produção, a IA pode ajudar a manter a qualidade do trabalho e os níveis de produção consistentes quando usada para concluir tarefas repetitivas ou tediosas.
Ao automatizar trabalhos perigosos (como controle de animais, manuseio de explosivos, execução de tarefas em águas profundas do oceano, em grandes altitudes ou no espaço sideral), a IA pode eliminar a necessidade de colocar trabalhadores humanos em risco de ferimentos ou algo pior. Embora ainda não tenham sido aperfeiçoados, os carros autônomos e outros veículos oferecem o potencial de reduzir o risco de ferimentos aos passageiros.
As aplicações da IA no mundo real são muitas. Aqui está apenas uma pequena amostra de casos de uso em vários setores para ilustrar seu potencial:
As empresas podem implementar chatbots e assistentes virtuais impulsionados por IA para lidar com as consultas dos clientes, os tickets de suporte e muito mais. Essas ferramentas usam processamento de linguagem natural (NLP) e recursos de IA generativa para entender e responder às perguntas dos clientes sobre o status do pedido, detalhes do produto e políticas de devolução.
Chatbots e assistentes virtuais permitem suporte sempre disponível, fornecem respostas mais rápidas para perguntas frequentes (FAQs), liberam agentes humanos para se concentrar em tarefas de maior nível e oferecem aos clientes um serviço mais rápido e consistente.
Algoritmos de aprendizado de máquina e deep learning podem analisar padrões de transações e sinalizar anomalias, como gastos ou locais de login incomuns, que indicam transações fraudulentas. Isso permite que as organizações respondam mais rapidamente a possíveis fraudes e limitem seu impacto, proporcionando a si mesmas e aos clientes maior tranquilidade.
Varejistas, bancos e outras empresas voltadas para o cliente podem usar a IA para criar experiências personalizadas para os clientes e campanhas de marketing que encantam os clientes, melhoram as vendas e evitam a rotatividade.
Com base em dados do histórico e comportamentos de compras dos clientes, algoritmos de deep learning podem recomendar produtos e serviços que os clientes provavelmente desejarão e até gerar cópias personalizadas e ofertas especiais para clientes individuais em tempo real.
Plataformas de recrutamento orientadas por IA podem agilizar a contratação por meio da triagem de currículos, da correspondência de candidatos com descrições de cargos e até mesmo da realização de entrevistas preliminares usando análise de vídeo.
Essas e outras ferramentas podem reduzir drasticamente a montanha de papelada administrativa associada ao recrutamento de um grande volume de candidatos. Também pode reduzir os tempos de resposta e de contratação, melhorando a experiência dos candidatos, independentemente de conseguirem o emprego ou não.
As ferramentas de geração de código de IA generativa e as ferramentas de automação podem simplificar tarefas repetitivas de programação associadas ao desenvolvimento de aplicações e acelerar a migração e a modernização (reformatação e reintegração) de aplicações legadas em escala. Essas ferramentas podem acelerar tarefas, ajudar a garantir a consistência do código e reduzir erros.
Modelos de aprendizado de máquina podem analisar dados de sensores, dispositivos da Internet das coisas (IoT) e tecnologia operacional (OT) para prever quando a manutenção será necessária e estimar falhas de equipamentos antes que ocorram. A manutenção preventiva impulsionada por IA ajuda a evitar o downtime e permite que você fique à frente dos problemas da cadeia de suprimentos antes que afetem os resultados.
As organizações estão se esforçando para aproveitar as mais recentes tecnologias de IA e tirar vantagem dos muitos benefícios da IA. Essa adoção rápida é necessária, mas adotar e manter fluxos de trabalho de IA traz desafios e riscos.
Os sistemas de IA dependem de conjuntos de dados, que podem ser vulneráveis ao envenenamento de dados, adulteração de dados, viés de dados ou ataques cibernéticos, que podem levar a violações de dados. As organizações podem mitigar esses riscos ao proteger a integridade de dados e implementar segurança e disponibilidade durante todo o ciclo de vida da IA, desde o desenvolvimento até o treinamento, implementação e pós-implementação.
Os agentes maliciosos podem atacar modelos de IA para roubo, engenharia reversa ou manipulação não autorizada. Os invasores podem comprometer a integridade de um modelo alterando-o em sua arquitetura, pesos ou parâmetros, componentes fundamentais que determinam o comportamento, a precisão e o desempenho do modelo.
Assim como acontece com todas as tecnologias, os modelos são suscetíveis a riscos operacionais, como desvio do modelo, vieses e falhas na estrutura de governança. Se não forem resolvidos, esses riscos podem levar a falhas no sistema e vulnerabilidades de cibersegurança que os agentes de ameaças podem usar.
Se as organizações não priorizarem a segurança e a ética no desenvolvimento e na implementação de sistemas de IA, elas correm o risco de cometerem violações de privacidade e gerarem resultados distorcidos. Por exemplo, dados de treinamento com viés usados para decisões de contratação podem reforçar os estereótipos raciais ou de gênero e criar modelos de IA que favorecem determinados grupos demográficos em detrimento de outros.
A ética da IA é um campo multidisciplinar que estuda como otimizar o impacto benéfico da IA e, ao mesmo tempo, reduzir riscos e resultados adversos. Os princípios da ética da IA são aplicados por meio de um sistema de governança de IA, que consiste em proteções que ajudam a garantir que as ferramentas e os sistemas de IA permaneçam seguros e éticos.
A governança de IA engloba mecanismos de supervisão que lidam com riscos. Uma abordagem ética para a governança dr IA exige o envolvimento de uma ampla gama de stakeholders, incluindo desenvolvedores, usuários, legisladores e especialistas em ética, ajudando a garantir que os sistemas relacionados à IA sejam desenvolvidos e usados para se alinharem aos valores da sociedade.
Aqui estão os valores comuns associados à ética da IA e IA responsável:
À medida que a IA se torna mais avançada, os seres humanos enfrentam desafios para entender e retraçar como o algoritmo chegou a um resultado. IA explicável é um conjunto de processos e métodos que permite aos usuários humanos interpretar, compreender e confiar nos resultados e saídas criados por algoritmos.
Embora o aprendizado de máquina, por sua própria natureza, seja uma forma de discriminação estatística, a discriminação se torna questionável quando coloca grupos privilegiados em vantagem sistemática e certos grupos desprivilegiados em desvantagem sistemática, podendo causar danos variados. Para incentivar a justiça, os profissionais podem tentar minimizar o viés algorítmico na coleta de dados e no projeto do modelo e construir equipes mais diversificadas e inclusivas.
A IA robusta lida de forma eficaz com condições excepcionais, como anormalidades em entradas ou ataques maliciosos, sem causar danos não intencionais. Ela também foi desenvolvida para resistir a interferências intencionais e não intencionais, protegendo contra vulnerabilidades expostas.
As organizações devem implementar estruturas de responsabilidades e governança
claras para o desenvolvimento, implementação e resultados de sistemas de IA.
Além disso, os usuários devem poder ver como um serviço de IA funciona,
avaliar sua funcionalidade e compreender seus pontos fortes e
limitações. Maior transparência fornece informações para os consumidores
de IA entenderem melhor como o modelo ou serviço de IA foi criado.
Muitos frameworks regulatórios, incluindo o GDPR, exigem que as organizações cumpram certos princípios de privacidade ao processar informações pessoais. É crucial ser capaz de proteger os modelos de IA que podem conter informações pessoais, controlar quais dados entram no modelo em primeiro lugar e construir sistemas adaptáveis que possam se ajustar às mudanças na regulamentação e nas atitudes em relação à ética da IA.
Com o objetivo de contextualizar o uso da IA em vários níveis de complexidade e sofisticação, os pesquisadores definiram vários tipos de IA que se referem a seu nível de sofisticação:
IA fraca: também conhecida como "IA restrita", define sistemas de IA projetados para executar uma tarefa específica ou um conjunto de tarefas. Os exemplos podem incluir aplicativos de assistente de voz "inteligentes", como o Alexa da Amazon, Siri da Apple, um chatbot de redes social ou os veículos autônomos prometidos pela Tesla.
IA forte: também conhecida como "inteligência geral artificial" (AGI) ou "IA geral", possui a capacidade de entender, aprender e aplicar o conhecimento em uma ampla gama de tarefas em um nível igual ou superior ao da inteligência humana.
Esse nível de IA é atualmente teórico, e nenhum sistema de IA conhecido se aproxima desse nível de sofisticação. Os pesquisadores argumentam que, se a AGI for possível, será necessário um grande aumento na capacidade de computação. Apesar dos recentes avanços no desenvolvimento da IA, os sistemas de IA autoconscientes da ficção científica permanecem firmemente nesse domínio.
A ideia de "uma máquina que pensa" remonta à Grécia antiga. Mas desde o advento da computação eletrônica (e em relação a alguns dos tópicos discutidos neste artigo), eventos e marcos importantes na evolução da IA incluem o seguinte:
1950
Alan Turing publica Computing Machinery and Intelligence. Nesse artigo, Turing (famoso por ter decifrado o código alemão ENIGMA durante a Segunda Guerra Mundial e frequentemente ser chamado de "pai da ciência da computação") faz a seguinte pergunta: "As máquinas poidem pensar?"
A partir daí, ele oferece um teste, hoje conhecido como "Teste de Turing", em que um humano faria perguntas tentando distinguir entre respostas em texto de um computador e de um ser humano. Embora esse teste tenha sido submetido a muito escrutínio desde que foi publicado, ele continua sendo uma parte importante da história da IA e um conceito contínuo dentro da filosofia, pois usa ideias relacionadas à linguística.
1956
John McCarthy cunhou o termo "inteligência artificial" na primeira conferência de IA no Dartmouth College. (McCarthy inventou a linguagem Lisp.) Mais tarde naquele ano, Allen Newell, J.C. Shaw e Herbert Simon criaram o Logic Theorist, o primeiro programa de computador de IA em execução.
1967
Frank Rosenblatt constrói o Mark 1 Perceptron, o primeiro computador baseado em uma rede neural que “aprendia” por tentativa e erro. Apenas um ano depois, Marvin Minsky e Seymour Papert publicam um livro intitulado Perceptrons, que se torna um marco na pesquisa de redes neurais e, pelo menos por um tempo, um argumento contra iniciativas futuras de pesquisa em redes neurais.
1980
As redes neurais, que usam um algoritmo de retropropagação para treinar a si mesmas, tornaram-se amplamente utilizadas em aplicações de IA.
1995
Stuart Russell e Peter Norvig publicam Artificial Intelligence: A Modern Approach, que se torna um dos principais livros didáticos no estudo da IA. Na obra, aprofundam-se em quatro objetivos potenciais ou definições da IA, que distingue sistemas computacionais com base na racionalidade e pensamento versus ação.
1997
O Deep Blue, da IBM, vence o então campeão mundial de xadrez Garry Kasparov, em uma partida (e revanche) de xadrez.
2004
John McCarthy escreve um artigo, What Is Artificial Intelligence?, e propõe uma definição frequentemente citada de IA. Àquela altura, a era do big data e da computação em nuvem já estava em andamento, permitindo que as organizações gerenciassem propriedades de dados cada vez maiores, que um dia serão usadas para treinar modelos de IA.
2011
O IBM Watson vence os campeões Ken Jennings e Brad Rutter no Jeopardy! Além disso, naquela época, a ciência de dados começa a emergir como uma disciplina popular.
2015
O supercomputador Minwa da Baidu usa uma rede neural profunda especial, chamada de rede neural convolucional, para identificar e categorizar imagens com uma taxa de precisão maior do que a de um ser humano comum.
2016
O programa AlphaGo da DeepMind, alimentado por uma rede neural profunda, vence Lee Sodol, o campeão mundial de Go, em uma disputa de cinco jogos. A vitória é importante, dado o enorme número de movimentos possíveis no jogo (mais de 14,5 trilhões após apenas quatro jogadas). Mais tarde, o Google comprou a DeepMind por US$ 400 milhões.
2022
O aumento de grandes modelos de linguagem ou LLMs, como o ChatGPT da OpenAI, cria uma mudança enorme no desempenho da IA e seu potencial para gerar valor empresarial. Com essas novas práticas de IA generativa, os modelos de deep learning podem ser pré-treinados em grandes quantidades de dados.
2024
As mais recentes tendências da IA apontam para um renascimento contínuo da IA. Modelos multimodais que podem usar vários tipos de dados como entrada estão proporcionando experiências mais ricas e robustas. Esses modelos reúnem capacidades de reconhecimento de imagem por visão computacional e reconhecimento de fala por NLP. Modelos menores também estão avançando em uma era de retornos decrescentes com modelos maciços com grandes números de parâmetros.