O que é machine learning?
Conheça a história do machine learning, definições importantes, aplicativos e preocupações presentes nas empresas.
Descubra o Watson Assistant
Plano de fundo de gradiente preto e azul
O que é machine learning?

Machine learning é uma área da inteligência artificial (IA) e da ciência da computação que se concentra no uso de dados e algoritmos para imitar a maneira como os humanos aprendem, melhorando gradualmente sua precisão.

A IBM tem um amplo histórico de machine learning. Um de seus funcionários, Arthur Samuel, é considerado o criador do termo " machine learning" com sua pesquisa (PDF, 481 KB) (link externo à IBM) sobre o jogo de damas. Robert Nealey, o autoproclamado rei da dama, jogou o jogo em um computador IBM 7094 em 1962 e perdeu para o computador. Comparado ao que pode ser feito hoje, esse feito quase parece trivial, mas é considerado um marco importante no campo da inteligência artificial.

Nas últimas duas décadas, os avanços tecnológicos em armazenamento e capacidade de processamento possibilitou a criação de alguns produtos inovadores baseados em machine learning, como o mecanismo de recomendação da Netflix e os carros autônomos.

Machine learning é um componente importante do crescente campo da ciência de dados. Por meio do uso de métodos estatísticos, os algoritmos são treinados para fazer classificações ou previsões, revelando os principais insights em projetos de mineração de dados. Esses insights subsequentemente conduzem a tomada de decisões em aplicativos e negócios, impactando de forma ideal as principais métricas de crescimento. À medida que o big data continua a expandir e crescer, a demanda de mercado por cientistas de dados aumentará cada vez mais. Será necessário que eles identifiquem as perguntas de negócios mais relevantes e os dados que podem ser usados para respondê-las.

Os algoritmos de machine learning são normalmente criados usando frameworks que aceleram o desenvolvimento da solução, como TensorFlow e PyTorch.

Conheça o watsonx.ai

Treine, valide, ajuste e implemente modelos de machine learning e de base com facilidade

Machine Learning vs. Deep Learning vs. Redes Neurais

Como o deep learning e o machine learning tendem a ser usados como sinônimos, é importante observar as nuances entre eles. Machine learning, deep learning e redes neurais são todos subcampos da inteligência artificial. No entanto, as redes neurais, na verdade, representam um subcampo do machine learning e o deep learning é um subcampo das redes neurais.

O deep learning e o machine learning diferem na forma como cada algoritmo aprende. O "deep" machine learning pode usar conjuntos de dados rotulados, também conhecidos como aprendizado supervisionado, para informar seu algoritmo, mas não requer necessariamente um conjunto de dados rotulado. O deep learning pode ingerir dados não estruturados em sua forma bruta (por exemplo, texto, imagens) e pode determinar automaticamente o conjunto de recursos que distinguem diferentes categorias de dados umas das outras. Isso elimina parte da intervenção humana necessária e permite o uso de conjuntos de dados maiores. Podemos pensar em deep learning como "machine learning escalável", segundo Lex Fridman na palestra do MIT (01:08:05) (link externo à IBM).

O machine learning clássico ou "não profundo" é mais dependente da intervenção humana para aprender. Os especialistas humanos determinam o conjunto de recursos para entender as diferenças entre entradas de dados, geralmente exigindo dados mais estruturados para aprender.

As redes neurais, ou redes neurais artificiais (ANNs), são compostas por camadas de um nó, contendo uma camada de entrada, uma ou mais camadas ocultas e uma camada de saída. Cada nó, ou neurônio artificial, conecta-se a outro e tem um peso e um limite associados. Se a saída de qualquer nó individual estiver acima do valor do limite especificado, esse nó será ativado, enviando dados para a próxima camada da rede. Caso contrário, nenhum dado será transmitido junto à próxima camada da rede perto daquele nó. O "deep" no deep learning está se referindo ao número de camadas em uma rede neural. Uma rede neural que consiste em mais de três camadas, que incluiriam as entradas e as saídas, pode ser considerada um algoritmo de deep learning ou uma rede neural profunda. Uma rede neural que só tem duas ou três camadas é apenas uma rede neural básica.

O deep learning e as redes neurais possuem progresso acelerado em áreas como computer vision, processamento de linguagem natural e reconhecimento de fala.

Veja o post do blog "IA vs. machine learning vs. Deep Learning vs. Redes neurais: qual é a diferença entre eles?", para obter uma análise mais detalhada de como os diferentes conceitos se relacionam.

Como o machine learning funciona

UC Berkeley (link externo à IBM) separa o sistema de aprendizado de um algoritmo de machine learning em três partes principais.

  1. Um processo de decisão: em geral, algoritmos de machine learning são usados para fazer uma previsão ou classificação. Com base em alguns dados de entrada, que podem ser rotulados ou não rotulados, seu algoritmo produzirá uma estimativa sobre um padrão nos dados.
  2. Uma função de erro: uma função de erro avalia a capacidade de previsão do modelo. Se houver exemplos conhecidos, uma função de erro poderá fazer uma comparação para avaliar a precisão do modelo.
  1. Um processo de otimização de modelo: se o modelo pode se ajustar melhor aos pontos de dados no conjunto de treinamento, então, as pontuações são ajustadas para reduzir a discrepância entre o exemplo conhecido e a estimativa do modelo. O algoritmo repetirá este processo de avaliação e otimização, atualizando as pontuações de maneira autônoma até que um limite de precisão seja atingido.  
Métodos de machine learning

Os modelos de machine learning podem ser classificados em três categorias principais.

Machine learning supervisionado             

O aprendizado supervisionado, também conhecido como machine learning supervisionado, é definido pelo uso de conjuntos de dados rotulados para treinar algoritmos que classificam dados ou predizem resultados com precisão. Conforme os dados de entrada são alimentados no modelo, ele ajusta suas pontuações até que esteja ajustado de maneira adequada. Isso ocorre como parte do processo de validação cruzada para garantir que o modelo evita super ajuste ou subajuste. O aprendizado supervisionado ajuda as organizações a resolver uma variedade de problemas do mundo real em grande escala, como a classificação de spam em uma pasta separada da sua caixa de entrada. Alguns métodos usados na aprendizagem supervisionada incluem redes neurais, naïve bayes, regressão linear, regressão logística, floresta aleatória e máquina de vetores de suporte (SVM).

Machine learning não supervisionado

O aprendizado não supervisionado, também conhecido como machine learning não supervisionado, usa algoritmos de machine learning para analisar e agrupar conjuntos de dados não rotulados. Esses algoritmos descobrem padrões ocultos ou agrupamentos de dados sem a necessidade de intervenção humana. A capacidade deste método de descobrir semelhanças e diferenças nas informações o torna ideal para análise exploratória de dados, estratégias de vendas cruzadas, segmentação de clientes, imagem e reconhecimento de padrões. É usado também para reduzir o número de recursos em um modelo através do processo de redução de dimensionalidade.. A análise de componente principal (PCA) e decomposição em valores singulares (SVD) são duas abordagens comuns para isso. Outros algoritmos usados no aprendizado não supervisionado incluem redes neurais, armazenamento em cluster de k-médias, métodos de armazenamento em cluster probabilístico e muito mais.

Aprendizado semissupervisionado 

O aprendizado semissupervisionado oferece um bom meio-termo entre o aprendizado supervisionado e o não supervisionado. Durante o treinamento, ele usa um conjunto de dados rotulado menor para orientar a classificação e a extração de recursos de um conjunto de dados maior e não rotulado. O aprendizado semissupervisionado pode resolver o problema de não ter dados rotulados suficientes para um algoritmo de aprendizado supervisionado. Ajuda também se for muito caro rotular dados suficientes. 

Para uma detalhamento sobre as diferenças entre essas abordagens, consulte "Aprendizado supervisionado vs. Aprendizado não supervisionado: qual é a diferença?"

Machine learning por reforço

O machine learning por reforço é um modelo de aprendizado semelhante ao aprendizado supervisionado, mas o algoritmo não é treinado usando dados de amostra. Este modelo aprende à medida que avança por meio de tentativa e erro. Uma sequência de resultados bem-sucedidos será reforçada para desenvolver a melhor recomendação ou política para um determinado problema.

O sistema IBM® Watson que venceu o desafio Jeopardy! em 2011 é um bom exemplo. O sistema usou o aprendizado por reforço para decidir se tentava uma resposta (ou pergunta, por assim dizer), qual quadrado selecionar no tabuleiro e quanto apostar, especialmente nos "Daily doubles".

Saiba mais sobre o aprendizado de reforço.          

Algoritmos comuns de machine learning

Alguns algoritmos machine learning são comumente usados. São eles:

  • Redes neurais: as redes neurais simulam a forma como o cérebro humano funciona, com um grande número de nós de processamento interligados. As redes neurais têm a capacidade de reconhecer padrões e desempenham um papel importante nos aplicativos, incluindo tradução de linguagem natural, reconhecimento de imagem, reconhecimento de voz e criação de imagem.
  • Regressão linear: este algoritmo é usado para prever valores numéricos com base em um relacionamento linear entre diferentes valores. Por exemplo, a técnica poderia ser usada para prever preços de imóveis residenciais com base nos históricos de dados da região.
  • Regressão logística: este algoritmo de aprendizado supervisionado faz previsões para variáveis de resposta categórica, como perguntas de respostas "sim/não". Pode ser usado para aplicações como classificação de spam e controle de qualidade em uma linha de produção.
  • Agrupamento: o uso de algoritmos de aprendizado não supervisionado, armazenamento em cluster podem identificar padrões nos dados para que possam ser agrupados. Os computadores podem ajudar os cientistas de dados identificando diferenças entre itens de dados que os humanos não perceberam.
  • Árvores de decisão: as árvores de decisão podem ser usadas tanto para prever valores numéricos (regressão) quanto para classificar dados em categorias. As árvores de decisão usam uma sequência de ramificação de decisões vinculadas que podem ser representadas com um diagrama de árvore. Uma das vantagens das árvores de decisão é que elas são fáceis de validar e auditar, diferente da caixa preta da rede neural.
  • Floresta aleatórias: em uma floresta aleatória, o algoritmo de machine learning prediz um valor ou categoria combinando os resultados de várias árvores de decisão.
Casos de uso de machine learning do mundo real

Aqui estão apenas alguns exemplos de machine learning que você talvez encontre todos os dias:

Reconhecimento de fala: também é conhecido como Reconhecimento automático de fala (ASR), reconhecimento de fala em computador ou speech-to-text. É um recurso que usa o Processamento de Linguagem Natural (NLP) para processar o discurso humano em um formato escrito. Muitos dispositivos móveis incorporam o reconhecimento de voz em seus sistemas para realizar buscas de fala, como por exemplo a Siri, ou para oferecer mais acessibilidade no envio de mensagens.

Serviço ao cliente:   os chatbots on-line estão substituindo os agentes humanos ao longo da jornada cliente, mudando a forma como pensamos sobre engajamento do cliente em sites e plataformas de redes sociais. Os chatbots respondem às perguntas mais frequentes (FAQs) sobre temas como frete, ou fornecem aviso personalizados, como venda cruzada de produtos ou sugestões de tamanhos aos utilizadores. Os exemplos incluem agentes virtuais em sites de comércio eletrônico; bots sistema de mensagens, usando Slack e Facebook Messenger; e tarefas geralmente feitas por assistentes virtuais e assistentes voz.

Computer vision: esta tecnologia de IA permite que computadores e sistemas extraiam informações significativas a partir de imagens digitais, vídeos e outras entradas visuais para tomar ações adequadas. Impulsionada por redes neurais convolucionais, a computer vision tem aplicativos de marcação de fotos nas mídias sociais, imagens radiológicas na área médica e carros autônomos no setor automotivo. 

Mecanismos de recomendação: usando dados de comportamentos de consumo anteriores, os algoritmos de IA ajudam a descobrir tendências de dados que podem ser usadas para desenvolver estratégias mais eficazes de venda cruzada. Essa abordagem é usada por comerciantes on-line para fazer recomendações de produtos relevantes aos clientes durante o processo de finalização da compra.

Negociação de ações automatizadas: desenvolvidas para otimizar as carteiras de ações, as plataformas de negociação de alta frequência impulsionadas por IA fazem milhares ou até milhões de negociações por dia sem intervenção humana.

Detecção de fraude: os bancos e outras instituições financeiras podem usar o machine learning para identificar transações suspeitas. O aprendizado supervisionado pode treinar um modelo usando informações sobre transações fraudulentas conhecidas. A detecção de anomalias pode identificar transações que parecem atípicas e merecem investigação mais aprofundada.

Desafios do machine learning
Com o avanço da tecnologia de machine learning, nossas vidas certamente ficaram mais fáceis.

No entanto, a implementação do machine learning nas empresas também levantou uma série de preocupações éticas em torno das tecnologias de IA. Alguns destes incluem:

Singularidade tecnológica

Embora este tópico atraia muita atenção do público, muitos pesquisadores não estão preocupados com a ideia de a IA ultrapassar a inteligência humana em um futuro próximo ou imediato. A singularidade tecnológica também é chamada de IA forte ou superinteligência. O filósofo Nick Bostrum define a superinteligência como "qualquer intelecto que supera amplamente os melhores cérebros humanos em praticamente todas as áreas, incluindo criatividade científica, sabedoria geral e habilidades sociais". Apesar do fato de que a superinteligência não é iminente na sociedade, a ideia de sua existência levanta algumas questões interessantes quando consideramos o uso de sistemas autônomos, como carros autônomos. Não é realista pensar que um carro sem motorista nunca sofreria um acidente de carro, mas quem seria o responsável legal nessas circunstâncias? Ainda devemos desenvolver veículos autônomos ou limitar essa tecnologia a veículos semiautônomos que ajudam as pessoas a dirigir com segurança? Ainda não há uma legislação para isso, mas esses são os tipos de debates éticos que estão ocorrendo à medida que novas e inovadoras tecnologias de IA são desenvolvidas.

O impacto da IA no mercado de trabalho

Embora grande parte da percepção pública em torno da inteligência artificial esteja relacionada à redução de empregos, essa preocupação provavelmente deverá assumir novos formatos. A cada nova tecnologia disruptiva, vemos que a demanda do mercado por funções de tarefa específicas também muda. Por exemplo, quando olhamos para o mercado automotivo, muitos fabricantes, como a GM, estão mudando para se concentrar na produção de veículos elétricos para se alinhar às iniciativas verdes. O mercado de energia não acabará, mas a fonte de energia está mudando de uma economia de combustíveis fósseis para energia elétrica.

Da mesma forma, a inteligência artificial mudará a demanda por empregos para outras áreas. Deverá haver indivíduos para ajudar a gerenciar sistemas de IA. Ainda haverá necessidade de contratar pessoas para resolver problemas mais complexos dentro dos setores que são mais prováveis de serem afetados por mudanças na demanda de tarefas, como atendimento ao cliente. O maior desafio da inteligência artificial e seu efeito no mercado de trabalho será ajudar as pessoas na transição para novas funções que estão em demanda.

Privacidade

A privacidade tende a ser discutida no contexto de privacidade, proteção e segurança de dados. Essas preocupações permitiram que a legislação avançasse mais nos últimos anos. Por exemplo, em 2016, a legislação GDPR foi criada para proteger os dados pessoais de pessoas na European Union and European Economic Area, dando aos indivíduos mais controle sobre seus dados. Nos Estados Unidos, alguns estados estão criando políticas, como o California Consumer Privacy Act (CCPA), que surgiu em 2018 e exige que as empresas informem os consumidores sobre a coleta de seus dados. Legislações como essa obrigaram as empresas a repensar a forma como armazenar e usar informações pessoalmente identificáveis (PII). Como resultado, os investimentos em segurança se tornaram uma prioridade cada vez maior para as empresas, à medida que buscam eliminar quaisquer vulnerabilidades e oportunidades de inspeção, invasão de hackers e ataques cibernéticos.

Preconceito e discriminação

Casos de preconceito e discriminação em vários sistemas inteligentes levantaram muitas questões éticas relacionadas ao uso da inteligência artificial. Como podemos nos proteger contra o preconceito e a discriminação quando os próprios dados de treinamento podem ser gerados por processos humanos com desvios? Embora as empresas normalmente sejam bem-intencionadas em relação aos seus esforços de automação, a Reuters (link externo à IBM) destaca algumas das consequências inesperadas da incorporação de IA nas práticas de contratação. Em seu esforço para automatizar e simplificar um processo, a Amazon, involuntariamente discriminou candidatos a vagas por gênero para funções técnicas e, no final das contas, tiveram que descartar o projeto. A Harvard Business Review (link externo à IBM) levantou outras questões pontuais sobre o uso de IA nas práticas de contratação, como quais dados devem ser usados ao avaliar um candidato para uma função.

O preconceito e a discriminação também não se limitam à função de recursos humanos. Isto pode ser observado em diversas tecnologias, desde software de reconhecimento facial a algoritmos de redes sociais.

À medida que as empresas se tornam mais conscientes dos riscos da IA, elas também se tornam mais ativas nessa discussão em torno da ética e dos valores da IA. Por exemplo, a IBM abandonou seus produtos de reconhecimento facial e análise de uso geral. O CEO da IBM, Arvind Krishna, afirma: "A IBM se opõe firmemente e não tolerará o uso de qualquer tecnologia, incluindo tecnologia de reconhecimento facial oferecida por outros fornecedores, para vigilância em massa, definição de perfis raciais, violações de direitos humanos básicos e liberdades ou qualquer finalidade que não esteja relacionada com os nossos valores e  Princípios de Confiança e Transparência".

Prestação de contas

Uma vez que não há legislação significativa para regular as práticas de IA, não existe um mecanismo real de aplicação para garantir que a IA ética seja praticada. Os incentivos atuais para que as empresas sigam essas diretrizes são as repercussões negativas de um sistema de IA antiético nos resultados financeiros. Para preencher a lacuna, estruturas éticas surgiram como parte de uma colaboração entre especialistas em ética e pesquisadores para governar o desenvolvimento e distribuição de modelos de IA na sociedade. Porém, no momento, estes são usados apenas com o propósito de orientação. Algumas pesquisas (link externo à IBM) (PDF, 1 MB) mostram que a combinação de responsabilidade distribuída e a falta de previsão sobre possíveis consequências não resultam na prevenção de danos à sociedade.

Conheça a opinião da IBM sobre a Ética da IA.

Soluções relacionadas
Deep learning

Crie redes neurais complexas. Faça testes em escala para implementar modelos de aprendizado otimizados no IBM Watson Studio.

Conheça o deep learning
Análise preditiva

Analise dados e desenvolva modelos de análise para prever resultados futuros. Descubra os riscos e as oportunidades para o seu negócio.

Conheça a análise preditiva
Desenvolva aplicativos com processamento de linguagem natural

O PLN é uma IA que se adéqua a linguagem dos seus negócios. Crie soluções que promovam um ROI de 383% ao longo de três anos com o IBM Watson Discovery.

Conheça a criação de aplicativos com PNL
Recursos IA corporativa, 2021: descobrindo oportunidades por meio de dados
A tecnologia de IA tem evoluído rapidamente nas últimas duas décadas. Saiba como as empresas estão implementando a IA atualmente.
O Gartner lançou o Magic Quadrant para plataformas de ciência de dados e machine learning
Saiba mais sobre o uso de ferramentas empresariais para executar e gerenciar modelos de IA de maneira eficaz e oferecer aos cientista de dados a tecnologia que pode ajudar otimizar seu a tomada de decisão orientada por dados.
Machine learning para iniciantes (ebook)
Saiba como o machine learning permite que você aprenda continuamente com os dados e preveja o futuro.ja
Magic Quadrant para Plataformas de IA conversacional corporativa, 2023
A IBM foi novamente reconhecida como líder no Gartner® Magic Quadrant™ de 2023 para IA conversacional corporativa.
Dê o próximo passo

O IBM Watson Studio no IBM Cloud Pak for Data suporta o ciclo de vida de machine learning de ponta a ponta em uma plataforma de dados e IA. Você pode criar, treinar e gerenciar modelos de machine learning onde quer que seus dados residam e implementá-los em qualquer lugar em seu ambiente híbrido de multicloud.Descubra como criar, treinar e gerenciar modelos de machine learning onde quer que seus dados residam e implementá-los em qualquer lugar em seu ambiente híbrido de multi-cloud.

Conheça o IBM Cloud Pak for Data hoje mesmo