O que é AutoML?
Saiba como o AutoML pode ajudá-lo a construir soluções de IA replicáveis e explicáveis
Assine a newsletter da IBM
Plano de fundo da matriz em preto e azul
O que é AutoML?

O Machine Learning Automatizado (AutoML) tornou-se um assunto em alta na pesquisa acadêmica e do setor sobre inteligência artificial (IA) nos últimos anos. O AutoML mostra-se promissor em fornecer soluções para IA em setores regulamentados para fornecer resultados replicáveis e explicáveis. O AutoML permite maior acesso ao desenvolvimento de IA para aqueles sem a formação teórica necessária atualmente para um cargo em ciência de dados

Cada etapa no atual pipeline prototípico de ciência de dados, como pré-processamento de dados, engenharia de recursos e otimização de hiperparâmetros, deve ser feita manualmente por especialistas em machine learning. Em comparação, a adoção do AutoML permite um processo de desenvolvimento mais simples, em que algumas linhas de código podem gerar o código necessário para dar início ao desenvolvimento de um modelo de machine learning. 

Pode-se pensar no AutoML, independentemente de estar construindo classificadores ou treinando regressões, como um conceito de procura generalizado, com algoritmos de procura especializados para descobrir as soluções ideais para cada componente do pipeline de ML. Ao construir um sistema que permite a automação de apenas três elementos principais da automação, engenharia de recursos, otimização de hiperparâmetros e procura de arquitetura neural, o AutoML promete um futuro em que o machine learning democratizado é uma realidade. 

Conheça o watsonx.ai

Treine, valide, ajuste e implemente modelos de machine learning e de base com facilidade

Tipos de AutoML

Em um pipeline de ciência de dados, há muitas etapas pelas quais uma equipe de ciência de dados deve passar para construir um modelo preditivo. Mesmo equipes experientes de cientistas de dados e engenheiros de ML podem se beneficiar da maior velocidade e transparência que acompanham o AutoML. Um cientista de dados deve começar com uma hipótese, coletar o conjunto de dados correto, experimentar a visualização de dados, criar recursos adicionais para aproveitar todos os sinais disponíveis, treinar um modelo com hiperparâmetros e, para o deep learning de última geração, eles necessitam projetar a arquitetura ideal para uma Rede Neural Profunda, preferencialmente em uma GPU, se disponível para eles.

 

Engenharia automatizada de recursos


Um recurso de dados é uma parte dos dados de entrada de um modelo de machine learning; engenharia de recursos refere-se ao processo transformador em que um cientista de dados obtém novas informações a partir de dados existentes. A engenharia de recursos é um dos principais processos de valor agregado em um fluxo de trabalho de ML, e bons recursos fazem a diferença entre um modelo com desempenho aceitável e um modelo com desempenho brilhante. Essas transformações matemáticas de dados brutos são lidas no modelo e atuam como o cerne do processo de machine learning. Engenharia automatizada de recursos (PDF 1,7 MB) (AFE) (link externo à IBM) é o processo que explora o espaço das combinações viáveis de recursos de forma mecanística, em vez de manual.

A engenharia de recursos manual é uma alquimia contemporânea que tem um grande custo em termos de tempo: a construção de um único recurso pode muitas vezes levar horas, e o número de recursos necessários para atingir uma pontuação mínima de precisão, sem mencionar a necessária para atingir uma linha-base de precisão para um nível de produção, pode chegar a centenas. Ao automatizar a exploração de um espaço de recursos, o AutoML reduz o tempo que uma equipe de ciência de dados gasta nesta fase, de dias para minutos.

A redução do número de horas de intervenção manual por um cientista de dados não é o único benefício da engenharia automatizada de recursos. Os recursos gerados são em sua maioria claramente interpretáveis. Em setores com regulamentações rígidas, como assistência médica ou financeiro, essa explicabilidade é importante pois reduz as barreiras para a adoção da IA por meio da interpretabilidade. Além disso, um cientista de dados ou analista beneficia-se da clareza desses recursos porque eles tornam os modelos de alta qualidade mais interessantes e acionáveis. Os recursos gerados de forma automatizada também têm o potencial de descobrir novos KPIs para uma organização monitorar e agir de acordo. Assim que um cientista de dados conclui a engenharia de recursos, os modelos precisam ser otimizados com a seleção estratégica de recursos.

 

Otimização automatizada de hiperparâmetros


Hiperparâmetros fazem parte dos algoritmos de machine learning que podem ser melhor compreendidos pela analogia de serem como alavancas, usadas para ajustar o desempenho do modelo, embora, muitas vezes, ajustes incrementais tenham um impacto enorme. Na modelagem de ciência de dados em pequena escala, os hiperparâmetros podem ser facilmente definidos manualmente e otimizados por tentativa e erro.

Para aplicações de deep learning, o número de hiperparâmetros cresce exponencialmente, fazendo com que sua otimização fique além das capacidades de uma equipe de ciência de dados realizar manualmente e de forma oportuna. A otimização automatizada de hiperparâmetros (HPO - link externo à IBM) libera as equipes da enorme responsabilidade de explorar e otimizar todo o espaço de eventos de hiperparâmetros e, em vez disso, permite que as equipes iterem e experimentem recursos e modelos.

Outro ponto forte da automatização do processo de machine learning é os cientistas de dados agora poderão concentrar-se no por que da criação do modelo, em vez do como.Considerando as quantidades extremamente grandes de dados disponíveis para muitas empresas e o número esmagador de perguntas que podem ser respondidas com esses dados, uma equipe de análise pode se concentrar em quais aspectos do modelo ela deve otimizar, como minimizar os falsos negativos em testes médicos.

Busca de Arquitetura Neural (BAN)


O processo mais complexo e que consome mais tempo em deep learning é a criação da arquitetura neural. Equipes de ciência de dados passam longos períodos selecionando as camadas e as taxas de aprendizado apropriadas que, no final, geralmente são apenas para os pesos no modelo, como acontece em muitos modelos de linguagem. A Busca de Arquitetura Neural (BAN - link externo à IBM) tem sido descrita como o "uso de redes neurais para projetar redes neurais" e é uma das áreas mais óbvias do ML a se beneficiar da automação.

As buscas do BAN começam com uma opção de quais arquiteturas experimentar. O resultado do BAN é determinado pela métrica com relação à qual cada arquitetura é julgada. Existem vários algoritmos comuns a serem usados em uma busca de arquitetura neural. Se o número potencial de arquiteturas for pequeno, as escolhas para teste podem ser feitas aleatoriamente. Abordagens baseadas em gradientes, nas quais o espaço de procura discreta é transformado em uma representação contínua, têm se mostrado muito eficazes. As equipes de ciência de dados também podem experimentar algoritmos evolucionários nos quais as arquiteturas são avaliadas aleatoriamente e as alterações são aplicadas lentamente, propagando arquiteturas filho que são mais bem-sucedidas e removendo as que não são.

As buscas de arquiteturas neurais são um dos principais elementos do AutoML que prometem democratizar a IA. Essas buscas, no entanto, geralmente são acompanhadas por uma pegada de carbono muito alta. Um exame dessas compensações ainda não foi feito, e a otimização para um custo ecológico é uma área de busca em andamento nas abordagens BAN.

Links relacionados

Ciências de dados

Aprendizado de máquina

AutoAI

Estratégias para usar o AutoML

Machine learning automatizado soa como uma panaceia de solucionismo técnico que uma organização pode usar para substituir cientistas de dados caros, mas, na realidade, usá-lo requer estratégias inteligentes para uma organização. Os cientistas de dados preenchem funções essenciais para projetar experimentos, converter resultados em resultados de negócios e manter o ciclo de vida completo de seus modelos de aprendizado de máquina. Como equipes multifuncionais podem então utilizar o AutoML para otimizar o uso do tempo e reduzir o tempo necessário para extrair valor de seus modelos?

O fluxo de trabalho ideal para incluir APIs do AutoML é aquele que o utiliza para tornar cargas de trabalho paralelas e reduzir o tempo gasto em tarefas manuais intensivas. Em vez de passar dias fazendo ajustes no hiperparâmetro, um cientista de dados poderia automatizar este processo em vários tipos de modelos simultaneamente e, em seguida, testar qual deles teve o melhor desempenho.  

Além disso, existem recursos do AutoML que permitem que equipes com diferentes níveis de conhecimento técnico contribuam agora com o pipeline de ciência de dados. Um analista de dados sem conhecimento em Python poderia aproveitar um kit de ferramentas como o AutoAI no Watson Studio para treinar um modelo preditivo usando os dados que eles são capazes de extrair por conta própria por meio de uma consulta. Usando o AutoML, um analista de dados agora pode pré-processar dados, construir um pipeline de machine learning e produzir um modelo completamente treinado que pode ser usado para validar sua própria hipótese, sem exigir a atenção de uma equipe completa de ciência de dados.

AutoML e IBM Research

Os pesquisadores e desenvolvedores da IBM contribuem para o crescimento e o desenvolvimento do AutoML. O desenvolvimento contínuo de produtos com AutoAI no IBM Watson e o trabalho dos pesquisadores da IBM na Lale (link externo à IBM), uma biblioteca de ciência de dados automatizada de software livre, são apenas algumas das maneiras pelas quais a IBM ajuda a criar a próxima geração de abordagens de IA. Embora a Lale seja um projeto de software livre, ela é, na verdade, o núcleo para muitos dos recursos do AutoAI. 

Para equipes de ciência de dados que usam o Python como o núcleo de sua pilha de ML, a Lale oferece uma biblioteca semi-automatizada que se integra perfeitamente a pipelines scikit-learn (link externo à IBM), diferente de auto-sklearn (link externo à IBM) ou uma biblioteca como TPOT (link externo à IBM). A Lale vai além do scikit-learn com automação, verificações de exatidão e interoperabilidade. Embora baseado no paradigma do scikit-learn, a Lale está incorporando um número crescente de transformadores e operadores de outras bibliotecas Python, bem como bibliotecas de outras linguagens, como Java e R. 

Soluções relacionadas
AutoAI

Crie e treine rapidamente modelos preditivos de alta qualidade. Simplifique o gerenciamento do ciclo de vida da IA.

Conheça o AutoAI
IBM Watson Studio

Crie e escale a IA confiável em qualquer nuvem. Automatize o ciclo de vida da IA para ModelOps.

Saiba mais sobre o IBM® Watson Studio
Dê o próximo passo

O Watson Studio e o AutoAI ajudam as equipes de ciência de dados a automatizar rapidamente todo o ciclo de vida de IA/ML. As equipes podem encurtar seu prazo de lançamento no mercado com seus recursos preditivos, começando com um conjunto de protótipos de modelos de machine learning. O AutoAI no Watson Studio simplifica a engenharia automatizada de recursos, a otimização automatizada de hiperparâmetros e a seleção do modelo de machine learning. Ajude suas equipes de ciência de dados e análise a avaliar rapidamente suas hipóteses e, no momento em que elas certificarem a validade de seus modelos, elas já podem tê-los implementado para consumo em ambientes de QA ou produção.  

Saiba mais sobre o IBM Watson Studio