Aprendizado de máquina automatizado (AutoML), independentemente de você estar construindo classificadores ou treinando regressões, pode ser pensado como um conceito de busca generalizada, com algoritmos de busca especializados para encontrar as soluções ótimas para cada componente do pipeline de ML.
O AutoML tornou-se um tema em alta no setor e na pesquisa acadêmica de inteligência artificial (IA) nos últimos anos.O AutoML mostra grande potencial ao fornecer soluções para IA em setores regulamentados, oferecendo resultados explicáveis e reprodutíveis.O AutoML permite maior acesso ao desenvolvimento de IA para aqueles que não possuem o conhecimento teórico atualmente necessário para atuar na área de ciência de dados.
Cada etapa no pipeline de ciência de dados prototípico atual, como pré-processamento de dados, engenharia de características e otimização de hiperparâmetros, deve ser realizada manualmente por especialistas em aprendizado de máquina. Em comparação, adotar AutoML permite um processo de desenvolvimento mais simples, onde algumas linhas de código podem gerar o código necessário para começar a desenvolver um modelo de aprendizado de máquina.
Desenvolvendo um sistema que permite a automação de apenas três peças principais de automação (engenharia de características, otimização de hiperparâmetros e busca por arquitetura neural), o AutoML promete um futuro onde o aprendizado de máquina democratizado seja uma realidade.
Aprenda os principais benefícios da IA generativa e como as organizações podem incorporar IA generativa e aprendizado de máquina em seus negócios.
Registre-se para o ebook sobre armazenamento de dados de IA
Em um pipeline de ciência de dados, há muitas etapas que uma equipe de ciência de dados deve seguir para construir um modelo preditivo. Mesmo equipes experientes de cientistas de dados e engenheiros de ML podem se beneficiar da maior velocidade e transparência proporcionada pelo AutoML. Um cientista de dados deve começar com uma hipótese, reunir o dataset correto, tentar algumas visualizações de dados, criar novas características para aproveitar todos os sinais disponíveis, treinar um modelo com hiperparâmetros (link fora de ibm.com) e, para o deep learning de ponta, deve projetar a arquitetura ideal para uma rede neural profunda, de preferência utilizando uma GPU, se disponível.
Uma funcionalidade de dados é uma parte dos dados de input para um modelo de aprendizado de máquina, e a engenharia de características refere-se ao processo transformador onde um cientista de dados deriva novas informações a partir de dados existentes.A engenharia de características é um dos processos que agrega valor em um fluxo de trabalho de aprendizado de máquina, e boas características fazem a diferença entre um modelo com desempenho aceitável e um modelo com desempenho excepcional. Essas transformações matemáticas dos dados brutos são lidas pelo modelo e servem como o coração do processo de aprendizado de máquina.A engenharia de características automatizada (AFE) (link fora de ibm.com) é o processo de explorar o espaço das combinações viáveis de características de forma mecanicista, e não manual.
A engenharia de características manual é uma mistura moderna que tem um grande custo em termos de tempo: construir uma única característica pode frequentemente levar horas, e o número de características necessárias para um mínimo de precisão, para não mencionar uma linha de base de precisão de nível de produção, pode chegar a centenas. Ao automatizar a exploração de um espaço de características, o AutoML reduz o tempo que uma equipe de cientistas de dados gasta nesta fase de dias para minutos.
Reduzir as horas de intervenção manual por parte de um cientista de dados não é o único benefício da engenharia de características automatizada.As características geradas são frequentemente claramente interpretáveis.Em setores estritamente regulamentados, como saúde ou finanças, essa explicabilidade é importante, porque reduz as barreiras à adoção da IA por meio da interpretabilidade. Além disso, um cientista de dados ou analista se beneficia da clareza dessas características porque elas tornam os modelos de alta qualidade mais atraentes e acionáveis. Características geradas automaticamente também têm o potencial de encontrar novos KPIs para uma organização monitorar e agir. Uma vez que um cientista de dados conclui a engenharia de características, ele então precisa otimizar seus modelos com seleção.
Os hiperparâmetros fazem parte dos algoritmos de aprendizado de máquina, sendo melhor compreendidos por analogia como alavancas que permitem aprimorar o desempenho dos modelos, embora os ajustes incrementais frequentemente tenham um impacto considerável. Em modelagem de aprendizado de máquina em pequena escala, os hiperparâmetros podem ser facilmente definidos manualmente e otimizados por tentativa e erro.
Para aplicações de deep learning, o número de hiperparâmetros cresce exponencialmente, o que torna sua otimização além das capacidades de uma equipe de ciência de dados realizar de maneira manual e em tempo hábil. A otimização automatizada de hiperparâmetros (HPO) (link fora de ibm.com) alivia as equipes da intensa responsabilidade de explorar e otimizar em todo o espaço de eventos para os hiperparâmetros e, em vez disso, permite que as equipes façam iterações e experimentos com características e modelos.
Outro ponto forte da automação do processo de aprendizado de máquina é que agora os cientistas de dados podem se concentrar no porquê da criação do modelo em vez do como.Considerando a enorme quantidade de dados disponíveis para muitas empresas e o número esmagador de perguntas que podem ser respondidas com esses dados, uma equipe de análise de dados pode focar em quais aspectos do modelo eles devem otimizar, como o clássico problema de minimizar falsos negativos em testes médicos.
O processo mais complexo e demorado do deep learning é a criação da arquitetura neural. Equipes de ciência de dados gastam longos períodos de tempo selecionando as camadas apropriadas e taxas de aprendizado que, no final, muitas vezes são apenas para os pesos no modelo, como em muitos modelos de linguagem.A pesquisa de arquitetura neural (NAS) (link fora de ibm.com) foi descrita como "usar redes neurais para projetar redes neurais" e é uma das áreas mais óbvias do ML a se beneficiar da automação.
As buscas de NAS começam com a escolha das arquiteturas a serem testadas. O resultado do NAS é determinado pela métrica contra a qual cada arquitetura é avaliada. Existem vários algoritmos comuns usados em uma busca de arquitetura neural. Se o número potencial de arquiteturas é pequeno, as escolhas para teste podem ser feitas aleatoriamente. Abordagens baseadas em gradientes, nas quais o espaço de busca discreto é transformado em uma representação contínua, têm mostrado ser muito eficazes.As equipes de ciência de dados também podem tentar algoritmos evolutivos nos quais as arquiteturas são avaliadas aleatoriamente, e mudanças são aplicadas lentamente, propagando arquiteturas filhas que são mais bem-sucedidas enquanto podam aquelas que não são.
As buscas de arquitetura neural são um dos elementos principais do AutoML que prometem democratizar a IA. No entanto, essas buscas frequentemente têm uma pegada de carbono muito alta.Uma análise dessas compensações ainda não foi feita, e a otimização para o custo ecológico é uma área de pesquisa contínua nas abordagens NAS.
Ciências de dados
Aprendizado de máquina
AutoAI
O aprendizado de máquina automatizado parece uma panaceia de soluções técnicas que uma organização pode usar para substituir cientistas de dados caros, mas na realidade, seu uso requer estratégias inteligentes para a organização.Os cientistas de dados desempenham papéis essenciais na criação de experimentos, tradução de resultados em desfechos de negócios e manutenção do ciclo de vida completo de seus modelos de aprendizado de máquina. Então, como as equipes multifuncionais podem utilizar o AutoML para otimizar seu uso do tempo e reduzir o tempo necessário para realizar valor a partir de seus modelos?
O fluxo de trabalho ideal para incluir APIs de AutoML é aquele que usa a ferramenta para paralelizar cargas de trabalho e reduzir o tempo gasto em tarefas manualmente intensivas. Em vez de passar dias ajustando hiperparâmetros, um cientista de dados pode automatizar esse processo em vários tipos de modelos simultaneamente e, em seguida, testar qual deles teve melhor desempenho.
Além disso, há recursos de AutoML que permitem que membros da equipe com diferentes níveis de skills agora contribuam para o pipeline de ciência de dados. Um analista de dados sem conhecimento de Python pode usar um toolkit, como o AutoAI no Watson Studio, para treinar um modelo preditivo usando os dados que consegue extrair por meio de consultas. Com o uso do AutoML, um analista de dados pode agora pré-processar dados, construir um pipeline de aprendizado de máquina e produzir um modelo totalmente treinado que pode usar para validar suas próprias hipóteses, sem exigir a atenção total de uma equipe de ciência de dados.
Pesquisadores e desenvolvedores da IBM contribuem para o crescimento e desenvolvimento do AutoML. O desenvolvimento contínuo de produtos com o AutoAI no IBM Watson e o trabalho dos IBM Researchers no Lale (link fora de ibm.com), uma biblioteca de ciência de dados automatizada e de código aberto, são apenas algumas das maneiras pelas quais a IBM ajuda a criar a próxima geração de abordagens de IA. Embora o Lale seja um projeto de código aberto, ele é na verdade central para muitos dos recursos do AutoAI.
Para equipes de ciência de dados que trabalham com Python como o núcleo de seu stack de ML, o Lale oferece uma biblioteca semiautomatizada que se integra sem dificuldades às pipelines do scikit-learn (link fora de ibm.com), diferente de auto-sklearn (link fora de ibm.com) ou de uma biblioteca como TPOT (link fora de ibm.com). O Lale vai além do scikit-learn com automação, verificações de correção e interoperabilidade.Embora baseado no paradigma do scikit-learn, ele possui um número crescente de transformadores e operadores de outras bibliotecas de Python e de bibliotecas em linguagens como Java e R.
Experimente com modelos de base e construa modelos de aprendizado de máquina automaticamente em nosso estúdio de última geração para construtores de IA.
Crie e treine com rapidez modelos preditivos de alta qualidade. Simplifique o gerenciamento do ciclo de vida da IA.
Crie e escale a IA confiável em qualquer nuvem. Automatize o ciclo de vida da IA para ModelOps.
Descubra como o Watson AutoAI, o AutoML de próxima geração, descobre e constrói pipelines de modelagem mais adequados para seus dados.
Lale é uma biblioteca compatível com sklearn para AutoML. É de código aberto e atende à necessidade de automação gradual de aprendizado de máquina, ao contrário de oferecer uma ferramenta AutoML de caixa-preta.
O IBM Watson Studio é uma ferramenta poderosa de ciência de dados, opcionalmente com código, no IBM Cloud Pak for Data. Neste laboratório prático, você experimentará como a capacidade de AutoAI do Watson Studio remove a complexidade da criação de modelos.