El aprendizaje automático automatizado (AutoML) es la práctica de automatizar el desarrollo integral de modelos de aprendizaje automático (modelos de aprendizaje automático (ML)). El AutoML permite a los que no son expertos crear e implementar sistemas de IA al tiempo que optimiza los flujos de trabajo de IA para científicos de datos y desarrolladores.
Las herramientas de AutoML simplifican el proceso de creación de modelos de aprendizaje automático (ML). Los usuarios se benefician de una interfaz intuitiva a través de la cual pueden crear, capacitar, validar y desplegar modelos de IA generativa y otros sistemas de aprendizaje profundo . El AutoML facilita la implementación de la IA en industrias reguladas con sus resultados explicables y reproducibles.
Sin el AutoML, cada paso del flujo de trabajo del aprendizaje automático (ML): preparación de datos, preprocesamiento de datos, ingeniería de características y optimización de hiperparámetros, debe realizarse manualmente. El AutoML democratiza el machine learning haciéndolo accesible a cualquiera que esté interesado en explorar su potencial. Mientras tanto, los equipos de MLOps experimentados y los profesionales de la ciencia de datos pueden automatizar los aspectos rutinarios de los flujos de trabajo de machine learning mientras se centran en tareas de aprendizaje más exigentes.
Las soluciones AutoML funcionan mediante la construcción de numerosas canalizaciones de machine learning para manejar la tarea deseada y luego identificar la opción óptima. La evaluación del modelo y la selección del modelo se automatizan como parte del proceso iterativo de elegir el mejor modelo para el trabajo. Las herramientas de visualización de datos brindan aún más facilidad de uso al proceso AutoML.
La diferencia entre AutoML y el aprendizaje automático tradicional es que AutoML automatiza casi todas las etapas del proceso de machine learning. Los pipelines tradicionales consumen mucho tiempo, recursos y son propensos a errores humanos. En comparación, los avances en AutoML han llevado a una mayor eficiencia y mejores resultados.
Una canalización típica de machine learning consta de los siguientes pasos:
La preparación de datos es el proceso de recopilar datos sin procesar e integrarlos en un conjunto de datos de capacitación. La preparación de datos ayuda a garantizar que los datos de capacitación estén libres de sesgos y es lo que establece un modelo para el éxito: los datos precisos conducen a predicciones y insights precisos. A medida que las empresas vinculan los sistemas de IA con almacenes de datos patentados, como mediante la generación aumentada por recuperación (RAG), la preparación de datos es fundamental para una implementación confiable de IA.
Los usuarios conectan la plataforma AutoML con el origen de los datos de entrenamiento, idealmente un conjunto de datos grande que contenga datos que estén listos para usar en el entrenamiento. La fase de preparación de datos se produce antes de que se desplegar una solución de AutoML.
La solución AutoML interviene para preprocesar y limpiar aún más los datos. Un preprocesamiento de datos más exhaustivo conduce a un mejor rendimiento del modelo de IA .
Al crear manualmente modelos para tareas de aprendizaje supervisado y semisupervisado, los datos de entrenamiento deben etiquetarse manualmente. Las características y los resultados deben seleccionarse en función del caso de uso previsto del modelo. Las soluciones de AutoML pueden manejar la ingeniería de características en nombre de los usuarios para seleccionar las características de datos que tienen más probabilidades de mejorar el rendimiento del modelo.
Las características o variables de datos son los atributos de un conjunto de datos que los modelos de machine learning utilizan para tomar decisiones y predicciones. Por ejemplo, para un modelo de visión artificial creado para identificar especies de plantas, las características de los datos pueden incluir la forma y el color de las hojas.
La ingeniería de características es el proceso transformador mediante el cual un científico de datos extrae nueva información de los datos de entrada y la prepara para el machine learning. Una buena ingeniería y selección de características puede determinar la diferencia entre un rendimiento de modelo aceptable y de alta calidad.
La ingeniería automatizada de características automatiza el proceso de explorar el espacio de características, llenando los valores faltantes y seleccionando las características que se van a emplear. Desarrollar manualmente una sola característica puede llevar horas, y la cantidad de funciones necesarias para obtener un puntaje de precisión mínimo (y mucho menos una línea base de precisión a nivel de producción) puede llegar a cientos. La ingeniería de características automatizada reduce esta fase de días a minutos.
Además de los beneficios de eficiencia, la eficiencia de las características automatizadas también aumenta la explicabilidad de la AI—importante para industrias estrictamente reguladas, como la atención médica o las finanzas. Una mayor claridad de las características hace que los modelos sean más convincentes y procesables al descubrir nuevos KPI organizacionales.
¿Qué tipo de modelo es mejor para el caso de uso previsto? Con el machine learning tradicional, la selección de modelos requiere un conocimiento experto de los tipos de modelos de IA junto con sus respectivas capacidades y limitaciones.
Las herramientas AutoML mejoran los procesos tradicionales al construir y capacitar automáticamente varios modelos simultáneamente con una variedad de algoritmos y configuraciones de hiperparámetros. Muchas soluciones de AutoML combinan múltiples modelos en un proceso conocido como aprendizaje de conjunto.
Una de las tareas más complicadas, propensas a errores y que requieren mucho tiempo al construir neural networks profundas es la creación de la arquitectura neuronal. Las tareas Advanced requieren redes multicapa con configuraciones complejas de hiperparámetros.
La búsqueda de arquitectura neuronal (NAS) automatiza este proceso, lo que reduce el tiempo dedicado y la posibilidad de error. Con el uso de algoritmos avanzados, NAS identifica la arquitectura óptima en función del contexto y el conjunto de datos. Los avances recientes en NAS se centran en el desarrollo de técnicas más eficientes para reducir los costos computacionales asociados.
Los hiperparámetros son las reglas que rigen el proceso de aprendizaje del modelo. A diferencia de los parámetros internos que un modelo actualiza durante el entrenamiento, los hiperparámetros son externos al modelo y los configuran los científicos de datos. La estructura de la Neural Networks también se define mediante hiperparámetros.
En contextos de modelado de datos a pequeña escala, los hiperparámetros se pueden configurar y optimizar manualmente mediante prueba y error. Pero con las aplicaciones de aprendizaje profundo, la cantidad de hiperparámetros crece exponencialmente. La optimización automatizada de hiperparámetros permite a los equipos iterar y experimentar para descubrir los mejores hiperparámetros en todas las características y modelos.
El ajuste de hiperparámetros se automatiza a través de algoritmos avanzados como la optimización bayesiana. El ajuste automatizado de hiperparámetros libera a los científicos de datos para que se centren en el por qué de la creación de modelos en lugar del cómo durante el proceso de machine learning. En su lugar, los equipos de analytics pueden centrarse en optimizar modelos para caso de uso designados, por ejemplo, para minimizar los falsos negativos en las pruebas médicas.
Los científicos de datos necesitan validar el progreso de un algoritmo de machine learningdurante el entrenamiento. Tras el entrenamiento, el modelo se prueba con nuevos datos para evaluar su rendimiento antes de su despliegue en el mundo real. El rendimiento del modelo se evalúa con métricas que incluyen una matriz de confusión, el puntaje F1, la curva ROC y otras.
Cuando se completa la capacitación, la herramienta AutoML prueba cada modelo para identificar cuál funciona mejor en los conjuntos de datos de capacitación y prueba, luego selecciona automáticamente el modelo de mejor desempeño para el despliegue.
La creación de modelos es solo el primer paso en la línea de tiempo del producto. Los modelos completados deben ponerse a disposición de los usuarios, monitorear su rendimiento y mantenerse a lo largo del tiempo para ayudar a garantizar la confiabilidad y la precisión. Sin automatización, los equipos de desarrollo deben escribir scripts y crear sistemas para integrar el modelo en sus operaciones y entregarlo a su base de usuarios.
Muchas soluciones de AutoML incluyen herramientas de despliegue para una Integración perfecta en el mundo real. Los modelos se pueden desplegar como un servicio accesible a través de un sitio web, una aplicación o una conexión API . Las plataformas AutoML pueden automatizar la despliegue de modelos en ofertas de productos preexistentes, gestionar el escalamiento, las actualizaciones y el control de versiones, y aumentar la explicabilidad con la visualización de datos.
La diversidad de herramientas de AutoML permite aplicar la técnica a una amplia gama de tareas de machine learning, entre ellas:
Clasificación
Regresión
Visión artificial
Procesamiento de lenguaje natural
La clasificación es la tarea de machine learning de asignar entradas de datos en categorías designadas. Los modelos predictivos utilizan características de datos de entrada para predecir las etiquetas o salidas correctas. Los sistemas de AutoML pueden construir y probar un serial de algoritmos, como bosques aleatorios y máquinas de vectores de soporte (SVM), para procesar datos tabulares.
Las herramientas AutoML detectan automáticamente patrones en conjuntos de datos etiquetados y pueden diseñar modelos para tareas de clasificación comunes como detección de fraude y filtrado de correo electrónico no deseado.
La regresión en el machine learning es el desafío de utilizar datos históricos para predecir valores futuros. La regresión predice el valor de una variable dependiente en función de una o más variables independientes, por ejemplo, con análisis de riesgos o forecasting. La regresión logística predice la probabilidad de un evento futuro, como la probabilidad de que un paciente contraiga una enfermedad, en lugar de un valor discreto.
AutoML agiliza el proceso de establecer relaciones entre las variables de entrada y las variables de destino, especialmente con tareas multivariantes complejas.
La visión por computadora es el uso de computadoras para procesar datos visuales, como imágenes y video. Los sistemas AutoML pueden generar modelos orientados a tareas de clasificación basadas en visión, incluyendo detección de objetos, clasificación de imágenes y reconocimiento óptico inteligente de caracteres. Los casos de uso pueden abarcar moderación y filtrado de contenido, etiquetado de imágenes y otras tareas relacionadas.
Los sistemas AutoML también pueden ajustar los modelos para su uso en contextos de visión artificial más avanzados, como con automóviles autónomos.
El procesamiento de lenguaje natural (PLN) permite a los sistemas de IA interpretar entradas textuales, como instrucciones de usuario y documentos legales. La creación de chatbots, la clasificación de texto multiclase y multietiqueta, el análisis de la opinión del cliente, el reconocimiento de entidades nombradas y la traducción de idiomas son ejemplos de tareas complejas de NLP que se pueden manejar fácilmente con AutoML.
Los científicos de datos pueden crear modelos personalizados con AutoML que se optimizan automáticamente para obtener un gran rendimiento en los casos de uso previstos. De lo contrario, al construir modelos de PLN manualmente, los científicos de datos deben empezar desde cero o basar sus modelos en otros anteriores que podrían no funcionar tan bien como un modelo a medida generado automáticamente.
Si bien AutoML aporta muchos beneficios a los desarrolladores de AI, no es un reemplazo total de la experiencia, las habilidades y la creatividad humanos. Las limitaciones de AutoML incluyen:
Costos elevados: Cuanto más exigente es la tarea, más avanzado debe ser el modelo correspondiente. Los costos de AutoML pueden descontrolarse rápidamente cuando la técnica se aplica a la creación de modelos grandes y complejos.
Falta de interpretability: los modelos generados por AutoML a veces pueden caer en la trampa de la " caja negra AI" , donde el funcionamiento interno del modelo es obtuso. Los desarrolladores humanos pueden crear modelos diseñados de acuerdo con los principios de la explicable AI, pero esto no está garantizado con las soluciones de AutoML.
Riesgo de sobreajuste: el sobreajuste, donde un modelo entrenado se ajusta demasiado a sus datos de entrenamiento y no transfiere su aprendizaje a datos del mundo real, puede mitigarse con intervención humana y un monitoreo cuidadoso del proceso de aprendizaje.
Control limitado: los desarrolladores sacrifican el control por la eficiencia con la automatización. En casos específicos en los que se necesitan modelos altamente personalizados, las soluciones de AutoML pueden tener dificultades para ofrecer un modelo adecuado.
Confianza en los datos: un modelo de IA es tan estable como sus datos de entrenamiento. Tanto los modelos creados por humanos como los creados por AutoML no pueden funcionar bien si no se les proporcionan datos de alta calidad.
Los creadores de modelos de IA tienen una amplia gama de herramientas de AutoML a su alcance. Las opciones incluyen:
AutoKeras: Herramienta de código abierto basada en la biblioteca Keras y TensorFlow.
Auto-PyTorch: una solución AutoML diseñada para automatizar proyectos de machine learning creados con PyTorch.
AutoML de Google Cloud: la solución AutoML de Google está disponible en su plataforma en la nube para el machine learning.
Lale1: una biblioteca Python semiautomatizada de código abierto que se integra perfectamente con los pipelines de scikit-learn.
AutoML de Microsoft Azure: Los desarrolladores que usan Microsoft Azure pueden beneficiarse de sus capacidades de AutoML.
Auto-Sklearn: Una plataforma AutoML de código abierto basada en la biblioteca scikit-learn.
1. Biblioteca para la ciencia de datos semiautomatizada, Hirzel et al., IBM/lale, 28 de agosto de 2024
IBM Granite es nuestra familia de modelos de IA abiertos, de alto rendimiento y confiables, diseñados para empresas y optimizados para escalar sus aplicaciones de IA. Explore opciones de lenguaje, código, series de tiempo y medidas de protección.
Encuestamos a 2000 organizaciones sobre sus iniciativas de IA para descubrir qué funciona, qué no y cómo pueden avanzar.
Aprenda a incorporar la IA generativa, el machine learning y los modelos fundacionales en sus operaciones empresariales para mejorar el rendimiento.
Aprenda a seleccionar el modelo fundacional de IA más adecuado para su caso de uso.
El machine learning (ML) es una rama de la IA y la informática que se centra en el uso de datos y algoritmos para permitir que la IA imite la forma en que aprenden los humanos.
Indague en los 3 elementos críticos de una estrategia sólida de IA: crear una ventaja competitiva, escalar la IA en todo el negocio y avanzar en la IA confiable.
Entrene, valide, ajuste y despliegue IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de próxima generación para creadores de IA. Diseñe aplicaciones de IA en menos tiempo y con menos datos.
Ponga la IA a trabajar en su negocio con la experiencia en IA líder en la industria y la cartera de soluciones de IBM a su lado.
Reinvente los flujos de trabajo y las operaciones críticas añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.