¿Qué es el aprendizaje continuo?

¿Qué es el aprendizaje continuo?

El aprendizaje continuo es un enfoque de aprendizaje de inteligencia artificial (IA) que implica entrenar secuencialmente un modelo para nuevas tareas mientras se preservan las tareas aprendidas previamente. Los modelos aprenden de forma incremental a partir de un flujo continuo de datos no estacionarios, y el número total de tareas que se aprenderán no se conoce de antemano. 

El aprendizaje incremental permite a los modelos adquirir nuevos conocimientos y seguir el ritmo de la imprevisibilidad del mundo real sin olvidar los conocimientos antiguos. Los datos no estacionarios significan que las distribuciones de datos no son estáticas. Cuando se implementa con éxito, el aprendizaje continuo da como resultado modelos que mantienen el conocimiento específico de la tarea y también pueden generalizar a través de distribuciones de datos dinámicas. 

Los modelos de aprendizaje continuo están diseñados para aplicar nuevos datos de forma adaptativa en entornos cambiantes. También conocido como aprendizaje permanente, el aprendizaje continuo se inspira en conceptos de neurociencia relacionados con la forma en que los humanos aprenden cosas nuevas y, al mismo tiempo, conservan lo que ya saben. Si una persona aprende a andar en patineta, no olvida inmediatamente cómo andar en bicicleta.

Aprendizaje continuo frente al machine learning tradicional

Los sistemas tradicionales de machine learning entrenan modelos en grandes conjuntos de datos estáticos. El conjunto de datos pasa por el algoritmo del modelo en lotes a medida que el modelo actualiza sus ponderaciones o parámetros. El modelo procesa todo el conjunto de datos varias veces, y cada ciclo se conoce como época. 

Los desarrolladores identifican el propósito del modelo de aprendizaje profundo con anticipación, ensamblan un conjunto de datos de entrenamiento que se ajuste al objetivo de aprendizaje y entrenan el modelo con esos datos. Luego, el modelo se prueba, valida y despliega. Ajustar el modelo de machine learning con más datos puede adaptar su rendimiento a las nuevas tareas. 

Los métodos de aprendizaje tradicionales no reflejan completamente el dinamismo del mundo real. El aprendizaje supervisado utiliza conjuntos de datos estáticos con resultados conocidos. El aprendizaje no supervisado permite que un modelo clasifique los datos por sí solo, pero los datos de entrenamiento siguen siendo finitos e inmutables. El aprendizaje por refuerzo es igualmente seguro y restringido. 

A diferencia de los métodos de aprendizaje tradicionales, el aprendizaje continuo intenta aplicar la plasticidad del cerebro humano a las redes neuronales artificiales. La neuroplasticidad es la cualidad del cerebro que le permite adaptarse, aprendiendo sin olvidar los conocimientos previos a medida que se encuentra con circunstancias cambiantes. 

Algunos tipos de aprendizaje continuo todavía comienzan con el entrenamiento por lotes fuera de línea en múltiples épocas, similar al entrenamiento tradicional fuera de línea. El aprendizaje continuo en línea solo entrena modelos con un flujo de datos de un solo paso. 

Las últimas tendencias de IA presentadas por expertos

Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .

¡Gracias! Ya está suscrito.

Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

Ventajas del aprendizaje continuo

El aprendizaje continuo ayuda a las redes neuronales a optimizar y adaptarse en entornos dinámicos. El machine learning tradicional requiere conjuntos de datos extensos y fijos, tiempo y computación suficientes para el entrenamiento y un propósito conocido para el modelo. Cuando no se cumplen uno o más de estos requisitos, el aprendizaje continuo proporciona una alternativa. 

  • Mitigar el olvido catastrófico

  • Pequeños conjuntos de datos de entrenamiento 

  • Cambiar las distribuciones de datos

  • Optimización de recursos 

  • Tolerancia al ruido 

    Mitigar el olvido catastrófico

    Cuando los modelos de aprendizaje profundo se entrenan con nuevos datos o nuevas distribuciones, pueden perder conocimientos previos. Conocido como olvido catastrófico, este fenómeno es consecuencia de un modelo que sobreajusta sus parámetros a nuevos datos. Los modelos actualizan sus ponderaciones internas hasta el punto de que los nuevos parámetros ya no son relevantes para el trabajo original del modelo. 

    Pequeños conjuntos de datos de entrenamiento

    El aprendizaje continuo transmite datos de entrenamiento de forma incremental a través del modelo de IA. El modelo se alimenta de una secuencia de pequeños conjuntos de datos, que a veces constan de una sola muestra. El aprendizaje por transferencia,cuando un modelo aplica el aprendizaje previo a nuevas tareas, ayuda a minimizar la cantidad de nuevos datos necesarios. 

    Cambiar las distribuciones de datos

    El mundo está en un estado de cambio constante. Los humanos y otros animales desarrollaron la capacidad de aprender para ayudarlos a prosperar en la adversidad. Por ejemplo, si se agota un suministro de alimentos, descubrir cómo comer algo más puede garantizar la supervivencia. 

    Pero no todos los animales son tan capaces. Los koalas ni siquiera pueden reconocer su principal fuente de alimento, las hojas de eucalipto, si las hojas se quitan de un árbol y se colocan en una pila en un plato. Si bien los koalas a veces comen otras hojas de otros árboles, pueden concebir la comida solo como "hojas en los árboles". Sus suaves cerebros no pueden desviarse de esta expectativa. 

    Considere un modelo de visión artificial diseñado para su uso en automóviles autónomos. El modelo debe saber cómo reconocer otros vehículos en la carretera, pero también peatones, ciclistas, motociclistas, animales y peligros. Debe percibir y adaptarse perfectamente a los cambios climáticos y a los patrones de tráfico, como un aguacero repentino o si se acerca un vehículo de emergencia con las luces y la sirena encendidas. 

    Los idiomas cambian con el tiempo. Un modelo de procesamiento de lenguaje natural (PLN) debe ser capaz de procesar cambios en el significado de las palabras y cómo se utilizan. Del mismo modo, un modelo diseñado para robótica debe poder adaptarse si cambia el entorno del robot. 

    Optimización de recursos

    Los modelos de IA consumen muchos recursos. Pueden costar millones de dólares entrenar y consumir grandes cantidades de electricidad y agua. No siempre es posible desplegar nuevos modelos cada vez que surgen nuevas tareas. Tampoco es factible desde el punto de vista computacional conservar todas las tareas anteriores en la memoria disponible de un modelo. 

    El aprendizaje continuo permite que los modelos de lenguaje de gran tamaño (LLM) y otras neural networks se adapten a los casos de uso cambiantes sin olvidar cómo manejar los desafíos anteriores. Las empresas pueden minimizar el número de modelos en operaciones ampliando las capacidades potenciales de cada modelo que utilizan. 

    Tolerancia al ruido

    Si se entrenan bien, los algoritmos de aprendizaje continuo deberían poder identificar con confianza los datos relevantes mientras ignoran el ruido: puntos de datos sin sentido que no reflejan con precisión los valores del mundo real. El ruido es el resultado de errores de señal, errores de medición y errores de entrada, y también cubre valores atípicos. Los valores atípicos son puntos de datos tan diferentes al resto de los datos que son irrelevantes. 

    Mixture of Experts | 12 de diciembre, episodio 85

    Decodificación de la IA: Resumen semanal de noticias

    Únase a nuestro panel de ingenieros, investigadores, responsables de producto y otros profesionales de talla mundial que se abren paso entre el revuelo de la IA para ofrecerle las últimas noticias e insights al respecto.

    Tipos de aprendizaje continuo

    Los desafíos del aprendizaje continuo se pueden dividir ampliamente en tres categorías, dependiendo de cómo cambie el flujo de datos con el tiempo1:

    • Aprendizaje continuo incremental de tareas
       

    • Aprendizaje continuo incremental de dominio
       

    • Aprendizaje continuo incremental en la clase

    Aprendizaje continuo incremental de tareas

    El aprendizaje incremental de tareas es un enfoque paso a paso del aprendizaje multitarea en el que un algoritmo debe aprender a realizar una serie de tareas diferentes. Debe quedar claro para el algoritmo qué tarea se espera de él, ya sea que las tareas sean lo suficientemente distintas entre sí o etiquetando las entradas con la salida adecuada. 

    Un ejemplo real de aprendizaje incremental de tareas sería aprender a hablar japonés, luego mandarín, luego checo y luego español. Por lo general, está claro qué idioma debe usar el hablante en un momento determinado. 

    Debido a que las tareas se transmiten al modelo en secuencia, el desafío es ayudar a garantizar que el modelo pueda transferir suficientemente el aprendizaje de una a otra. El número total de tareas tampoco siempre se conoce de antemano, especialmente con modelos que ya están en despliegue. 

    La prevención del olvido catastrófico es un hecho: lograr que el modelo aplique el aprendizaje por transferencia es el objetivo real con metodologías de aprendizaje incremental de tareas. 

    Aprendizaje continuo incremental de dominio

    El aprendizaje incremental de dominio cubre desafíos en los que la distribución de datos cambia, pero el tipo de desafío sigue siendo el mismo. Las condiciones que rodean la tarea han cambiado de alguna manera, pero los resultados potenciales no. A diferencia del aprendizaje incremental de tareas, no se requiere que el modelo identifique la tarea específica a resolver. 

    Por ejemplo, un modelo creado para el reconocimiento óptico de caracteres (OCR) necesitaría reconocer varios formatos de documentos y estilos de fuente. No es importante saber cómo o por qué el entorno ha cambiado, sino reconocer que ha cambiado y completar la tarea independientemente. 

    Los cambios en la distribución de datos son un desafío de larga data en el machine learning porque los modelos suelen entrenarse en un conjunto de datos estático y discreto. Cuando las distribuciones de datos cambian después del despliegue, el aprendizaje incremental de dominio puede ayudar a los modelos a mitigar las pérdidas de rendimiento.

    Aprendizaje continuo incremental de clases

    El aprendizaje incremental de clases se produce cuando un modelo clasificador debe realizar una serie de tareas de clasificación con un número creciente de clases de salida. El modelo debe ser capaz de resolver correctamente cada instancia y, al mismo tiempo, recordar las clases encontradas en instancias anteriores. 

    A un modelo entrenado para clasificar vehículos como automóviles o camiones se le puede pedir que identifique autobuses y motocicletas. Se espera que el modelo mantenga su comprensión de todas las clases aprendidas a lo largo del tiempo, no solo de las opciones en cada instancia. Si se entrena en “autos versus camiones” y luego se le da “autobuses versus motocicletas”, el modelo también debería determinar con éxito si un vehículo es un automóvil o un autobús. 

    El aprendizaje incremental de clases de última generación es uno de los desafíos de aprendizaje continuo más difíciles porque la aparición de nuevas clases puede erosionar las distinciones entre clases previamente establecidas.

    Técnicas de aprendizaje continuo

    El objetivo de todas las técnicas de aprendizaje continuo es equilibrar el dilema estabilidad-plasticidad: hacer un modelo lo suficientemente estable como para retener el conocimiento aprendido previamente y, al mismo tiempo, lo suficientemente plástico como para cultivar nuevos conocimientos. Aunque los investigadores han identificado numerosos enfoques para el aprendizaje continuo, muchos se pueden asignar a una de tres categories:

    • Técnicas de regularización
       

    • Técnicas de aislamiento de parámetros
       

    • Técnicas de repetir

    Técnicas de regularización

    La regularización es un conjunto de técnicas que restringen la capacidad de un modelo para sobreajustarse a nuevos datos. El modelo no puede actualizar su arquitectura durante el entrenamiento incremental, mientras que técnicas como la destilación del conocimiento, donde un modelo más grande "enseña" a uno más pequeño, ayudan a preservar el conocimiento. 

    • La consolidación de peso elástico (EWC) agrega una penalización a la función de pérdida del algoritmo de aprendizaje que le impide realizar cambios drásticos en los parámetros de un modelo. Los algoritmos de optimización utilizan el gradiente de la función de pérdida como métrica para establecer un punto de referencia del rendimiento del modelo. 

    • Inteligencia sináptica (SI), que limita las actualizaciones de parámetros en función de una comprensión acumulativa de la importancia relativa de cada parámetro. 

    • Aprender sin olvidar (LWF) entrena modelos con nuevos datos de tareas y mantiene el conocimiento antiguo al preservar las probabilidades de salida de tareas anteriores.

    Técnicas de aislamiento de parámetros

    Los métodos de aislamiento de parámetros alteran una parte de la arquitectura de un modelo para adaptarse a nuevas tareas mientras congelan los parámetros para tareas anteriores. El modelo se reconstruye para ampliar sus capacidades, pero con la advertencia de que algunos parámetros no se pueden ajustar. El entrenamiento posterior se realiza solo en los parámetros que son elegibles para nuevas tareas. 

    Por ejemplo, redes neuronales progresivas (PNN) crean columnas de redes neuronales específicas de tarea para nuevas tareas. Las conexiones paralelas a otras columnas permiten transferir el aprendizaje y evitan que estas columnas se modifiquen.

    Técnicas de repetición

    Las técnicas de repetir implican exponer regularmente un modelo durante las activaciones de entrenamiento a muestras de conjuntos de datos de entrenamiento anteriores. El aprendizaje continuo basado en repetir guarda muestras de datos más antiguos en un búfer de memoria y las incorpora en ciclos de entrenamiento posteriores. La exposición continua a datos más antiguos evita que el modelo se sobreajuste a los nuevos datos. 

    Las técnicas de memoria son confiablemente efectivas, pero tienen el costo del acceso regular a datos anteriores, lo que requiere suficiente espacio de almacenamiento. Las situaciones que implican el uso de datos personales confidenciales también pueden evitar problemas para la implementación de técnicas de memoria. 

    La reproducción generativa utiliza un modelo generativo para sintetizar muestras de datos anteriores para alimentar el modelo que se está entrenando, como un clasificador que necesita aprender nuevas clases sin olvidar las antiguas.

    Soluciones relacionadas
    IBM watsonx.ai

    Entrene, valide, ajuste y despliegue IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de próxima generación para creadores de IA. Diseñe aplicaciones de IA en menos tiempo y con menos datos.

    Descubra watsonx.ai
    Soluciones de inteligencia artificial

    Ponga la IA a trabajar en su negocio con la experiencia en IA líder en la industria y la cartera de soluciones de IBM a su lado.

    Explore las soluciones de IA
    Consultoría y servicios de IA

    Reinvente los flujos de trabajo y las operaciones críticas añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

    Conozca los servicios de IA
    Dé el siguiente paso

    Obtenga acceso único a capacidades que abarcan el ciclo de vida del desarrollo de IA. Produzca potentes soluciones de IA con interfaces fáciles de usar, flujos de trabajo y acceso a API y SDK estándar de la industria.

    Explore watsonx.ai Reserve una demostración en vivo
    Notas de pie de página

    1. van de Ven et al. Three types of incremental learningNature, 5 de diciembre de 2022