¿Qué es la implementación del modelo?

Autores

Rina Diane Caballar

Staff Writer

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

¿Qué es la implementación del modelo?

La implementación del modelo implica colocar un modelo de machine learning (ML) en un entorno de producción. Pasar un modelo del desarrollo a la producción lo pone a disposición de los usuarios finales, desarrolladores de software y otras aplicaciones de software y sistemas de inteligencia artificial (IA).

La implementación de modelos de machine learning es una fase crucial en el ciclo de vida de la IA. Los científicos de datos, los desarrolladores de IA y los investigadores de IA suelen trabajar en las primeras etapas de los proyectos de ciencia de datos y ML, incluida la recopilación y preparación de datos, el desarrollo de modelos, el entrenamiento de modelos y la evaluación de modelos. La implementación es el próximo paso que lleva la investigación al mundo real. Una vez implementado, un modelo de IA se prueba realmente, no solo en términos de inferencia o rendimiento en tiempo real con nuevos datos, sino también en qué tan bien resuelve los problemas para los que fue diseñado.

Según una encuesta de Gartner, IA generativa es la solución de IA implementada con más frecuencia en las organizaciones, pero solo la mitad (alrededor del 48 %) de los proyectos de IA llegan a producción1. Solo cuando se implementa un modelo de machine learning puede surgir su verdadero valor. Los usuarios pueden interactuar con un modelo y obtener beneficio de sus conocimientos, mientras que las empresas pueden emplear el análisis y las predicciones de un modelo para la toma de decisiones y impulsar la eficiencia a través de la automatización.

Las últimas tendencias en IA, presentadas por expertos

Obtenga conocimientos organizados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM.

¡Gracias! Está suscrito.

Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

Métodos de implementación de modelos

Las empresas pueden elegir entre diferentes enfoques de implementación en función de las aplicaciones y los casos de uso que prevén para sus nuevos modelos. Estos son algunos métodos comunes de implementación de modelos:

  • Tiempo real
  • Lote
  • Streaming
  • Edge

Tiempo real

La implementación en tiempo real implica la integración de un modelo preentrenado en un entorno de producción capaz de manejar inmediatamente las entradas y las salidas de datos. Este método permite que los modelos de ML en línea se actualicen continuamente y generen predicciones rápidamente a medida que llegan nuevos datos.

Las predicciones instantáneas pueden mejorar la experiencia del usuario y aumentar su participación. Pero la implementación en tiempo real también requiere una infraestructura informática de alto rendimiento con tiempos de respuesta rápidos y almacenamiento en caché para gestionar solicitudes síncronas de baja latencia.

La implementación en tiempo real se puede implementar para aplicaciones de IA, como motores de recomendación que atienden rápidamente sugerencias o chatbots que brindan soporte en vivo a los clientes.

Lote

La implementación por lotes implica el procesamiento fuera de línea de las entradas de datos. Los conjuntos de datos se agrupan en lotes y luego se aplican periódicamente a algoritmos de machine learning. Como tal, la implementación por lotes no necesita una infraestructura tan sólida como la implementación en tiempo real.

Este método es adecuado para grandes volúmenes de datos que pueden procesarse de forma asíncrona, como transacciones financieras, registros sanitarios o documentos legales. Los casos de uso de implementación por lotes incluyen el análisis de documentos, la previsión, la generación de descripciones de productos, la clasificación de imágenes y el análisis de sentimientos.

Streaming

La implementación de streaming envía flujos regulares de datos a un sistema de machine learning para realizar cálculos continuos y predicciones casi en tiempo real. Por lo general, requiere la misma infraestructura que la implementación en tiempo real.

Este método puede emplearse para la detección del fraude y aplicaciones de Internet de las cosas (IoT) como la monitorización de centrales eléctricas y la gestión del tráfico que dependen de flujos de datos de sensores.

Edge

La implementación perimetral se refiere a la implementación de modelos de IA en dispositivos periféricos como teléfonos inteligentes y wearables. Este método se puede utilizar para aplicaciones de IA periférica, incluyendo monitorización de la salud, experiencias móviles personalizadas, mantenimiento predictivo y rutas predictivas en vehículos autónomos.

AI Academy

Conviértase en un experto en IA

Obtenga los conocimientos necesarios para priorizar las inversiones en IA que impulsan el crecimiento empresarial. Dé sus primeros pasos hoy mismo con nuestra AI Academy gratuita y lidere el futuro de la IA en su organización.

Implementación de modelos y MLOps

Las operaciones de machine learning (MLOps) son un conjunto de prácticas diseñadas para crear una línea de montaje para implementar, monitorizar, gestionar y mejorar los modelos de machine learning dentro de los entornos de producción. MLOps se basa en los principios de DevOps, que se centra en agilizar el desarrollo, las pruebas y la implementación de aplicaciones de software tradicionales, y los aplica al ciclo de vida del machine learning.

La implementación de modelos es solo un componente del pipeline de MLOps. Sin embargo, algunos pasos del proceso de implementación del modelo se superponen con los de MLOps.

Cómo funciona la implementación de modelos

La implementación del modelo puede variar según los sistemas de TI de una organización y cualquier procedimiento DevOps o MLOps ya implementado. Pero el proceso suele abarcar esta serie de pasos:

  1. Planificación
  2. Configuración
  3. Empaquetado e implementación
  4. Pruebas
  5. Supervisión
  6. Integración continua e implementación continua (CI/CD)

Planificación

Antes de que comience la implementación, las empresas deben prepararse para el proceso. Así es como las empresas pueden lograr la preparación técnica durante la etapa de planificación:

  • Asegúrese de que el modelo ML esté listo para entrar en producción.
  • Cree un registro de modelos para almacenar, rastrear y administrar versiones de modelos.
  • Elija un método de implementación.
  • Seleccione el tipo de entorno de implementación, ya sea on premises, mediante servicios cloud computing o en dispositivos edge.
  • Evalúe la disponibilidad y la suficiencia de los recursos computacionales, como CPUGPU, memoria y almacenamiento.

Este es también el momento de desarrollar un cronograma para la implementación, definir las funciones y responsabilidades de los involucrados y crear pautas claras y flujos de trabajo estandarizados para el proceso de implementación del modelo.

Configuración

Al igual que la planificación, la configuración es una fase de varios pasos. Esto es lo que suele ocurrir durante esta etapa:

  • Se instalan todas las dependencias necesarias, como marcos y bibliotecas.
  • Los ajustes del entorno de producción se configuran para optimizar el rendimiento del modelo.
  • Se establecen medidas de seguridad, como el control de acceso, la autenticación y el cifrado, para salvaguardar los datos y los modelos.
  • Las estrategias actuales de copia de seguridad y recuperación ante desastres se modifican para incorporar modelos de ML y los datos e infraestructura que los acompañan.

Documentar todos los procedimientos de instalación y los ajustes de configuración es esencial para solucionar problemas y resolver problemas en el futuro.

Empaquetado e implementación

El modelo y sus dependencias se empaquetan en un contenedor (una técnica llamada contenerización) para mantener la coherencia independientemente del método de implementación y el entorno elegidos. A continuación, el modelo empaquetado se carga en el entorno de producción.

Pruebas

Es fundamental realizar pruebas exhaustivas para validar que el modelo implementado funciona según lo previsto y es capaz de gestionar casos extremos e instancias erróneas. Las pruebas incluyen la verificación de las predicciones del modelo frente a los resultados esperados utilizando un conjunto de datos de muestra y asegurarse de que el rendimiento del modelo se alinea con las métricas clave de evaluación y referencias.

Las pruebas de integración son otro componente necesario del conjunto de pruebas. Estas pruebas comprueban que el modelo se fusiona de manera fluida con el entorno de producción e interactúa sin problemas con otros sistemas. Además, se realizan pruebas de estrés para observar cómo el modelo maneja altas cargas de trabajo.

Al igual que con la fase de configuración, es importante documentar qué pruebas se realizaron y sus resultados. Esto ayuda a identificar cualquier mejora que se pueda realizar antes de entregar o lanzar el modelo a los usuarios.

Monitorización

Hacer un seguimiento del rendimiento del modelo, especialmente de la desviación del modelo, es la tarea crítica de la monitorización del modelo. Los conocimientos obtenidos de la monitorización continua se incorporan al reentrenamiento iterativo de los modelos, en el que los modelos se actualizan con algoritmos mejorados o nuevos datos de entrenamiento que contienen muestras más recientes y relevantes para refinar su rendimiento.

Las métricas vitales, como las tasas de error, la latencia, la utilización de recursos y el rendimiento, también deben registrarse mediante herramientas de monitorización. La monitorización del modelo se produce inmediatamente después de la implementación, pero suele ser competencia de MLOps a largo plazo.

Integración continua e implementación continua (CI/CD)

Las prácticas combinadas de integración continua e implementación continua (conocidas como CI/CD) pueden automatizar y agilizar la implementación y las pruebas de los modelos de ML. La implementación de pipelines de CI/CD ayuda a garantizar que las actualizaciones y mejoras del modelo se puedan aplicar de manera fácil y rápida, lo que se traduce en una implementación más eficiente y ciclos de entrega acelerados.

Plataformas y herramientas de implementación de modelos

Hay una gran cantidad de plataformas y herramientas disponibles para ayudar a las empresas a acelerar los flujos de trabajo de implementación de modelos. Antes de adoptar estas tecnologías, las organizaciones deben evaluar la compatibilidad con su pila tecnológica existente y su ecosistema.

Control de versiones

Los sistemas de control de versiones y los registros de modelos registran las versiones de los modelos y sus fuentes de datos y metadatos relacionados. Las opciones incluyen Data Version Control (DVC), Git, GitLab y Weights & Biases.

Embalaje

Docker es una plataforma de código abierto ampliamente utilizada para la contenerización. Es compatible con proveedores de servicio cloud como Amazon Web Services (AWS), Google Cloud, IBM® Cloud y Microsoft Azure. Las alternativas incluyen la interfaz de línea de comandos (CLI) de Buildah, Podman y Rancher Desktop.

Orquestación

Kubernetes es una conocida plataforma de orquestación de contenedores de código abierto para programar y automatizar la implementación de aplicaciones en contenedores. Kubernetes y Docker suelen utilizarse en conjunto. Herramientas de orquestación similares incluyen Red Hat OpenShift, Amazon Elastic Container Service (ECS) y soluciones de contenedores gestionadas como Azure Kubernetes Service (AKS) e IBM® Cloud Kubernetes Service.

Implementación

Existen múltiples plataformas para implementar modelos. Por ejemplo, BentoML es una plataforma basada en Python para servir modelos de ML como endpoints de interfaz de programación de aplicaciones (API) e incluso modelos de lenguaje de gran tamaño (LLM) como endpoints de API. Kubeflow facilita la implementación de modelos en Kubernetes, mientras que TensorFlow Serving es un sistema de servicio de código abierto para modelos TensorFlow.

Mientras tanto, otras plataformas no solo ayudan con la implementación del modelo, sino que también gestionan los flujos de trabajo de machine learning. Estos incluyen Amazon SageMaker, Azure machine learning, Google Vertex AI Plataform, IBM® watsonx Studio y MLflow.

CI/CD

Las herramientas de CI/CD automatizan la implementación y las pruebas de modelos. Las herramientas comunes incluyen Continuous Machine Learning (CML), GitHub Actions, GitLab CI/CD y Jenkins.

Desafíos de la implementación de modelos

La implementación de modelos de deep learning implica muchas partes móviles, lo que puede hacer que sea una tarea complicada. Estos son algunos desafíos asociados con la implementación de modelos:

  • Coste
  • Complejidad
  • Integración
  • Escalabilidad

Coste

La implementación de modelos puede ser costosa, ya que los costes de infraestructura y mantenimiento consumen la mayor parte del presupuesto. Las empresas deben estar preparadas para invertir en infraestructuras y recursos sólidos para una implementación eficiente.

Complejidad

La automatización de la implementación de modelos puede ayudar a reducir la complejidad, pero los equipos aún deben comprender los conceptos básicos del machine learning y estar familiarizados con las nuevas tecnologías para la implementación. Cerrar esta brecha requiere formación y perfeccionamiento. 

Integración

La integración de modelos de IA en los sistemas de TI actuales puede ser un desafío. Realizar una evaluación detallada puede ayudar a las empresas a determinar si se necesitan API, middleware o actualizaciones para una conexión y comunicación fluidas entre modelos y otros sistemas.

Escalabilidad

Escalar los modelos en función de la demanda sin degradar el rendimiento puede ser complicado. La implementación de mecanismos de autoescalado y equilibrio de carga puede ayudar a admitir múltiples solicitudes y cargas de trabajo variables.

Soluciones relacionadas
IBM watsonx.ai

Entrene, valide, ajuste e implemente IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de nueva generación para desarrolladores de IA. Cree aplicaciones de IA en menos tiempo y con menos datos.

Descubra watsonx.ai
Soluciones de inteligencia artificial

Ponga la IA a trabajar en su negocio con la experiencia líder en IA del sector de IBM y junto a su cartera de soluciones.

Explore las soluciones de IA
Consultoría y servicios de IA

Reinvente las operaciones y flujos de trabajo críticos añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Explore los servicios de IA
Dé el siguiente paso

Obtenga acceso único a capacidades que abarcan el ciclo de vida de desarrollo de la IA. Produzca potentes soluciones de IA con interfaces intuitivas, flujos de trabajo y acceso a API y SDK estándar del sector.

Explore watsonx.ai Solicite una demostración en directo