Acelerar la integración de la IA en toda tu compañía puede generar un crecimiento positivo del negocio. El 90 % de las iniciativas corporativas de IA tienen dificultades para moverse más allá de las etapas de prueba. Las organizaciones están madurando en ciencia de datos, pero aún no logran integrar y escalar Advanced Analytics e IA/ML en la toma de decisiones diaria y en tiempo real, por lo que no pueden aprovechar el valor de la IA. Se requerirá una transformación digital acelerada para el nuevo mundo del trabajo remoto y se puede aprovechar la IA/ML para lograrlo más rápidamente. Y dan como resultado operaciones más eficientes, experiencias del cliente más convincentes y una toma de decisiones más perspicaz. Las empresas pueden obtener ganancias significativas en toda la cadena de valor con IA, pero las organizaciones tienen que hacerlo bien desde el principio o corren el riesgo de acumular multas, sanciones, errores, resultados corruptos y desconfianza general de sus usuarios empresariales y del mercado.
Las empresas que están ampliando estratégicamente la IA reportan un rendimiento casi tres veces superior al de las inversiones en IA en comparación con las empresas que persiguen pruebas de concepto aisladas.
IBM Services tiene capacidades integrales para extraer valor de la IA. Impulsa la innovación sostenible a nivel empresarial con modelos escalables de IA/ML, que sean respetuosos con el medio ambiente, accionables, reutilizables y escalables, que no sean experimentos científicos puntuales. Los servicios de IBM para IA a escala tienen como objetivo escalar los compromisos y aplicaciones actuales de IA hacia una configuración empresarial. Se compone de múltiples pilares que conforman la oferta global:
Comenzamos con una visión para establecer y escalar una IA confiable y datos como componentes clave de la Estrategia empresarial para obtener una ventaja competitiva. Lo basamos en un marco de medición para generar un valor de IA genuino en el que usted y sus clientes puedan confiar.
Asesoramos y trabajamos en colaboración con su equipo para crear un modelo operativo personalizado. Entendemos que cada organización es diferente y que lo que funciona para una no funcionará para otra. Por ejemplo, un modelo federado en lugar de un modelo no federado. Luego, trabajamos codo a codo con usted para desarrollar una cartera de iniciativas que produzca un valor comercial medible a través de la recolección de activos de IA por parte de equipos escalables y conectados.
Guiamos su dirección de datos y tecnología para IA con la capacidad de migrar y crear nuevas aplicaciones basadas en datos de IA y ML mediante el uso de una cartera de productos de IA que son lo suficientemente flexibles como para recopilar, integrar y administrar datos para múltiples casos de uso, plataformas y nubes.
Posicionamos las operaciones como un componente crítico y parte crítica de la implementación de la ciencia de datos y modelos de IA de manera repetida, consistente y a escala con cuatro objetivos principales: diseñar, desplegar, monitorear y confiar.
Ayudamos a desarrollar la gestión de cambios para aumentar las tasas de adopción de IA con un riesgo mínimo mediante el establecimiento de una gestión de cambios activa a nivel empresarial. Este enfoque puede identificar y abordar los bloqueadores a las formas en que la IA puede crear valor para su empresa.
Ayudamos a elegir el conjunto de habilidades, roles y configuración de equipo adecuados en la organización de IA, lo cual es esencial para lograr madurez y escalabilidad.
Un detalle importante de IBM Services for AI at Scale es que no es necesario empezar de cero. IBM trabaja con su entorno existente: su automatización de inteligencia, su gobernanza y su gestión de datos. El cliente puede obtener visibilidad y control totales sobre sus cargas de trabajo, dondequiera que se ejecuten, generando un valor comercial real. Con el objetivo de minimizar el tiempo de desplegar y el tiempo de creación de valor con un riesgo minimizado, el proceso de IBM incluye un enfoque de cuatro fases para la implementación de IA a escala.
1. Fase de evaluación (4-6 semanas): auditoría, evaluación y planificación a corto plazo, con el fin de identificar las deficiencias en los procesos, métodos y herramientas existentes. Trabajar con el cliente en una colaboración conjunta para ejecutar las primeras soluciones.
2. Diseño y establecimiento (4 a 6 semanas): construya en colaboración un marco común para crear, escalar y mantener la IA. Configure un marco de escalabilidad con el cliente basado en el entorno existente.
3. Adoptar (3-4 meses): trabajo conjunto para entregar los primeros proyectos. Poner a prueba de 3 a 5 MVP en la infraestructura para perfeccionarlo; finalizar y configurar la arquitectura, los procesos y el programa. Trabajar con el cliente en una colaboración conjunta para ejecutar las primeras soluciones. IBM Garage: creación conjunta, ejecución conjunta, cooperación.
Scale (en curso): Crear un equipo de escalabilidad, gestionar machine learning en producción. Proporcione al cliente IA como servicio totalmente gestionada en toda la organización, para que el cliente pueda centrarse en los desafíos del negocio.
RAD-ML es el marco de enfoque de IBM para acelerar rápidamente el tiempo de producción de aplicaciones de ciencia de datos mediante la automatización. Con el apoyo de la metodología Rapid Asset Development – Machine Learning (RAD-ML) y otros activos y aceleradores de IBM, IBM Services for AI at Scale proporciona marcos responsables, coherentes pero innovadores para abordar y aprovechar la ciencia de datos para crear soluciones repetibles, reutilizables, escalables y modelos procesables de IA/ML. La oferta de IBM reduce radicalmente el tiempo de desarrollo de esos modelos y establece canales para acelerar el despliegue en producción, al tiempo que aumenta la eficiencia de los científicos de datos de los clientes, lo que les permite centrarse en lograr los resultados comerciales esperados y hacer lo que mejor saben hacer y disfrutar más.
IBM Servicios para IA a escala es un servicio de "consultar para operar" que proporciona un medio para integrar y escalar constantemente PoC de IA/machine learning (ML) en producción, así como ejecutar y gestionar esos modelos de IA/machine learning (ML) a lo largo del tiempo. Los activos desarrollados con las pautas del método RAD-ML se pueden desplegar más fácilmente en una arquitectura de machine learning escalable.
RAD-ML es un marco probado para desarrollar activos Escalables de machine learning (ML), definir la preparación de los activos en dimensiones funcionales y estratégicas, y puede utilizarse como punto de partida para cualquier solución de IA/machine learning (ML) si el cliente no tiene un marco común. Se puede aprovechar para desarrollar activos o módulos de ciencia de datos independientes sobre las soluciones existentes. Permite la creación de activos de machine learning que respetan las capacidades (aplicable en la práctica, reutilizables y Escalable) utilizando los siguientes conceptos clave:
▪Los activos de machine learning deben integrarse en procesos de negocio con retorno de la inversión (ROI) comprobado
▪Los activos de machine learning deben ser flexibles para diferentes contextos de datos e inversiones en Tecnología
▪ Los activos de machine learning deben basarse en una tecnología sólida y un diseño de operaciones que se pueda escalar
Boletín de la industria
Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .
Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.
Cada proyecto RAD-ML debe integrarse en el entorno del cliente preexistente. También debe agregar los aceleradores RAD-machine learning (ML) de código abierto y gratuitos: Brainstem, dash-blocks, arquitectura y plantillas de documentos. Para definir una arquitectura de ML Ops adecuada y estandarizada, es necesario establecer una visión general detallada de los componentes de destino. Los componentes objetivo se alinearán con la infraestructura interna y la configuración de herramientas.
IBM puede implementar este marco común en prácticamente cualquier nube, incluyendo una multinube híbrida. A continuación se muestra un ejemplo de cómo IBM puede utilizar las herramientas de AWS para crear un pipeline de machine learning.
AWS CodeCommit reemplaza un repositorio git convencional: este es el lugar esencial donde se almacena todo el código utilizado de un proyecto.
CodeBuild ejecutará todas las pruebas unitarias y de integración, así como creará un tarball a partir de las fuentes de python especificadas, que se pueden desplegar en un contenedor docker más adelante. CodeDeploy ejecutará un escenario de despliegue específico, que, por ejemplo, Construye el contenedor Docker, lo envía a un repositorio de imágenes Docker y al final carga la imagen en un entorno de producción.
AWS ECR funciona como el repositorio de todos los contenedores docker, que se construyen en la pipeline mencionada anteriormente. Actúa como repositorio para contenedores, al igual que CodeCommit actúa como repositorio para archivos de configuración y código fuente. Este es el punto en el que AWS SageMaker buscará una imagen docker específica, cuando se active un trabajo de entrenamiento con los parámetros respectivos desde el exterior.
AWS SageMaker actúa como entorno de tiempo de ejecución para todos los trabajos de entrenamiento. AWS SageMaker puede activarse mediante una API o binding en python. El usuario especifica qué tipo de modelo se va a ejecutar y dónde se encuentran los datos de entrada y salida respectivos. AWS SageMaker aceptará imágenes docker con un punto de entrada predefinido que contenga el código de entrenamiento. Sin embargo, también es posible ejecutar allí un trabajo definido por TensorFlow/MXNext/ONNX. SageMaker ofrece una interfaz de usuario para la administración y se puede escalar de forma elástica, ya que es un servicio gestionado. Por lo tanto, el usuario puede elegir entre una amplia variedad de máquinas, que se utilizan para entrenar un modelo específico. AWS SageMaker también se puede utilizar para realizar el ajuste de hiperparámetros, que también se puede activar a través de la API. La herramienta seleccionará automáticamente la combinación de hiperparámetros con mejor rendimiento. Los resultados de una ejecución se pueden escribir directamente en S3 o incluso en DynamoDB.
AWS S3 actúa como el sistema de archivos básico para los archivos de entrada y salida. Por lo general, S3 se utiliza para almacenar grandes archivos de datos de entrenamiento y también se puede utilizar para almacenar modelos serializados. AWS S3 se integra perfectamente con SageMaker.
AWS DynamoDB es una base de datos NoSQL basada en valores clave, que está completamente administrada por AWS y se puede escalar bajo demanda. La base de datos se puede utilizar para almacenar los KPI de una ejecución de modelos para rastrear el rendimiento del modelo a lo largo del tiempo, por ejemplo. También se aprovecha para integrar información de tiempo de ejecución y metadatos de rendimiento para la ejecución de un modelo. AWS DynamoDB se puede integrar perfectamente con QuickSight, que es una herramienta de visualización de datos ofrecida por AWS.
AWS Elastic Inference es una instancia EC2 con esteroides. Los modelos entrenados en AWS SageMaker se pueden alojar en una instancia de EI para la predicción. La (s) máquina (s) subyacente (s) se puede escalar según demanda.
La cuestión de la ética no es solo un problema de modelado, sino un problema de negocio. El 60 % de las empresas ven el cumplimiento como una barrera para lograr el éxito en la aplicación de la IA, en parte debido a la falta de confianza y comprensión del sistema. IBM diseñó un enfoque de tres partes para fomentar la confianza, la transparencia y la equidadpara ejecutar, mantener y escalar la IA de manera consistente mientras se mantiene la confianza y se reduce el riesgo de marca y reputación. IBM puede ayudar al cliente con la cultura que necesita adoptar y escalar de forma segura la IA, con ingeniería de IA a través de herramientas forenses para ver el interior de los algoritmos de caja negra, y con la gobernanza para garantizar que la ingeniería se ajuste a la cultura. En el centro de una IA confiable está la telemetría y las herramientas forenses que IBM posee en la comunidad de nuestra fundación de código abierto y Linux.
IBM Services for AI at Scale se enmarca en torno al kit de herramientas de código abierto de IBM Research, AI Fairness 360 y hojas informativas. Los desarrolladores pueden compartir y recibir códigos y conjuntos de datos de última generación relacionados con la detección y mitigación de sesgos en la IA. Estos esfuerzos de IBM Research también nos llevaron a integrar IBM Watson OpenScale, una oferta comercial diseñada para crear soluciones o empresas basadas en IA para detectar, gestionar y mitigar el sesgo de la IA.