Ocho minutos
Cuando la mayoría de las personas escuchan el término "mainframe", es posible que no se den cuenta de su contribución vital a la innovación en los negocios empresariales. En medio del entusiasmo que rodea a la IA generativa, es fácil suponer que a la infraestructura de TI heredada, como el mainframe, no le han invitado a la fiesta.
Lo cierto es que el mainframe está preparado para desempeñar un papel crucial en el impulso de la innovación mediante la integración de tecnologías de aceleración de IA de próxima generación con un ecosistema optimizado para mejorar las capacidades empresariales y tecnológicas.
Si echamos la vista atrás, queda claro que el mainframe ha impulsado realmente la innovación continua durante más de 60 años. Según un reciente informe del Institute for Business Value de IBM, 43 de los 50 principales bancos del mundo y 8 de las 10 principales empresas de pagos aprovechan el mainframe como plataforma central.
Para los sectores que manejan grandes cantidades de datos, pensemos en las finanzas, la sanidad y la administración pública, los mainframes han ido ganando relevancia para las estrategias de inteligencia artificial (IA). De hecho, ese mismo informe del IBV mostró que el 79 % de los ejecutivos de TI creen que los mainframes son esenciales para permitir la innovación impulsada por IA y la creación de valor.
Al mismo tiempo, estos líderes empresariales también buscan integrar la IA en las plataformas mainframe existentes para aprovechar conocimientos valiosos, automatizar tareas y mejorar la eficiencia al tiempo que preservan su infraestructura estratégica. Este enfoque maximiza el valor de los sistemas heredados al tiempo que introduce nuevas capacidades a través de análisis y automatización impulsados por IA.
Muchas de las implementaciones actuales de IA requieren que las organizaciones trasladen sus datos a la nube. Sin embargo, para los sectores que dependen del proceso de datos de alta velocidad para gestionar datos altamente confidenciales, mantener las capacidades de IA más cerca de donde residen los datos ofrece ventajas comerciales sustanciales.
"Se trata de llevar la IA allí donde suena la música, y esto está ocurriendo en dos áreas principales", afirma Khadija Souissi, arquitecto principal de soluciones, IA en IBM Z y LinuxONE y especialista técnico distinguido en IBM.
"Estamos infundiendo IA en las cargas de trabajo transaccionales para obtener conocimiento en tiempo real sobre las aplicaciones empresariales para la toma de decisiones y permitir a los clientes crear de forma sostenible aplicaciones inteligentes que adopten soluciones de IA generativa al tiempo que protegen los datos confidenciales. Además, estamos construyendo una infraestructura inteligente, utilizando IA para los sistemas operativos y subsistemas del mainframe. Esto podría ayudar a predecir las cargas de trabajo venideras para preparar proactivamente los recursos necesarios y también detectar anomalías en las operaciones del sistema que podrían ayudar a predecir las interrupciones y extraer conocimientos relacionados con el rendimiento del sistema que se pueden ejecutar".
Los mainframes gestionan casi el 70 % de las cargas de trabajo de TI de producción del mundo y son fiables por su estabilidad, alta seguridad y escalabilidad. Hoy en día, los aceleradores de IA en chip pueden escalar y procesar millones de peticiones de inferencia por segundo a tasas de latencia muy bajas. Esta capacidad permite a las organizaciones utilizar los datos y la gravedad transaccional mediante la coubicación estratégica de grandes conjuntos de datos, la IA y las aplicaciones de negocio críticas. En el futuro, los aceleradores de nueva generación abrirán nuevas oportunidades para ampliar las capacidades de la IA y los casos de uso a medida que crezcan las necesidades de una organización.
Los modelos de IA tradicionales y los modelos de IA generativa (IA gen) están ayudando a definir y dar forma a la empresa moderna. Los casos de uso transaccionales y de misión crítica requieren capacidades de machine learning, deep learning e IA generativa, que a veces trabajan juntas en una arquitectura de conjunto para lograr mejores resultados empresariales.
En el mainframe, la arquitectura de múltiples modelos utiliza los puntos fuertes de cada uno de estos diversos modelos, lo que permite una toma de decisiones más sólida, precisa y flexible.
Mirando primero a la IA tradicional, estos modelos generalmente aplican reglas predefinidas para analizar datos y tomar decisiones basadas en patrones específicos. Algunos ejemplos son la previsión de la demanda para la gestión de inventarios o las decisiones de crédito basadas en los datos históricos de un cliente.
La evolución de la IA ha estado marcada por nuevos conceptos como los modelos de lenguaje de gran tamaño (LLM):modelos de IA avanzados entrenados en grandes cantidades de datos que pueden comprender el lenguaje natural, generar texto similar al humano, traducir idiomas, responder preguntas, escribir código e incluso mantener conversaciones.
Los LLM que generan contenido generalmente se denominan modelos decodificadores y se utilizan en IA generativa. Esta capacidad se puede ver en los chatbots que brindan respuestas de servicio de atención al cliente personalizadas según las consultas y el contexto del usuario.
Los modelos codificadores son otro tipo de LLM que sobresale en la comprensión del lenguaje natural y el procesamiento de texto no estructurado, centrándose en la extracción de información clave. Los modelos decodificadores comparten esta capacidad, pero también destacan en la generación de nuevos contenidos.
La arquitectura de modelos múltiples es un concepto híbrido que integra diferentes tecnologías de IA, como los modelos tradicionales de codificadores de IA y LLM, para ofrecer resultados más rápidos y precisos que los que puede lograr un modelo por sí solo, aprovechando la enorme potencia de procesamiento y las capacidades de almacenamiento de datos del mainframe.
En el procesamiento de reclamaciones de seguros, por ejemplo, la IA puede realizar un análisis inicial de datos estructurados, mientras que los codificadores LLM pueden manejar datos no estructurados más complejos para obtener conocimiento más detallado y dar dirección a la reclamación en consecuencia.
Tomemos de ejemplo un siniestro de automóvil. La IA tradicional proporciona un procesamiento automatizado de datos estructurados (por ejemplo, informes policiales, licencias de controlador y información de registro). La IA generativa va un paso más allá para extraer conocimiento de datos no estructurados (por ejemplo, texto e imágenes relacionados con lesiones y daños en vehículos) para ayudar a priorizar y satisfacer la urgencia de esas reclamaciones.
Hace poco, IBM anunció los próximos procesadores IBM Telum II e IBM Spyre Accelerator. Estas tecnologías están diseñadas para ayudar a las empresas a escalar la capacidad de procesamiento en los sistemas IBM Z y acelerar el uso de modelos de IA tradicionales, modelos de IA de gran lenguaje y arquitectura de modelos múltiples.
La tarjeta Spyre Accelerator permitirá a los sistemas IBM Z y LinuxOne realizar inferencias de IA para LLM e IA generativa a una escala aún mayor que la disponible anteriormente.
Estos son cuatro ejemplos de casos de uso que demuestran cómo las organizaciones podrían utilizar estas tecnologías de IA para impulsar la innovación empresarial, mejorar las operaciones y acelerar las cargas de trabajo de IA generativa.
Las pérdidas financieras por transacciones fraudulentas con tarjetas de crédito causan daños financieros y de reputación. Según el informe Nilson, se espera que las pérdidas de las tarjetas de crédito en todo el mundo alcancen los 43 000 millones de dólares en 20261 .
Un caso de éxito interno de IBM mostraba que un gran banco norteamericano había desarrollado un modelo de puntuación crediticia con IA y lo había implementado en una plataforma en la nube local para ayudar a combatir el fraude. Sin embargo, solo el 20 % de las transacciones con tarjeta de crédito pudieron puntuarse en tiempo real. El banco decidió mover las complejas herramientas de detección del fraude a su mainframe.
Tras la implementación del mainframe, el banco empezó a puntuar el 100 % de las transacciones con tarjetas de crédito en tiempo real, con 15 000 transacciones por segundo, lo que supuso una importante detección del fraude.
Además, cada transacción solía tardar 80 milisegundos en puntuarse. Con la latencia reducida proporcionada por el mainframe, los tiempos de respuesta ahora se producen en dos milisegundos o menos. Este mover al mainframe también ha ahorrado al banco más de 20 millones de dólares en gastos anuales de prevención del fraude sin afectar a los acuerdos de nivel de servicio.
El mainframe es vital en las transacciones con tarjetas de crédito, ya que maneja el 90 % de las transacciones en todo el mundo2. Ahora, las organizaciones financieras pueden continuar contando con el mainframe y simultáneamente integrar IA para detectar fraudes antes de que se cierre una transacción, confiando en las grandes cantidades de datos de transacciones ya almacenadas allí en lugar de trasladarlos a una configuración en la nube.
Según Forbes, el coste medio del tiempo de inactividad de TI puede alcanzar los 9000 dólares por minuto para las grandes organizaciones y más de cinco millones de dólares por hora para las empresas de mayor riesgo3.
Por suerte, ahora las organizaciones pueden utilizar la IA para prevenir de forma proactiva o incluso predecir un corte de suministro provocado por un fallo de los equipos. Al aplicar mecanismos de IA, las organizaciones pueden detectar anomalías en los niveles de transacción, aplicación, subsistema y sistema. Por ejemplo, los sensores pueden analizar los datos de los componentes del mainframe para predecir posibles fallos del hardware y permitir un mantenimiento preventivo.
La integración del mainframe con las nuevas tecnologías, como la nube y los sistemas distribuidos, puede crear complejidad para la infraestructura de TI y los equipos de aplicaciones. Las organizaciones recurren cada vez más a la inteligencia artificial para operaciones de TI (AIOps), la aplicación de capacidades de IA para automatizar, agilizar y optimizar la infraestructura de TI y los flujos de trabajo operativos. AIOps permite a los equipos de operaciones de TI responder rápidamente a ralentizaciones e interrupciones, proporcionando una mejor visibilidad y contexto.
La protección de datos es primordial para las organizaciones que gestionan datos confidenciales. Este es uno de los principales motivos por los que sectores como el sanitario siguen confiando en las sólidas características de seguridad del mainframe, como el aislamiento de la carga de trabajo, el cifrado avanzado de datos y los protocolos de comunicación seguros.
El procesamiento de documentos en el mainframe ayuda a agilizar y ofrecer una extracción de datos precisa en un entorno altamente seguro. Las organizaciones pueden utilizar la IA generativa para resumir documentos financieros e informes empresariales, extraer puntos de datos clave (por ejemplo, métricas financieras e indicadores de rendimiento) e identificar información esencial para los procesos de cumplimiento (por ejemplo, auditorías financieras).
Como otro ejemplo, los gobiernos pueden utilizar la IA generativa para mejorar el control aduanero de cargas sospechosas mediante sofisticadas técnicas de procesamiento de imágenes y análisis de descripciones textuales asociadas a cada envío.
Uno de los mayores retos del mainframe ha sido la migración de aplicaciones heredadas escritas en COBOL a lenguajes de programación más modernos. ¿Por qué? Esto se debe principalmente al cambio generacional en el personal tecnológico, donde los desarrolladores más nuevos han adquirido habilidades en lenguajes como Java y Python durante su formación, mientras que muchos de los profesionales experimentados todavía conocen bien las tecnologías más antiguas.
Sin embargo, COBOL no desaparecerá pronto, sino que sigue impulsando muchos sistemas empresariales críticos en sectores como la banca y el gobierno. Según Reuters, el 43 % de los sistemas bancarios se basan en COBOL y hoy en día se utilizan 220 000 millones de líneas de COBOL4.
Los asistentes virtuales en el mainframe están ayudando a cerrar la brecha de habilidades de los desarrolladores. Las herramientas, como IBM watsonx Code Assistant for Z, utilizan la IA generativa para analizar, comprender y modernizar las aplicaciones COBOL existentes. Esta capacidad permite a los desarrolladores traducir código COBOL a lenguajes como Java. También acelera la modernización de las aplicaciones al mismo tiempo que preserva la funcionalidad de los sistemas COBOL heredados.
Las características de watsonx Code Assistant for Z incluyen explicación de código, refactorización automatizada y consejos de optimización de código, lo que facilita a los desarrolladores el mantenimiento y la actualización de aplicaciones COBOL antiguas.
Durante décadas, el mainframe ha ido evolucionando y continúa evolucionando al unísono para aprovechar las oportunidades que presenta la IA de próxima generación. La introducción del procesador Telum II y la tarjeta Spyre Accelerator presenta una oportunidad para que las organizaciones desbloqueen valor empresarial y creen nuevas ventajas competitivas.
"Hoy en día, el mainframe no es solo una plataforma transaccional, sino una plataforma de IA en evolución que ofrecerá un valor significativo a medida que las empresas se embarquen en su viaje hacia la IA," afirma Khadija Souissi.
Enlaces externos a IBM.
1 Card Fraud Losses Worldwide—2021. Nilson Report. 2024
2 Why Is Mainframe Still Relevant and Thriving in 2022. Planet Mainframe. 20 de diciembre de 2022
3 The True Cost Of Downtime (And How To Avoid It). Forbes. 10 de abril de 2024
4 Cobol Blues. Reuters. 2017
IBM zSystems es una familia de hardware z/Architecture moderno que ejecuta software z/OS, Linux, z/VSE, z/TPF, z/VM y zSystems.
Diseñado para gestionar cargas de trabajo de misión crítica al tiempo que mantiene la seguridad, la fiabilidad y el control de toda su infraestructura de TI.
Acelere la transformación digital modernizando sus aplicaciones de mainframe con IBM.