Meta Llama 4 Maverick y Llama 4 Scout ya están disponibles en watsonx.ai

7 de abril de 2025

Autor

Maryam Ashoori

Head of Product, watsonx.ai

IBM

IBM se complace en anunciar la incorporación de la última generación de modelos abiertos de Meta, Llama 4, a watsonx.ai. Llama 4 Scout y Llama 4 Maverick, los primeros modelos de mezcla de expertos (MoE) lanzados por Meta, ofrecen un rendimiento multimodal de vanguardia, altas velocidades, bajo coste y una longitud de contexto líder en el sector.

El lanzamiento de Llama 4 inicia una nueva era para la serie Llama, introduciendo tanto una emocionante evolución de la arquitectura Llama como un enfoque innovador para integrar diferentes tipos de modalidades de datos, incluyendo texto, imagen, vídeo, mucho antes en el proceso que los modelos entrenados convencionalmente. Los dos nuevos modelos admiten una amplia variedad de casos de uso de entrada y salida de texto e imagen y salida de texto.

Con la introducción de estas últimas ofertas de Meta, IBM ahora admite un total de 13 modelos Meta en la amplia biblioteca de modelos fundacionales disponibles en  watsonx.ai. De acuerdo con la estrategia abierta y multimodelo de IBM para la IA generativa, continuamos proporcionando a nuestros clientes de plataformas los modelos abiertos de mayor rendimiento del mercado actual.

Arquitectura eficiente

La arquitectura de mezcla de expertos (MoE) tiene como objetivo equilibrar la capacidad de conocimiento de los modelos más grandes con la eficiencia de inferencia de los modelos más pequeños subdividiendo las capas de las redes neuronaless del modelo en múltiples "expertos". En lugar de activar todos los parámetros del modelo para cada token, MoE modela utilizando una función de puerta que activa solo a los "expertos" más adecuados para procesar ese token.

Llama 4 Scout, el más pequeño de los dos nuevos modelos con un recuento total de parámetros de 109B, se divide en 16 expertos. En la inferencia, tiene un recuento de parámetros activos de solo 17B, lo que le permite atender a más usuarios en paralelo. Entrenado con 40 billones de tokens de datos, Llama 4 Scout ofrece un rendimiento que rivaliza o supera el de los modelos con recuentos de parámetros activos significativamente mayores, a la vez que mantiene bajos los costes y la latencia. A pesar de esos requisitos de computación ajustada, Llama 4 Scout supera a modelos comparables en codificación, razonamiento, contexto largo y puntos de referencia de comprensión de imágenes.

Llama 4 Maverick se divide en 128 expertos, basándose en el conocimiento de sus 400 000 millones de parámetros totales, manteniendo el mismo recuento de 17 000 millones de parámetros activos que Llama 4 Scout. Según el anuncio oficial de Meta IA, Llama 4 Maverick supera a GPT-4o de OpenAI y a Gemini 2.0 Flash de Google "en todos los ámbitos" en una amplia gama de referencias multimodales y rivaliza con el rendimiento de razonamiento y codificación del mucho más grande DeepSeek-V3 en tareas de razonamiento y codificación.

Longitud de contexto líder del sector

Además, Llama 4 Scout ofrece una ventana de contexto de diez millones de tokens, la mejor del sector, al mismo tiempo que conserva una precisión excelente en pruebas comparativas de contexto largo como la Needle-in-a-haystack(NiH). Este avance sin precedentes abre interesantes oportunidades para el resumen de varios documentos, el razonamiento sobre vastas bases de código y la personalización a través de una amplia memoria de la actividad de los usuarios.

Como explica el anuncio de Meta, esta expansión masiva en la longitud del contexto proviene principalmente de dos innovaciones: el uso de capas de atención intercaladas sin embedding y la escala de temperatura de tiempo de inferencia del mecanismo de atención de los modelos. Esta novedosa arquitectura, que Meta denomina "iRope", representa un paso importante hacia el objetivo a largo plazo de Meta de admitir una longitud de contexto "infinita".

Multimodalidad nativa

Mientras que los modelos de lenguaje de gran tamaño (LLM) suelen preentrenarse exclusivamente con datos de texto y adaptarse después a otras modalidades de datos (como los de imagen) durante el postentrenamiento, los modelos de Llama 4 están diseñados con "multimodalidad nativa". Esto permitió a Meta entrenar previamente conjuntamente los modelos con grandes cantidades de datos de texto, imágenes y vídeo sin etiquetar a la vez, enriqueciendo eficazmente los modelos con conocimientos integrados de diversas fuentes.

El entrenamiento de los modelos Llama 4 incorporó la "fusión" de diferentes tipos de datos al principio de la canalización de procesamiento, integrando sin problemas tokens de texto y visión para permitirles entrenar como un único sistema unificado. En consecuencia, Llama 4 Maverick y Llama 4 Scout ofrecen un rendimiento excelente en una serie de tareas de comprensión de imágenes, capaces tanto de abordar instrucciones de texto pertenecientes a múltiples imágenes a la vez como de anclar respuestas de modelos a regiones específicas con una sola imagen.

Modelos Llama 4 en IBM watsonx

Los desarrolladores y las empresas pueden seleccionar su modelo Llama 4 preferido del extenso catálogo de modelos fundacionales de IBM watsonx.ai, luego afinar, destilar e implementar en entornos de nube, locales o edge de su elección. IBM mejora aún más esta flexibilidad con su infraestructura de IA avanzada, integración con marcos y compatibilidad con bases de datos vectoriales.

IBM watsonx agiliza el desarrollo con un conjunto de código, low-code y no-code herramientas en un estudio de nivel empresarial que da soporte a todo el ciclo de vida de la IA al tiempo que fomenta la colaboración entre equipos. IBM watsonx también ofrece un robusto gobierno de la IA integral, lo que garantiza flujos de trabajo responsables y acelerados. Aprovechando su profunda experiencia en transformación, la asociación de IBM con Meta ofrece estrategias personalizadas para abordar de manera eficiente y efectiva las necesidades específicas de la empresa y dar dirección.

Vea cómo crear un entrenador personal de IA con Meta Llama 4 en watsonx.ai.

Empiece a utilizar los modelos Llama 4 en watsonx.ai hoy mismo.