IBM se complace en anunciar la incorporación de la última generación de modelos abiertos de Meta, Llama 4, a watsonx.ai. Llama 4 Scout y Llama 4 Maverick, la primera combinación de modelos expertos (MoE) lanzados por Meta, proporcionan un rendimiento multimodal de vanguardia, altas velocidades, bajo costo y longitud de contexto líder en la industria.
El lanzamiento de Llama 4 inicia una nueva era para la serie Llama, introduciendo tanto una evolución emocionante de la arquitectura Llama como un enfoque innovador para integrar diferentes tipos de modalidades de datos—incluyendo texto, imagen, video—mucho antes en el proceso que los modelos de entrenamiento convencional. Ambos nuevos modelos admiten una amplia variedad de casos de uso de entrada y salida de texto y de entrada y salida de texto.
Con la introducción de estas últimas ofertas de Meta, IBM ahora admite un total de 13 modelos Meta en la amplia biblioteca de modelos fundacionales disponibles en watsonx.ai. De acuerdo con la estrategia abierta y multimodelo de IBM para la IA generativa, continuamos proporcionando a nuestros clientes de plataformas los modelos abiertos de mayor rendimiento del mercado actual.
La arquitectura de mezcla de expertos (MoE) tiene como objetivo equilibrar la capacidad de conocimiento de los modelos más grandes con la eficiencia de inferencia de los modelos más pequeños al subdividir las capas de las neural networks del modelo en múltiples "expertos". En lugar de activar todos los parámetros del modelo para cada token, MoE modela utilizando una función de activación que activa solo a los "expertos" más adecuados para procesar ese token.
Llama 4 Scout, el más pequeño de los dos nuevos modelos con un recuento total de parámetros de 109B, se divide en 16 expertos. En la inferencia, tiene un recuento de parámetros activos de solo 17B, lo que le permite atender a más usuarios en paralelo. Entrenado con 40 billones de tokens de datos, Llama 4 Scout ofrece un rendimiento que rivaliza o supera el de los modelos con recuentos de parámetros activos significativamente mayores, al tiempo que mantiene bajos los costos y la latencia. A pesar de esos requisitos de computación ajustada, Llama 4 Scout supera a modelos comparables en programación, razonamiento, contexto largo y puntos de referencia de comprensión de imágenes.
Llama 4 Maverick se divide en 128 expertos, a partir del conocimiento de sus 400 mi millones de parámetros totales, manteniendo el mismo recuento de parámetros activos de 17 mil millones que Llama 4 Scout. Según el anuncio oficial de Meta AI, Llama 4 Maverick supera a GPT-4o de OpenAI y a Gemini 2.0 Flash de Google "en todos los ámbitos" en una amplia gama de puntos de referencia multimodales y rivaliza con el rendimiento de razonamiento y programación de DeepSeek-V3 mucho más grande, en tareas de razonamiento y programación .
Además, Llama 4 Scout ofrece la mejor ventana de contexto de la industria de 10 millones de tokens, al tiempo que conserva una excelente precisión en puntos de referencia de contexto largo, como la Aguja en un pajar (NiH). Este avance sin precedentes abre oportunidades interesantes para el resumen de múltiples documentos, el razonamiento sobre vastas bases de código y la personalización a través de una amplia memoria de la actividad del usuario.
Como explica el anuncio de Meta, esta expansión masiva en la longitud del contexto proviene principalmente de dos innovaciones: el uso de capas de atención intercaladas sin incorporaciones posicionales y la escala de temperatura de tiempo de inferencia del mecanismo de atención de los modelos. Esta novedosa arquitectura, que Meta llama "iRope", representa un paso importante hacia el objetivo a largo plazo de Meta de admitir una longitud de contexto "infinita".
Mientras que los modelos de lenguaje de gran tamaño (LLMs) se entrenan previamente de forma convencional exclusivamente en datos de texto y luego se adaptan a otras modalidades de datos (como datos de imágenes) durante el entrenamiento posterior, los modelos Llama 4 están diseñados con "multimodalidad nativa". Esto permitió a Meta entrenar previamente de manera conjunta los modelos con grandes cantidades de datos de texto, imágenes y video sin etiquetar a la vez, enriqueciendo eficientemente los modelos con conocimiento integrado de diversas fuentes.
El entrenamiento de los modelos Llama 4 incorporó la "fusión" de diferentes tipos de datos al principio del proceso de procesamiento, integrando perfectamente tokens de texto y visión para permitirles entrenar como un único sistema unificado. En consecuencia, Llama 4 Maverick y Llama 4 Scout ofrecen un excelente rendimiento en una variedad de tareas de comprensión de imágenes, capaces tanto de abordar instrucciones de texto pertenecientes a varias imágenes a la vez como de anclar respuestas del modelo a regiones específicas con una sola imagen.
Los desarrolladores y las empresas pueden seleccionar su modelo Llama 4 preferido del extenso catálogo de modelos fundacionales en IBM watsonx.ai, y luego ajustarlo, destilarlo y desplegarlo en nube, on-premises o periféricos de su elección. IBM mejora aún más esta flexibilidad con su infraestructura de IA avanzada, integración perfecta con infraestructuras de agentes y compatibilidad con bases de datos vectoriales.
IBM watsonx simplifica el desarrollo con una suite de herramientas de código, de código bajo y sin código en un estudio de nivel empresarial que admite todo el ciclo de vida de la IA, al tiempo que fomenta la colaboración entre equipos. IBM watsonx también ofrece una sólida gobernanza de la IA de extremo a extremo, lo que garantiza flujos de trabajo responsables y acelerados. Aprovechando su profunda experiencia en transformación tecnológica, la asociación de IBM con Meta ofrece estrategias personalizadas para abordar de manera eficiente y eficaz necesidades empresariales específicas.
Vea cómo crear un Entrenador personal de IA con Meta Llama 4 en watsonx.ai.
Comience a usar los modelos Llama 4 en watsonx.ai hoy mismo.