IBM은 watsonx.ai에 Meta의 최신 개방형 모델인 Llama 4를 추가하게 되었음을 발표하게 되어 기쁩니다. Meta가 출시한 최초의 전문가 혼합 모델(MoE)인 Llama 4 Scout와 Llama 4 Maverick은 최첨단 멀티모달 성능, 빠른 속도, 저렴한 비용, 그리고 업계 최고 수준의 컨텍스트 길이를 제공합니다.
Llama 4의 출시는 Llama 시리즈의 새로운 시대를 열었으며, Llama 아키텍처의 흥미로운 진화와 텍스트, 이미지, 비디오를 포함한 다양한 유형의 데이터 양식을 기존의 훈련된 모델보다 훨씬 더 일찍 통합하는 혁신적인 접근 방식을 도입했습니다. 두 가지 새로운 모델 모두 다양한 텍스트 입력, 텍스트 출력, 이미지 입력, 텍스트 출력 사용 사례를 지원합니다.
Meta의 최신 제품 출시를 통해 IBM은 현재 watsonx.ai에서 제공되는 광범위한 파운데이션 모델 라이브러리에서 총 13개의 Meta 모델을 지원합니다. IBM의 생성 AI를 위한 개방형 다중 모델 전략에 따라, IBM은 플랫폼 고객에게 현재 시장에서 가장 성능이 뛰어난 개방형 모델을 지속적으로 제공하고 있습니다.
Neural Networks 전문가 혼합(MoE) 아키텍처는 모델의 Neural Networks의 계층을 여러 "전문가"로 세분화하여 대규모 모델의 지식 용량과 소규모 모델의 추론 효율성 간의 균형을 맞추는 것을 목표로 합니다. MoE는 각 토큰에 대해 모든 모델 매개변수를 활성화하는 대신, 해당 토큰을 처리하는 데 가장 적합한 "전문가"만 활성화하는 게이팅 함수를 사용하여 모델링합니다.
총 매개변수 수가 109B인 두 가지 새로운 모델 중 작은 모델인 Llama 4 Scout는 16명의 전문가로 구성되어 있습니다. 추론할 때 활성 매개변수 수가 17B에 불과하여 더 많은 사용자에게 동시에 서비스를 제공할 수 있습니다. 40조 개의 데이터 토큰으로 학습된 Llama 4 Scout는 비용과 지연 시간을 낮게 유지하면서 활성 매개변수 수가 훨씬 많은 모델에 필적하거나 이를 능가하는 성능을 제공합니다. 이러한 적은 컴퓨팅 요구 사항에도 불구하고 Llama 4 Scout는 코딩, 추론, 긴 컨텍스트 및 이미지 이해 벤치마크에서 동급 모델을 능가합니다.
Llama 4 Maverick은 128명의 전문가로 구성되어 있으며, 총 4,000억 개의 매개변수에 대한 지식을 활용하고 Llama 4 Scout와 동일한 1,700억 개의 활성 매개변수를 유지합니다.Meta AI의 공식 발표에 따르면, Llama 4 Maverick은 다양한 멀티모달 벤치마크에서 OpenAI의 GPT-4o와 Google의 Gemini 2.0 Flash를 "전반적으로" 앞지르고 추론 및 코딩 작업에서 훨씬 더 큰 DeepSeek-V3의 추론 및 코딩 성능과 경쟁합니다.
또한 Llama 4 Scout는 Needle-in-a-haystack(NiH)과 같은 장기 컨텍스트 벤치마크에서 뛰어난 정확도를 유지하면서 업계 최고 수준인 1,000만 토큰의 컨텍스트 창을 제공합니다. 이러한 전례 없는 도약은 다중 문서 요약, 방대한 코드베이스에 대한 추론, 그리고 광범위한 사용자 활동 메모리를 통한 개인화에 대한 흥미로운 기회를 열어줍니다.
Meta의 발표에서 설명했듯이, 맥락 길이의 이러한 엄청난 확장은 주로 두 가지 혁신에서 비롯됩니다. 위치 임베딩 없이 인터리브된 어텐션 레이어를 사용하는 것과 모델의 어텐션 메커니즘에 대한 추론 시간 온도 스케일링입니다. 메타가 "iRope"라고 부르는 이 새로운 아키텍처는 "무한한" 맥락 길이를 지원한다는 메타의 장기적인 목표를 향한 중요한 진전을 나타냅니다.
대규모 언어 모델(LLM)은 일반적으로 텍스트 데이터에 대해서만 사전 학습한 다음 사후 학습 중에 다른 데이터 양식(예: 이미지 데이터)에 맞게 조정하는 반면, Llama 4 모델은 "네이티브 멀티모달"로 설계됩니다. 이를 통해 Meta는 레이블이 지정되지 않은 대량의 텍스트, 이미지 및 비디오 데이터로 모델을 한 번에 공동으로 사전 학습시켜 다양한 소스의 통합 지식으로 모델을 효율적으로 강화할 수 있었습니다.
Llama 4 모델의 학습은 처리 파이프라인 초기에 다양한 유형의 데이터를 "융합"하여 텍스트와 비전 토큰을 완벽하게 통합함으로써 단일 통합 시스템으로 학습할 수 있도록 했습니다. 결과적으로 Llama 4 Maverick과 Llama 4 Scout는 다양한 이미지 이해 작업에서 탁월한 성능을 제공하며, 여러 이미지와 관련된 텍스트 프롬프트를 한 번에 처리하거나 단일 이미지로 특정 영역에 대한 모델 응답을 고정할 수 있습니다.
개발자와 기업은 IBM watsonx.ai의 광범위한 파운데이션 모델 카탈로그에서 원하는 Llama 모델을 선택한 다음 원하는 클라우드, 온프레미스 또는 에지 환경에서 미세 조정, 추출 및 배포할 수 있습니다. IBM은 고급 AI 인프라, 에이전트 프레임워크와의 원활한 통합, 벡터 데이터베이스와의 호환성을 통해 이러한 유연성을 더욱 강화합니다.
IBM watsonx는 전체 AI 라이프사이클을 지원하는 동시에 팀 간 협업을 촉진하는 엔터프라이즈급 스튜디오에서 코드, 로우코드 및 노코드 툴 제품군을 사용하여 개발을 간소화합니다. 또한 IBM watsonx는 강력한 엔드 투 엔드 AI 거버넌스를 제공하여 책임감 있고 가속화된 워크플로를 보장합니다. IBM과 Meta의 파트너십은 기술 혁신에 대한 심층적인 전문 지식을 활용하여 특정 기업의 요구 사항을 효율적이고 효과적으로 해결할 수 있는 맞춤형 전략을 제공합니다.
watsonx.ai에서 Meta Llama 4를 사용하여 AI 개인 트레이너를 만드는 방법을 확인하세요.
지금 바로 watsonx.ai에서 Llama 4 모델을 사용해 보세요.