Meta, 네이티브 멀티모달 Llama 4 오픈소스 공개
Meta가 차세대 오픈소스 AI 모델 시리즈인 Llama 4를 공개했다. 이번 릴리스는 Llama 역사상 가장 큰 도약으로, 처음으로 네이티브 멀티모달 지원과 MoE(Mixture-of-Experts) 아키텍처를 도입했다.
Llama 4 Scout와 Maverick: 오픈소스의 새로운 기준
Llama 4 Scout와 Llama 4 Maverick은 오픈 가중치로 공개된 첫 네이티브 멀티모달 모델이다. 두 모델 모두 텍스트, 이미지, 오디오를 하나의 통합된 추론 프레임워크 내에서 처리할 수 있으며, 전례 없는 컨텍스트 길이를 지원한다.
특히 MoE 아키텍처 채택으로 효율성이 크게 향상되었다. 필요한 전문가 모듈만 활성화하는 방식으로 추론 비용을 줄이면서도 성능을 유지할 수 있게 되었다.
두 모델은 현재 Hugging Face에서 다운로드할 수 있으며, Meta AI 서비스(WhatsApp, Messenger, Instagram Direct, Meta.AI 웹사이트)에 즉시 적용되었다.
Llama 4 Behemoth: 2조 파라미터 에이전틱 AI
Meta는 Llama 4 Behemoth도 함께 발표했다. 2조 개의 파라미터를 가진 이 MoE 모델은 "세계에서 가장 똑똑한 LLM 중 하나"로 소개되며, 새로운 모델들의 교사(teacher) 역할을 담당한다.
Behemoth는 에이전틱(agentic) AI를 선도하기 위해 설계되었으며, 다음과 같은 기능을 네이티브로 지원한다:
- 자율적 웹 브라우징
- 코드 실행
- 다단계 워크플로우 오케스트레이션
Behemoth는 현재 제한적 연구 프리뷰 단계이며, 모든 과학 및 수학 벤치마크에서 "전문가 수준(Expert-Level)" 추론을 달성한 최초의 오픈 가중치 모델이 될 것으로 기대된다.
오픈소스 AI의 미래
이번 발표는 독점 AI 모델과 오픈소스 모델 간의 격차를 더욱 좁히는 중요한 이정표다. Meta는 4월 29일 개최되는 LlamaCon에서 Llama 생태계에 대한 추가 비전을 공유할 예정이다.
자세한 내용은 Meta AI 공식 블로그에서 확인할 수 있다.
Related Articles
Meta가 최초의 오픈 웨이트 네이티브 멀티모달 모델 Llama 4 Scout와 Maverick을 공개했다. 업계 최장 1천만 토큰 컨텍스트와 MoE 아키텍처로 GPT-4o, Gemini 2.0 Flash를 능가한다.
Meta가 최초의 오픈 웨이트 네이티브 멀티모달 모델인 Llama 4 Scout와 Maverick을 공개했습니다. MoE 아키텍처를 채택했으며 GPT-4.5를 능가하는 성능을 자랑합니다.
Mistral이 Apache 2.0 기반의 멀티모달 오픈 모델군 Mistral 3를 발표했다. 14B, 8B, 3B dense 모델과 41B active, 675B total 규모의 Mistral Large 3를 함께 제시했다.
Comments (0)
No comments yet. Be the first to comment!