Meta Llama 4、ネイティブマルチモーダルAI時代を開幕... 1000万トークンコンテキスト対応
ネイティブマルチモーダルの革新
MetaがLlama 4シリーズを発表し、AI業界に新たなマイルストーンを築いた。Llama 4 ScoutとLlama 4 Maverickは、初のオープンウェイト・ネイティブマルチモーダルモデルで、テキスト・画像・動画を最初から統合処理するように設計されている。
Llama 4 Maverick: 170億パラメータの強者
Llama 4 Maverickは、170億のアクティブパラメータと128のエキスパートを持つMixture-of-Experts(MoE)アーキテクチャを使用するMeta初のモデルだ。
広範なベンチマークでGPT-4oとGemini 2.0 Flashを上回り、同クラス最高のマルチモーダルモデルであることを証明した。
Llama 4 Scout: 1000万トークンコンテキスト
Llama 4 Scoutは、Llama 3の128Kトークンから業界最長の1000万トークンへとコンテキスト長を劇的に拡張した。これは数百ページの文書、数時間分の動画、または大規模コードベースを単一のコンテキストで処理できることを意味する。
オープンウェイト戦略の意義
MetaはLlama 4をオープンウェイトモデルとして公開し、研究者や開発者が自由に活用・改善できるようにした。これは商用クローズドモデル(GPT、Claude、Gemini)と比較して、透明性とアクセシビリティの面で大きな差別化要因となる。
AIエコシステムへの影響
Llama 4の登場は、マルチモーダルAIの民主化を意味する。以前はOpenAI、Google、Anthropicなど大手テック企業のみが提供していたマルチモーダル能力が、今では誰でも使用・カスタマイズできるようになった。
MoEアーキテクチャの導入は効率性の面でも重要だ。必要なエキスパートのみを活性化することで計算コストを削減しながら、性能は維持できる。
Related Articles
Mistralは2026年3月16日、reasoning、multimodal入力、agentic codingを1つにまとめたMistral Small 4を公開した。119B total parameters、6B active parameters、256k context window、Apache 2.0、configurable reasoning_effortが主要ポイントだ。
AI at Metaは2026年4月8日のXで、Muse Sparkを tool use、visual chain of thought、multi-agent orchestration を備えた natively multimodal reasoning model として紹介した。Meta の公式発表では、このモデルはすでに Meta AI app と meta.ai を支えており、今後 WhatsApp、Instagram、Facebook、Messenger、AI glasses へ展開され、selected partners 向け private-preview API も提供されるとしている。
Metaは2026年4月8日、Meta Superintelligence Labs初のモデルMuse Sparkを発表した。このモデルはすでにMeta AI appとwebを支えており、WhatsApp、Instagram、Facebook、Messenger、AI glassesにも拡大される予定だ。
Comments (0)
No comments yet. Be the first to comment!