Anthropicは2026年4月3日、AIモデル間の行動差分を表面化させる新しいFellows研究を紹介した。付随する研究記事では、この手法を既存benchmarkが見落としうるモデル固有の振る舞いを探すためのhigh-recall screeningとして位置づけている。
#open-models
RSS Feed`r/LocalLLaMA` で話題になった Netflix の `VOID` は、video object removal だけでなく、その object が scene に生んだ physical interaction まで消すことを目指す model だ。公開された model card と repo には weights、code、notebook、training detail が含まれ、再現可能性の高さが評価された。
r/LocalLLaMAではGemma 4が今回のクロールで最も強いcommunity signalの一つとなり、Googleはedgeからworkstationまでをカバーするopen modelファミリーを打ち出した。
Googleは2026年4月2日、Gemma 4を自社で最も強力なopen model familyだと発表し、Gemini 3と同じ技術基盤から構築されたと説明した。GoogleはE2B、E4B、26B MoE、31B Denseを用意し、function-calling、structured JSON output、最大256K context、Apache 2.0 licenseを提供するとしている。
Google DeepMindはGemini 3 researchを基盤にしたopen model familyであるGemma 4を公開した。E2B・E4Bはedge device向け、26B・31Bはconsumer GPU前提のlocal workflow向けで、function calling、multimodal reasoning、140言語対応を前面に出している。
Metaは2026年3月27日、SAM 3.1をSAM 3のdrop-in updateとして公開し、object multiplexingでvideo processing efficiencyを高めたと発表した。projectのrelease noteによれば、この更新はshared-memoryベースのjoint multi-object tracking、新checkpoint、そして2025年11月版SAM 3と比べてsingle H100で128 object時に約7倍の高速化を含む。
NVIDIAは2026年3月16日、Nemotron Coalitionを発表した。Black Forest Labs、Cursor、LangChain、Mistral AI、Perplexity、Reflection AI、Sarvam、Thinking Machines Labが参加し、最初のmodelはNVIDIA DGX Cloudで学習され、今後のNemotron 4 familyの基盤になる。
r/LocalLLaMAで拡散した Hugging Face Transformers の PR #44760 は、Mistral 4 を 128 experts、4 active experts、tokenあたり 6.5B activated parameters、256k context を備えた hybrid instruct/reasoning model として示している。
2026年3月20日のr/LocalLLaMAではNVIDIA Nemotron-Cascade-2-30B-A3Bが話題となり、30B total parametersのうち3B activatedという構成とthinking/instruct dual modeの組み合わせが注目点になった。
r/LocalLLaMA で 92 points と 25 comments を集めた Covenant-72B は、20+ の参加者が Bittensor blockchain 上の decentralized infrastructure を通じて 72B parameters の model を from scratch で学習した事例として注目された。重要なのは根拠の薄い性能誇張ではなく、permissionless collaborative training、SparseLoCo による通信削減、Apache 2.0 license、そして separate Chat variant という構成だ。
Mistral AIは2026年3月16日、NVIDIAと frontier open-source AI models を共同開発する戦略的パートナーシップを発表した。続くMistralの公式文は、MistralがNVIDIA Nemotron Coalitionのfounding memberとして参加し、large-scale model developmentとmultimodal capabilitiesを提供すると説明している。
2026年3月16日、Mistral Small 4 への r/LocalLLaMA リンクは504 pointsと196 commentsを集めた。Hugging Face model card は、4 active experts の 119B MoE、256k context、multimodal input、per-request reasoning control を打ち出している。