llama.cpp에 Alibaba의 Qwen3.5 모델 시리즈 지원이 추가되었습니다. Dense와 MoE(Mixture-of-Experts) 변형을 모두 지원하며, 사용자들은 최신 언어 모델을 로컬에서 실행할 수 있게 되었습니다. 흥미롭게도 이 구현은 Claude Opus 4.6의 도움으로 생성되었습니다.
#open-source
불과 0.9B 파라미터로 복잡한 문서 레이아웃, 표, 코드, 수식을 처리하는 오픈소스 OCR 시스템 GLM-OCR이 공개되었습니다. OmniDocBench V1.5에서 94.62점으로 1위를 차지하며 실용성과 효율성을 입증했습니다.
Alibaba Qwen 팀이 7B 파라미터 통합 이미지 생성·편집 모델 Qwen-Image-2.0을 발표했다. 20B였던 v1 대비 크기를 대폭 줄이면서도 2K 해상도, 실제 텍스트 렌더링, 멀티 패널 만화 생성 등 향상된 기능을 제공한다.
Y Combinator 출신 스타트업이 개발한 Rowboat는 이메일, 미팅 노트 등의 업무 데이터를 자동으로 Markdown 기반 지식 그래프로 구축하고, 이를 활용해 컴퓨터에서 실제 작업을 수행하는 로컬 우선 AI 어시스턴트다.
Anthropic의 Model Context Protocol이 OpenAI·Microsoft에 채택되며 Linux Foundation의 Agentic AI Foundation에 기부. AI Agent 생태계의 USB-C로 떠오름.
Reddit LocalLLaMA 커뮤니티에서 Qwen3-Coder-Next가 코딩뿐만 아니라 일상 대화, 문제 해결, 심층 사고 등 범용 작업에서도 Gemini 수준의 경험을 제공하는 최초의 로컬 LLM으로 평가받고 있습니다. 프라이버시를 지키면서도 상용 모델 수준의 성능을 원하는 사용자들에게 새로운 대안이 되고 있습니다.
Meta가 첫 MoE 아키텍처 기반 오픈소스 모델 Llama 4 Scout·Maverick와 2조 파라미터 Behemoth를 공개했다.
Meta가 최초의 오픈 웨이트 네이티브 멀티모달 모델인 Llama 4 Scout와 Maverick을 공개했습니다. MoE 아키텍처를 채택했으며 GPT-4.5를 능가하는 성능을 자랑합니다.
DeepSeek가 2026년을 시작하며 Manifold-Constrained Hyper-Connections(mHC) 방법론을 발표했다. 분석가들은 이를 AI 모델 학습 및 스케일링 방식을 근본적으로 변화시킬 수 있는 획기적 돌파구로 평가한다.
Alibaba의 차세대 오픈소스 LLM Qwen3.5의 Hugging Face Transformers PR이 공개되었다. 코드 분석 결과, 출시부터 VLM(비전-언어 모델)을 지원할 것으로 확인됐다.
중국 Moonshot AI가 1조 개 파라미터 MoE 아키텍처 기반 오픈소스 멀티모달 모델 Kimi K2.5를 출시하고, 최대 100개 에이전트를 동시 조율하는 Agent Swarm 기술을 공개했다.