Mistral, reasoning·coding·multimodal 통합한 오픈소스 모델 Mistral Small 4 공개
Original: Introducing Mistral Small 4 View original →
Mistral은 2026년 3월 16일 Mistral Small 4를 공개하며, reasoning, multimodal, agentic coding 기능을 하나의 오픈 모델로 통합한 첫 Mistral Small 계열이라고 설명했다. 발표의 핵심은 사용자가 Magistral, Pixtral, Devstral처럼 목적별 모델을 번갈아 쓰지 않고도 하나의 모델로 여러 워크로드를 처리할 수 있게 하겠다는 점이다.
공개된 기술 설명에 따르면 Mistral Small 4는 128 experts 중 토큰당 4개가 활성화되는 MoE 구조를 사용한다. 총 파라미터는 119B이고, 토큰당 6B active parameters가 동작하며, embedding과 output layer를 포함하면 8B active footprint로 설명된다. 또한 256k context window와 text+image 입력을 지원해 긴 문서 처리와 multimodal 분석을 겨냥했다.
- Apache 2.0 라이선스로 공개
reasoning_effort설정으로 저지연 응답과 더 깊은 추론 사이를 조절 가능- Mistral Small 3 대비 end-to-end completion time 40% 단축, throughput 기준 3배 요청 처리량을 주장
- Mistral API, AI Studio, Hugging Face, NVIDIA NIM 등으로 즉시 제공
이번 출시가 중요한 이유는 오픈 모델 시장에서 기능 분화보다 통합성이 더 중요한 경쟁 요소가 되고 있기 때문이다. 기업과 개발팀은 긴 context, multimodal 입력, coding workflow, reasoning 품질을 동시에 원하지만, 이를 여러 모델로 조합하면 지연 시간과 운영 복잡성이 커진다. Mistral은 Small 4를 통해 이 문제를 오픈소스 진영에서 해결하려는 것으로 보인다.
블로그는 벤치마크에서도 이 모델이 경쟁력을 보인다고 주장한다. Mistral은 reasoning 모드의 Small 4가 GPT-OSS 120B와 비교해 유사하거나 더 높은 점수를 내면서도 더 짧은 출력으로 결과를 만든다고 설명했다. 결과적으로 이번 발표는 더 많은 capability를 더 적은 운영 부담으로 제공하는 open model 전략이 2026년 기업 AI 구매 포인트가 되고 있음을 보여준다.
Related Articles
Show HN로 소개된 llm-circuit-finder는 GGUF 안의 특정 layer block을 한 번 더 통과시키는 방식으로 reasoning을 높일 수 있다고 주장한다. repo는 training이나 weight 변경 없이도 logical deduction 개선이 가능하다고 설명하지만, 핵심 수치는 모두 repo author의 자체 측정이다.
Hacker News에서 1,238 points와 614 comments를 모은 OpenCode는 terminal, IDE, desktop을 모두 지원하는 open source AI coding agent다. 프로젝트 사이트는 75+ providers 연결, LSP integration, multi-session workflow, privacy-first 운영을 핵심 특징으로 내세운다.
Hacker News에서 주목받은 Sarvam AI의 발표는 IndiaAI mission 기반으로 인도에서 학습한 reasoning 중심 MoE 모델 Sarvam 30B와 105B를 오픈소스로 공개했다는 점에 있다. 공개 범위가 단순한 weights를 넘어 제품 배치, inference 최적화, Indian-language benchmark 성과까지 포함한다는 점이 핵심이다.
Comments (0)
No comments yet. Be the first to comment!