샤오미 MiMo-V2.5 공개… 1M 컨텍스트·MIT 라이선스로 상용화까지
Original: Xiaomi open-sources MiMo-V2.5 with 1M context and MIT terms View original →
4월 27일 Xiaomi MiMo의 X 글은 이번 주 바로 시험해볼 수 있는 오픈 모델 드롭에 가깝다. 감상용 벤치마크 카드 한 장이 아니다. 샤오미는 MiMo-V2.5를 MIT 라이선스로 공식 공개했고, 상용 배포와 추가 학습, 파인튜닝까지 별도 승인을 요구하지 않는다고 적었다. 연구 미리보기 수준을 넘는 조건이다.
“Two models, both supporting a 1M-token context window … MiMo-V2.5-Pro … ranking No.1 among open-source models on GDPVal-AA and ClawEval.”
XiaomiMiMo 계정은 원래 샤오미 내부 파운데이션 모델과 플랫폼 생태계 업데이트를 올리는 채널이다. 이번 글도 가중치와 기술 문서를 함께 걸었다. MiMo-V2.5 모델 카드를 보면 이 모델은 텍스트·이미지·비디오·오디오를 하나의 구조로 다루는 네이티브 옴니모달 설계다. 총 310B 파라미터 중 15B가 활성화되고, 약 48T 토큰으로 학습됐으며, 컨텍스트 창은 1M 토큰까지 지원한다고 적혀 있다. 여기까지만 봐도 충분히 큰 공개다.
더 무거운 쪽은 MiMo-V2.5-Pro 페이지다. 샤오미는 Pro 모델이 총 1.02T 파라미터에 활성 42B 규모이며, 복잡한 에이전트 작업과 소프트웨어 엔지니어링, 긴 호흡의 툴 사용을 겨냥했다고 설명한다. 카드에는 27T 토큰 학습, 수천 번의 툴 호출을 견디는 장기 궤적, SGLang과 vLLM 배포 가이드까지 들어 있다. 많은 오픈 릴리스가 추론 단계에서 실무팀을 방치하는 것과 비교하면, 업로드 당일과 실제 실험 사이의 간격을 꽤 줄이려는 움직임이다.
이제 확인할 것은 벤치마크 우위가 외부 검증에서도 유지되는지, 그리고 1M 컨텍스트 추론 비용이 실제 운영에서 어느 정도인지다. 그래도 오늘 기준 메시지는 분명하다. 샤오미는 또 하나의 weight file을 올린 데 그치지 않았다. 상용 친화적이고 긴 문맥을 버티는 에이전트 지향 모델군을 오픈 생태계 한복판에 던졌다.
Related Articles
이 소식이 중요한 이유는 에이전트 코딩의 병목이 모델 속도보다 사람의 컨텍스트 전환에 있다는 점을 정면으로 건드렸기 때문이다. OpenAI는 Symphony 방식이 일부 팀에서 머지된 PR 수를 500% 끌어올렸고, 엔지니어가 동시에 안정적으로 다룰 수 있는 Codex 세션은 대체로 3~5개 수준이었다고 적었다.
Mistral이 2026년 3월 16일 Mistral Small 4를 공개했다. 119B total parameters, 6B active parameters, 256k context window, Apache 2.0, configurable reasoning_effort를 결합해 reasoning·coding·multimodal 작업을 한 모델에 모았다.
Alibaba Cloud는 Qwen3.6-Plus를 1M context window, agentic coding, multimodal reasoning을 앞세운 실사용형 모델로 소개했고, HN은 이를 빠르게 핵심 AI 토론으로 끌어올렸다.
Comments (0)
No comments yet. Be the first to comment!