DeepSeek V4, 프런티어급 성능에 1/10 가격 — 1.6조 파라미터 오픈웨이트 공개
Original: DeepSeek V4-almost on the frontier, a fraction of the price View original →
DeepSeek V4 출시
중국 AI 연구소 DeepSeek이 두 개의 새 모델을 공개했다. DeepSeek-V4-Pro와 DeepSeek-V4-Flash다. 두 모델 모두 100만 토큰 컨텍스트를 지원하는 Mixture-of-Experts 구조이며 MIT 라이선스로 배포된다.
스펙과 규모
V4-Pro는 총 1.6조 파라미터에 활성 49B 파라미터 구조다. 이는 Kimi K2.6(1.1조)과 GLM-5.1(754B)을 능가하는, 현재까지 공개된 오픈웨이트 모델 중 가장 큰 규모다. DeepSeek V3.2(685B) 대비 두 배 이상이다. V4-Flash는 총 284B, 활성 13B 파라미터로 경량 버전이다.
가격이 핵심
DeepSeek V4의 진짜 차별점은 가격이다. V4-Flash는 입력 $0.14/M 토큰, 출력 $0.28/M 토큰으로 OpenAI GPT-5.4 Nano($0.20/$1.25)보다 저렴하다. V4-Pro는 입력 $1.74/M, 출력 $3.48/M으로 GPT-5.4($2.50/$15), Claude Sonnet 4.6($3/$15) 대비 절반 이하 수준이다.
효율성의 비결
DeepSeek 논문에 따르면 100만 토큰 컨텍스트 시나리오에서 V4-Pro의 단일 토큰 FLOP는 DeepSeek-V3.2 대비 27%에 불과하며 KV 캐시 크기는 10% 수준이다. V4-Flash는 각각 10%와 7%로 더 극단적인 효율을 달성했다. 이 효율성이 저렴한 가격 책정의 기반이다.
자가 보고 벤치마크에서 V4-Pro는 GPT-5.4와 Gemini 3.1 Pro 대비 약 3~6개월 뒤처진다고 DeepSeek 스스로 명시했다. 그러나 이 성능 격차가 가격 격차를 정당화하는지는 사용 사례에 따라 다를 것이다.
Related Articles
HN은 이번 스레드를 단순한 모델 공개로 보지 않았다. API 문서보다 먼저 Hugging Face 가중치와 base 모델이 모습을 드러내자, 커뮤니티의 관심은 홍보보다 실물 검증으로 곧장 옮겨갔다.
HN은 Mistral Medium 3.5를 단순 모델 공개로 보지 않았다. 4GPU 자가호스팅, 오픈 웨이트, 원격 코딩 에이전트 패키지가 핵심 화제였다.
LocalLLaMA가 가장 먼저 붙든 건 숫자보다 형태였다. Mistral Medium 3.5는 reasoning, coding, agent 작업을 한 모델에 묶으면서도 “이건 직접 돌려볼 수 있겠다”는 감각을 줬고, 그 지점이 스레드를 달궜다.
Comments (0)
No comments yet. Be the first to comment!