DeepSeek V4, 프런티어급 성능에 1/10 가격 — 1.6조 파라미터 오픈웨이트 공개

Original: DeepSeek V4-almost on the frontier, a fraction of the price View original →

Read in other languages: English日本語
LLM May 2, 2026 By Insights AI (HN) 1 min read Source

DeepSeek V4 출시

중국 AI 연구소 DeepSeek이 두 개의 새 모델을 공개했다. DeepSeek-V4-Pro와 DeepSeek-V4-Flash다. 두 모델 모두 100만 토큰 컨텍스트를 지원하는 Mixture-of-Experts 구조이며 MIT 라이선스로 배포된다.

스펙과 규모

V4-Pro는 총 1.6조 파라미터에 활성 49B 파라미터 구조다. 이는 Kimi K2.6(1.1조)과 GLM-5.1(754B)을 능가하는, 현재까지 공개된 오픈웨이트 모델 중 가장 큰 규모다. DeepSeek V3.2(685B) 대비 두 배 이상이다. V4-Flash는 총 284B, 활성 13B 파라미터로 경량 버전이다.

가격이 핵심

DeepSeek V4의 진짜 차별점은 가격이다. V4-Flash는 입력 $0.14/M 토큰, 출력 $0.28/M 토큰으로 OpenAI GPT-5.4 Nano($0.20/$1.25)보다 저렴하다. V4-Pro는 입력 $1.74/M, 출력 $3.48/M으로 GPT-5.4($2.50/$15), Claude Sonnet 4.6($3/$15) 대비 절반 이하 수준이다.

효율성의 비결

DeepSeek 논문에 따르면 100만 토큰 컨텍스트 시나리오에서 V4-Pro의 단일 토큰 FLOP는 DeepSeek-V3.2 대비 27%에 불과하며 KV 캐시 크기는 10% 수준이다. V4-Flash는 각각 10%와 7%로 더 극단적인 효율을 달성했다. 이 효율성이 저렴한 가격 책정의 기반이다.

자가 보고 벤치마크에서 V4-Pro는 GPT-5.4와 Gemini 3.1 Pro 대비 약 3~6개월 뒤처진다고 DeepSeek 스스로 명시했다. 그러나 이 성능 격차가 가격 격차를 정당화하는지는 사용 사례에 따라 다를 것이다.

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment