Meta, ranking과 GenAI inference를 겨냥한 MTIA 4세대 로드맵 공개

Original: Four MTIA Chips in Two Years: Scaling AI Experiences for Billions View original →

Read in other languages: English日本語
AI Mar 16, 2026 By Insights AI 2 min read Source

Meta가 발표한 내용

Meta는 2026년 3월 11일 자사 Meta Training and Inference Accelerator, 즉 MTIA 계열의 상세 로드맵을 공개하며, custom silicon이 이제 수십억 사용자를 위한 AI product 운영의 중심축이 되고 있다고 설명했다. Meta는 이미 hundreds of thousands 규모의 MTIA 칩을 production에 배치했고, 여러 internal model을 올렸으며, Llama 같은 large language model도 시험했다고 밝혔다. 이제 회사는 MTIA 300, 400, 450, 500으로 이어지는 4세대 연속 진화를 전면에 내세우고 있다.

이번 로드맵은 Meta가 AI hardware를 단일한 장기 베팅으로 보지 않는다는 점을 보여준다. 대신 ranking과 recommendation 중심 workload에서, 메모리 대역폭 요구가 큰 generative inference 중심 workload로 빠르게 이동하는 현실에 맞춰, hardware를 소프트웨어처럼 짧은 주기로 업데이트하려 한다. Meta는 이 세대들이 이미 배치됐거나 2026년과 2027년에 순차 배치될 예정이라고 설명했다.

MTIA 라인업에서 무엇이 달라지나

Meta에 따르면 MTIA 300은 이미 ranking 및 recommendation training에 production 투입됐다. MTIA 400은 이 기반을 넓혀 더 넓은 GenAI 지원으로 확장되며, 72-accelerator scale-up domain을 사용한다. MTIA 450은 GenAI inference에 더 직접적으로 맞춰졌고, MTIA 400 대비 high-bandwidth memory bandwidth를 2배로 키운다. 이어 2027년 배치가 예정된 MTIA 500은 MTIA 450 대비 HBM bandwidth를 추가로 50% 높이고, HBM capacity를 최대 80% 늘리며, MX4 FLOPS도 43% 끌어올린다.

Meta는 또한 MTIA 300에서 MTIA 500으로 가는 동안 HBM bandwidth가 4.5x, compute FLOPS가 25x 증가한다고 밝혔다. 숫자 자체도 공격적이지만, 더 중요한 것은 방향이다. Meta는 최신 세대를 대규모 training의 부산물이 아니라, 무엇보다 generative inference에 최적화된 chip으로 설계하고 있다. 이는 향후 AI 수요와 비용 압력이 어디에 집중될지를 회사가 어떻게 보고 있는지 보여주는 신호다.

왜 중요한가

전략적 의미는 분명하다. 범용 accelerator는 여전히 중요하지만, Meta는 비용, 전력, 배치 속도, hardware-software co-design을 더 직접 통제하려 한다. 회사는 modular chiplet과 동일한 chassis, rack, network infrastructure 재사용을 통해 대략 6개월마다 새 MTIA 칩을 출하할 수 있다고 말한다. 또한 software stack도 PyTorch, vLLM, Triton, OCP 같은 industry standard 위에 맞춰 friction을 줄이려 한다.

이 점이 중요한 이유는 업계 경쟁축이 pretraining headline에서 점점 inference cost, memory bandwidth, deployment velocity로 이동하고 있기 때문이다. Meta의 MTIA 로드맵은 회사가 이 국면에서 외부 supplier에만 의존하지 않겠다는 뜻으로 읽힌다. ranking system, 광고 stack, 새 GenAI experience를 Meta 규모에서 돌리기 위해, 자체 workload에 맞춘 custom hardware를 확보하려는 것이다. Meta 같은 대규모 서비스 사업자에게 이것은 주변 실험이 아니라 핵심 운영 전략이다.

출처: Meta AI blog · Meta newsroom

Share: Long

Related Articles

AI 3d ago 1 min read

Meta는 next-gen AI 확장에 custom silicon이 필수라며 Meta Training and Inference Accelerator(MTIA) 로드맵을 공개했다. 회사는 전통적인 chip cycle과 빠른 model architecture 변화의 간격을 줄이기 위해 2년 만에 4세대를 출시했다고 설명했다.

AI sources.twitter 1d ago 1 min read

Together AI는 March 12, 2026에 real-time voice agent용 one-cloud stack을 공개한다고 밝혔다. 공개 자료에는 under-500ms latency, 25+ region 확장, 그리고 voice-agent deployment에서 time-to-first-64-tokens를 77ms까지 낮춘 kernel 최적화 사례가 포함돼 있다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.