r/LocalLLaMA, 로컬 AI 추론용 desk-side RISC-V box Tenstorrent QuietBox 2 주목

Original: Tenstorrent QuietBox 2 Brings RISC-V AI Inference to the Desktop View original →

Read in other languages: English日本語
AI Mar 14, 2026 By Insights AI (Reddit) 2 min read Source

2026년 3월 13일 r/LocalLLaMA에는 Tenstorrent의 TT-QuietBox 2를 다룬 글이 올라왔고, 반응은 로컬 추론 커뮤니티답게 curiosity, benchmark skepticism, 가격 계산이 뒤섞인 형태였다. 2026년 3월 14일 크롤링 시점 기준 이 Reddit post는 79 upvotes와 38 comments를 기록했다. 주목받은 이유는 단순하다. QuietBox 2는 또 하나의 cloud appliance나 datacenter rack 공지가 아니라, 대형 AI workload를 책상 옆에서 로컬로 돌리겠다는 장비로 소개됐기 때문이다. Tenstorrent는 여기서 open tooling과 RISC-V 정체성을 강하게 내세운다.

StorageReview에 따르면 이 liquid-cooled workstation은 최대 120 billion parameters 규모의 모델을 온프레미스에서 실행하도록 설계됐다. Tenstorrent는 이를 labs, offices, 중소규모 businesses를 위한 private inference box로 포지셔닝한다. 기사에 따르면 시스템은 Ubuntu 24.04가 설치된 상태로 제공되며, 표준 120V outlet에 연결할 수 있고, 별도 rack, 특수 냉각, 전용 전력 설비를 전제로 하지 않는다. 가격은 $9,999부터 시작하고, 출하는 Q2 2026이 목표다.

하드웨어 주장은 꽤 공격적이다. QuietBox 2는 네 개의 Blackhole ASIC을 unified mesh로 묶어 480 Tensix cores, BlockFP8 기준 2,654 TFLOPS, 128 GB GDDR6, 256 GB DDR5 system memory를 제공한다고 한다. StorageReview는 Tenstorrent가 GPT-OSS 120B, Llama 3.1 70B의 reported 476.5 tokens per second, Qwen3-32B coding agent, Flux 이미지 생성, Wan 2.2 video, 그리고 Boltz-2 biomolecular ML 같은 실사용 workload를 미리 제시하고 있다고 전했다. 회사의 메시지는 이 장비를 닫힌 appliance가 아니라 TT-Forge를 통해 주요 framework 모델을 올릴 수 있는 개발용 장비로 보라는 것이다.

여기서 중요한 것은 open stack이다. Tenstorrent는 TT-Forge, TT-Metalium, TT-LLK가 model graph부터 kernel execution까지 추적 가능한 software path를 이룬다고 설명한다. 불투명한 accelerator stack이 지배하는 시장에서는 드문 접근이다. Reddit 댓글에서는 표준 wall outlet 지원과 1세대 QuietBox보다 $2,000 저렴하다는 점을 긍정적으로 보는 반응이 있었지만, 무조건 호의적이진 않았다. 일부는 token-per-second 수치가 실제 모델에서도 유지될지 의문을 제기했고, 다른 사용자는 Nvidia 대안과의 가격 비교나 bandwidth, software maintenance 문제를 바로 꺼냈다.

이 긴장이야말로 이 post를 볼 가치가 있는 이유다. QuietBox 2는 단순한 hardware launch가 아니라, sovereignty, inspectability, offline deployment를 중시하는 개발자들에게 fully local이고 좀 더 열린 AI workstation이 실제로 통할 수 있는지를 시험하는 제품이다. Tenstorrent가 성능 주장을 재현 가능한 workload로 입증한다면, LocalLLaMA의 관심은 기존 GPU 생태계 바깥의 desk-side inference 틈새시장으로 이어질 수 있다. Original source: StorageReview. Community discussion: r/LocalLLaMA.

Share: Long

Related Articles

AI sources.twitter 5d ago 1 min read

Anthropic는 powerful AI가 사회에 던질 과제를 다루는 공익 조직 The Anthropic Institute를 출범시켰다. 회사는 이 조직이 technical·economic·social science 관점을 결합해 public conversation을 넓히는 역할을 맡는다고 밝혔다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.