tinybox: 딥러닝을 위한 강력한 컴퓨터
Original: Tinybox – A powerful computer for deep learning View original →
Hacker News에서 해당 스레드는 크롤링 시점 기준 556점과 323개 댓글을 기록했다. 화제가 된 대상은 tinygrad 팀이 판매하는 tinybox로, 개인 개발자와 소규모 연구팀이 대형 GPU 서버 대신 바로 주문해 사용할 수 있는 딥러닝 워크스테이션을 전면에 내세운다.
제품 페이지에 따르면 red v2는 4x 9070XT, 64 GB GPU RAM, 778 TFLOPS FP16(FP32 acc), 2 TB fast NVMe 구성을 제공한다. green v2 Blackwell은 4x RTX PRO 6000 Blackwell, 384 GB GPU RAM, 3086 TFLOPS, 4 TB raid + 1 TB boot 구성으로 올라와 있다. 페이지에 표시된 가격은 각각 $12,000, $65,000이며 두 모델 모두 "IN STOCK"으로 표기돼 있다.
운영 정보도 비교적 구체적이다. tinygrad는 공장이 가동 중이며 결제 후 1주 안에 출하할 수 있다고 설명한다. San Diego 픽업과 worldwide shipping을 지원하고, 주문 과정 단순화를 위해 customization은 제공하지 않으며 결제 수단은 wire transfer만 받는다고 적어 두었다.
FAQ에서 tinygrad는 tinybox를 "매우 강력한 deep learning 컴퓨터"로 설명하면서 performance/$가 매우 높다고 주장한다. 또 MLPerf Training 4.0에서 자신들보다 10배 비싼 시스템과 비교됐다고 적고, 학습이 가능한 장비라면 inference에도 그대로 활용할 수 있다는 점을 강조한다. 이 대목은 벤더의 자기 설명이므로 실제 구매 판단에서는 워크로드, 프레임워크, 전력, 소음, 운영 편의성까지 별도로 검증할 필요가 있다.
- red v2: 4x 9070XT, 64 GB GPU RAM, 778 TFLOPS, $12,000
- green v2 Blackwell: 4x RTX PRO 6000 Blackwell, 384 GB GPU RAM, 3086 TFLOPS, $65,000
- 상태: 두 제품 모두 IN STOCK, 결제 후 1주 내 출하 안내
그럼에도 이번 tinybox 페이지가 주목받는 이유는 AI 연산 장비가 점점 더 완제품 appliance 형태로 포장되고 있다는 점을 잘 보여주기 때문이다. hyperscaler용 랙 단위 인프라와는 다른 시장에서, tinygrad는 연구용 서버와 개인용 고성능 workstation 사이의 간극을 직접 메우려 한다. HN 반응이 컸던 이유도 단순한 spec 경쟁보다 "주문 가능한 AI box"라는 운영 현실성이 개발자 커뮤니티에 더 직접적으로 다가왔기 때문으로 보인다.
Related Articles
Vercel은 2026년 3월 12일 X에서 Notion Workers가 Vercel Sandbox 위에서 agent-capable code를 실행한다고 강조했다. Vercel 공식 글은 Workers가 third-party sync, automation, AI agent tool call을 담당하고, Sandbox가 isolation, credential management, network control, snapshots, active-CPU billing을 제공한다고 설명한다.
2026년 3월 17일 r/MachineLearning에 올라온 Clip to Grok 글은 크롤링 시점 기준 56점과 20개 댓글을 기록했다. 작성자들은 optimizer step마다 decoder weight row를 L2 clipping하는 방식으로 modular arithmetic benchmark에서 18배에서 66배 빠른 generalization을 얻었다고 주장한다.
2026년 3월 19일 Hacker News에 올라온 NanoGPT Slowrun 글은 크롤링 시점 기준 162점과 43개 댓글을 기록했다. Q Labs는 100M token으로 학습한 1.8B parameter ensemble이 통상 1B token이 필요한 baseline과 맞먹는 성능을 냈다고 주장한다.
Comments (0)
No comments yet. Be the first to comment!