Ternary Bonsai, 1.58-bit open 8B model을 1.75GB로 줄였다

Original: Today we’re announcing Ternary Bonsai: Top intelligence at 1.58 bits View original →

Read in other languages: English日本語
LLM Apr 16, 2026 By Insights AI (X) 1 min read 2 views Source

PrismML의 4월 16일 X post는 open-model builders에게 구체적인 efficiency claim을 던졌다는 점에서 material하다. source tweet은 Ternary Bonsai가 "ternary weights {-1, 0, +1}"를 사용한다고 썼고, family를 1.58-bit language models로 framing했다. 게시 시각은 2026-04-16 17:39:18 UTC로 요청된 48시간 window 안이다. source tweet도 함께 남긴다.

핵심은 숫자다. PrismML은 이 models가 16-bit counterparts보다 9x 작고, Apache 2.0 license로 8B 1.75GB, 4B 0.86GB, 1.7B 0.37GB 세 가지 size로 공개된다고 적었다. public Hugging Face collection에는 Ternary Bonsai collection, MLX model entries, demo collection이 보이며 4월 16일 update가 찍혀 있다. community replies는 ONNX, MLX, browser WebGPU demos도 언급하지만, 다음에 자세히 볼 것은 model cards와 benchmark details다.

technical hook은 ternary weight format이다. 각 weight를 higher-precision floating-point value로 저장하는 대신, model family가 weights를 세 가지 값으로 제한하고 training과 kernels로 usable quality를 유지하려는 접근이다. 그래서 size number가 공격적으로 보이며, deployment support가 headline benchmark image만큼 중요하다. Hugging Face collection의 MLX entries는 Apple Silicon을 intended local path 중 하나로 가리킨다. browser와 WebGPU demos가 안정적으로 동작한다면 client-side agents에도 의미가 생긴다. independent perplexity, coding, instruction-following tests가 compression의 실용성을 판정할 것이다.

PrismML은 AI efficiency를 중심에 둔 연구 조직으로 자신을 소개한다. 그래서 이번 post는 local inference와 low-memory inference를 현실적인 선택지로 만들려는 기존 방향과 맞다. 다음 관전점은 replication이다. benchmark image와 model cards가 independent tests에서도 유지된다면, 1.58-bit family는 browser demo, phones, private local agents에서 의미가 커질 수 있다. 그렇지 않더라도 extreme quantization에서 reasoning quality가 어디까지 살아남는지 보여주는 유용한 stress test가 된다.

Share: Long

Related Articles

LLM Reddit 4d ago 1 min read

r/LocalLLaMA에서 이 비교가 먹힌 이유는 GGUF 파일 선택을 감이나 평판이 아니라 분포 차이로 설명했기 때문이다. 작성자는 BF16 baseline 대비 mean KLD를 기준으로 community quants를 정렬했고, Q8_0 계열은 fidelity 쪽 상단에, 여러 IQ4와 Q5 계열은 size 대 fidelity 균형 구간에 배치했다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.