#inference

LLM sources.twitter Mar 1, 2026 1 min read

AI研究者アンドレイ・カルパシーがLLM時代の核心的な技術課題として、メモリと演算資源の最適な組み合わせを提示した。高速だが容量の小さいオンチップSRAMと、大容量だが低速なオフチップDRAMのトレードオフを解決することが、現在最も知的報酬の高い課題だと強調した。

LLM Hacker News Feb 22, 2026 1 min read

CPU RAMを完全にバイパスし、NVMe SSDからGPUへ直接ウェイトをストリーミングすることで、単体の消費者向けGPU(RTX 3090)でLlama 3.1 70Bを動作させるオープンソースプロジェクト「ntransformer」が公開されました。

© 2026 Insights. All rights reserved.