LLM Reddit 1d ago 1 min read
r/LocalLLaMA의 실험 글은 Qwen 3.5 0.8B를 MacBook Air에서 test feedback loop와 LoRA로 돌려, 13개의 self-generated repair pair만으로 holdout slice를 16/50에서 28/50으로 끌어올렸다는 tinyforge 사례를 공유했다.
r/LocalLLaMA의 실험 글은 Qwen 3.5 0.8B를 MacBook Air에서 test feedback loop와 LoRA로 돌려, 13개의 self-generated repair pair만으로 holdout slice를 16/50에서 28/50으로 끌어올렸다는 tinyforge 사례를 공유했다.
Hacker News에 올라온 Nvidia PersonaPlex 7B의 Swift/MLX 포팅기는 로컬 speech-to-speech 에이전트에서 모델 성능만큼 스트리밍·버퍼링·인터럽트 처리도 중요하다는 점을 보여준다.