#transformers

RSS Feed
LLM sources.twitter Apr 14, 2026 1 min read

Vulmon의 2026년 4월 7일 X post는 Hugging Face Transformers Trainer checkpoint loading 과정의 arbitrary code execution 이슈인 CVE-2026-1839를 짚었다. CVE.org에 따르면 v5.0.0rc3 이전 버전은 PyTorch 2.6 미만 환경에서 조작된 rng_state.pth 파일로 code execution이 가능하며, fix는 weights_only=True를 추가한다.

AI Reddit Mar 20, 2026 1 min read

2026년 3월 17일 r/MachineLearning에 올라온 Clip to Grok 글은 크롤링 시점 기준 56점과 20개 댓글을 기록했다. 작성자들은 optimizer step마다 decoder weight row를 L2 clipping하는 방식으로 modular arithmetic benchmark에서 18배에서 66배 빠른 generalization을 얻었다고 주장한다.

LLM Hacker News Mar 13, 2026 2 min read

Percepta는 2026년 3월 11일 공개한 글에서 transformer 내부에 computer를 만들고, arbitrary C program을 수백만 step 실행하며, 2D attention head로 inference를 지수적으로 가속할 수 있다고 주장했다. HN 이용자들은 흥미로운 연구 방향으로 봤지만, 더 명확한 설명과 benchmark, 실제 확장성에 대한 근거를 요구했다.

© 2026 Insights. All rights reserved.