Δ-Mem: 고정 크기 상태 행렬로 LLM 장기 기억 문제 해결
Original: Δ-Mem: Efficient Online Memory for Large Language Models View original →
해결하는 문제
장기 어시스턴트 및 에이전트 시스템에서 LLM은 과거 정보를 효과적으로 축적하고 재사용하는 데 어려움을 겪는다. 컨텍스트 윈도우를 단순히 확장하는 것은 비용이 크고, 컨텍스트 활용 자체가 제대로 되지 않는 문제가 있다.
Δ-Mem의 핵심 혁신
Δ-Mem은 동결된 LLM 백본에 델타 규칙 학습으로 업데이트되는 고정 크기 상태 행렬을 추가한다. 이 온라인 메모리 상태가 생성 과정에서 어텐션 연산에 저랭크 보정을 가해 장기 기억을 가능하게 한다. 전체 모델 미세 조정이나 아키텍처 교체 없이도 효과적인 메모리를 구현하는 것이 핵심이다.
성능 결과
8×8 온라인 메모리 상태라는 극히 작은 크기로 주목할 만한 성과를 냈다. 동결 기준 대비 1.10배, 비-Δ-Mem 기준선 대비 1.15배의 전반적 성능 향상을 보였다. 메모리 집약적 벤치마크에서는 더욱 두드러져 MemoryAgentBench 1.31배, LoCoMo 1.20배 향상을 달성했다.
의의
효과적인 메모리가 어텐션에 직접 결합된 소형 온라인 상태로 실현될 수 있음을 증명했다. 장기 멀티턴 대화, 에이전트 시스템, 긴 문서 처리 등 다양한 응용에서 활용 가능한 가벼운 솔루션이다.
Related Articles
DELEGATE-52 연구에 따르면 Gemini 3.1 Pro, Claude 4.6 Opus, GPT 5.4 등 최첨단 LLM도 긴 위임 워크플로우에서 문서 내용의 평균 25%를 조용히 손상시킨다.
필즈상 수상 수학자 Timothy Gowers가 ChatGPT 5.5 Pro로 미해결 수학 문제에 도전해 약 1시간 만에 박사급 증명을 이끌어냈다. 수학 연구의 위기가 임박했다고 경고했다.
새 arXiv 논문은 낮은 평균 오류율 뒤에 LLM judge의 per-document 불안정성이 숨어 있음을 보였다. SummEval에서 문서 33-67%가 directed 3-cycle을 하나 이상 보였고, prediction set width는 absolute error와 강하게 맞물렸다.
Comments (0)
No comments yet. Be the first to comment!