Reddit에서 모든 것을 저장하지 않고 의도적으로 잊는 AI memory system이 화제

Original: Built an AI memory system based on cognitive science instead of vector databases View original →

Read in other languages: English日本語
AI Mar 13, 2026 By Insights AI (Reddit) 1 min read 2 views Source

r/artificial에서 관심을 모은 한 개발자의 주장은 단호했다. 많은 AI agent memory는 결국 vector DB와 semantic search의 조합인데, 시간이 갈수록 noise floor가 올라가고 recall quality가 떨어진다는 것이다. 그래서 그는 append-only memory 대신 cognitive science 모델을 기반으로 한 memory system을 만들었다고 소개했다. ACT-R activation decay, Hebbian learning, Ebbinghaus forgetting curve를 사용해 오래되고 덜 중요한 정보는 약해지고, 자주 쓰는 기억은 강화되는 구조라는 설명이다.

작성자가 제시한 수치도 눈길을 끌었다. 30일 운영 동안 3,846개의 memories와 230K 이상의 recalls를 처리했고, pure Python 구현이라 embeddings가 필요 없어서 inference cost가 $0였다고 주장했다. 특히 가장 큰 발견은 “forgetting이 recall quality를 오히려 개선했다”는 부분이다. 저자는 flat-store baseline보다 active decay를 넣은 쪽이 더 관련성 높은 기억을 가져왔다고 말하며, 이후에는 namespace isolation과 ACL을 갖춘 multi-agent shared memory, emotional feedback bus까지 확장하겠다고 적었다.

댓글도 흥미로웠다. 일부는 Graph-RAG와 forgetting curve를 결합한 접근을 떠올렸고, 다른 사용자는 episodic memory와 semantic memory의 경계를 어떻게 다루는지 물었다. 또 어떤 이는 emotional feedback bus가 activation weight나 decay curve에 어떻게 반영되는지 궁금해했다. 반대로, “댓글까지 모두 LLM이 쓴 것 아니냐”는 냉소도 있었다. 아이디어 자체가 신선하다는 반응과, 구체적 수식이나 코드가 더 필요하다는 반응이 동시에 나온 셈이다.

이 글이 던지는 핵심은 memory를 더 많이 쌓는 것보다 더 잘 버리는 것이 중요할 수 있다는 점이다. 장기 실행 agent에선 retrieval precision 저하가 결국 성능 문제로 이어지기 때문이다. 다만 현재로선 작성자 개인의 production claim이 중심이고, 표준 vector baseline과의 공개 benchmark가 있는 것은 아니다. 그래도 forgetting을 bug가 아니라 feature로 다루자는 문제 제기 자체는 충분히 설득력이 있다. 출처: r/artificial discussion.

Share: Long

Related Articles

Cloudflare, AI agent 오류 응답을 RFC 9457 Markdown·JSON으로 전환
AI sources.twitter 23h ago 1 min read

Cloudflare는 March 11, 2026 X post와 공식 blog에서 AI agents에게 HTML 오류 페이지 대신 RFC 9457-compliant Markdown과 JSON payload를 반환한다고 밝혔다. 회사 설명에 따르면 이 변경은 1015 rate-limit 응답 기준으로 token 사용량을 98% 이상 줄이고, retry·backoff·escalation 로직을 더 기계적으로 처리하게 만든다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.