腐食中

Redditでは、すべてを保存せず意図的に忘れるAI memory systemが議論を呼んだ

Original: Built an AI memory system based on cognitive science instead of vector databases View original →

Read in other languages: 한국어English
AI Mar 13, 2026 By Insights AI (Reddit) 1 min read 8 views Source

r/artificialで話題になった開発者投稿は、多くのAI agent memoryが結局同じ壁にぶつかると主張している。vector DBに記憶を貯めてsemantic searchで取り出す方式は最初は機能するが、時間が経つほどnoise floorが上がり、recall qualityが落ちていくというのだ。そこで投稿者はappend-onlyのmemoryではなく、ACT-R activation decay、Hebbian learning、Ebbinghaus forgetting curveといったcognitive scienceの考え方を取り入れたmemory systemを作ったと説明した。

人目を引いたのは具体的な数値だ。投稿者は30日間の運用で3,846件のmemoryと230K超のrecallを処理し、pure Python実装のためembeddingsが不要でinference costは$0だったと述べている。もっとも重要な主張は「forgettingがrecall qualityを改善した」という点だ。古くて弱いmemoryを自然に減衰させる方が、すべてを平坦に保持するbaselineより関連性の高い記憶を取り出せたという。その次の計画として、namespace isolationとACLを持つmulti-agent shared memoryや、emotional feedback busも挙げられている。

コメント欄では、賛同と設計論がすぐに混ざり合った。Graph-RAGとforgetting curveの組み合わせを連想する人もいれば、episodic memoryとsemantic memoryの境界をどう扱うのかを問う人もいた。別の読者は、感情シグナルがactivation weightやdecay curveをどう変えるのかに関心を示した。一方で「このスレのコメントは全部LLMが書いたのか」と皮肉る声もあり、アイデアの新鮮さと検証不足の両方が見えている。

この投稿が示す重要な論点は、long-running agentでは「より多く覚える」より「より上手に忘れる」ことの方が大切かもしれないということだ。蓄積ノイズでretrieval precisionが落ちるなら、remember everythingは最適解ではない。ただし現時点では、これは公開benchmarkよりも投稿者のproduction claimに近い。それでも、forgettingをbugではなくfeatureとして扱う設計方向そのものには十分な説得力がある。出典: r/artificial discussion

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment