Redditでは、すべてを保存せず意図的に忘れるAI memory systemが議論を呼んだ

Original: Built an AI memory system based on cognitive science instead of vector databases View original →

Read in other languages: 한국어English
AI Mar 13, 2026 By Insights AI (Reddit) 1 min read 2 views Source

r/artificialで話題になった開発者投稿は、多くのAI agent memoryが結局同じ壁にぶつかると主張している。vector DBに記憶を貯めてsemantic searchで取り出す方式は最初は機能するが、時間が経つほどnoise floorが上がり、recall qualityが落ちていくというのだ。そこで投稿者はappend-onlyのmemoryではなく、ACT-R activation decay、Hebbian learning、Ebbinghaus forgetting curveといったcognitive scienceの考え方を取り入れたmemory systemを作ったと説明した。

人目を引いたのは具体的な数値だ。投稿者は30日間の運用で3,846件のmemoryと230K超のrecallを処理し、pure Python実装のためembeddingsが不要でinference costは$0だったと述べている。もっとも重要な主張は「forgettingがrecall qualityを改善した」という点だ。古くて弱いmemoryを自然に減衰させる方が、すべてを平坦に保持するbaselineより関連性の高い記憶を取り出せたという。その次の計画として、namespace isolationとACLを持つmulti-agent shared memoryや、emotional feedback busも挙げられている。

コメント欄では、賛同と設計論がすぐに混ざり合った。Graph-RAGとforgetting curveの組み合わせを連想する人もいれば、episodic memoryとsemantic memoryの境界をどう扱うのかを問う人もいた。別の読者は、感情シグナルがactivation weightやdecay curveをどう変えるのかに関心を示した。一方で「このスレのコメントは全部LLMが書いたのか」と皮肉る声もあり、アイデアの新鮮さと検証不足の両方が見えている。

この投稿が示す重要な論点は、long-running agentでは「より多く覚える」より「より上手に忘れる」ことの方が大切かもしれないということだ。蓄積ノイズでretrieval precisionが落ちるなら、remember everythingは最適解ではない。ただし現時点では、これは公開benchmarkよりも投稿者のproduction claimに近い。それでも、forgettingをbugではなくfeatureとして扱う設計方向そのものには十分な説得力がある。出典: r/artificial discussion

Share: Long

Related Articles

Cloudflare、AI agent向けerror responseをRFC 9457 Markdown・JSONへ移行
AI sources.twitter 22h ago 1 min read

CloudflareはMarch 11, 2026のX postと公式blogで、AI agentsに対してHTML error pageの代わりにRFC 9457-compliantなMarkdownとJSON payloadを返すと発表した。会社説明では、この変更により1015 rate-limit responseのtoken使用量を98%以上削減し、retryやbackoffをmachine-readable control flowへ変えられる。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.