Redditでは、すべてを保存せず意図的に忘れるAI memory systemが議論を呼んだ
Original: Built an AI memory system based on cognitive science instead of vector databases View original →
r/artificialで話題になった開発者投稿は、多くのAI agent memoryが結局同じ壁にぶつかると主張している。vector DBに記憶を貯めてsemantic searchで取り出す方式は最初は機能するが、時間が経つほどnoise floorが上がり、recall qualityが落ちていくというのだ。そこで投稿者はappend-onlyのmemoryではなく、ACT-R activation decay、Hebbian learning、Ebbinghaus forgetting curveといったcognitive scienceの考え方を取り入れたmemory systemを作ったと説明した。
人目を引いたのは具体的な数値だ。投稿者は30日間の運用で3,846件のmemoryと230K超のrecallを処理し、pure Python実装のためembeddingsが不要でinference costは$0だったと述べている。もっとも重要な主張は「forgettingがrecall qualityを改善した」という点だ。古くて弱いmemoryを自然に減衰させる方が、すべてを平坦に保持するbaselineより関連性の高い記憶を取り出せたという。その次の計画として、namespace isolationとACLを持つmulti-agent shared memoryや、emotional feedback busも挙げられている。
コメント欄では、賛同と設計論がすぐに混ざり合った。Graph-RAGとforgetting curveの組み合わせを連想する人もいれば、episodic memoryとsemantic memoryの境界をどう扱うのかを問う人もいた。別の読者は、感情シグナルがactivation weightやdecay curveをどう変えるのかに関心を示した。一方で「このスレのコメントは全部LLMが書いたのか」と皮肉る声もあり、アイデアの新鮮さと検証不足の両方が見えている。
この投稿が示す重要な論点は、long-running agentでは「より多く覚える」より「より上手に忘れる」ことの方が大切かもしれないということだ。蓄積ノイズでretrieval precisionが落ちるなら、remember everythingは最適解ではない。ただし現時点では、これは公開benchmarkよりも投稿者のproduction claimに近い。それでも、forgettingをbugではなくfeatureとして扱う設計方向そのものには十分な説得力がある。出典: r/artificial discussion。
Related Articles
Axeは、agent softwareは巨大なchatbot runtimeではなく、TOML、pipes、短命なcommand実行に近いべきだと主張し、automation志向のHacker News読者の関心を集めた。
Samsungは2030年までに世界のmanufacturing運営をAI-Driven Factoriesへ移行すると表明した。中心になるのはdigital twin simulation、AI agent、factory内companion robotを組み合わせて生産をsiteごとに最適化する構想だ。
CloudflareはMarch 11, 2026のX postと公式blogで、AI agentsに対してHTML error pageの代わりにRFC 9457-compliantなMarkdownとJSON payloadを返すと発表した。会社説明では、この変更により1015 rate-limit responseのtoken使用量を98%以上削減し、retryやbackoffをmachine-readable control flowへ変えられる。
Comments (0)
No comments yet. Be the first to comment!