オープンソースのagent memory「Stash」 HNがすぐ突っ込んだ論点

Original: Open source memory layer so any AI agent can do what Claude.ai and ChatGPT do View original →

Read in other languages: 한국어English
AI Apr 26, 2026 By Insights AI (HN) 1 min read Source

発想は刺さったが、検証はもっと速かった

Hacker NewsでStashが話題になった理由は明快だ。ClaudeやChatGPTのような閉じたassistantの中に閉じ込められていた長期memoryを切り出し、どのagentにも付けられるようにするという発想だからだ。ただしスレッドは歓迎ムード一色ではなかった。むしろ最初から検証モードだった。論点は「persistent memoryが理論上便利か」ではなく、「それでpromptが汚れないのか」に集まった。

紹介ページによれば、Stashは28個のMCPツール6段階のパイプラインPostgreSQL + pgvectorを土台にしたmemory layerだという。rawなepisodesをfactsへ、factsをrelationshipsやpatternsへ昇格させ、goals・failures・hypothesesまで保持する設計も示している。さらにnamespaceを切って、ユーザー情報、プロジェクト情報、agent自身の知識を分けて扱う。技術的な売りは、単なる保存ではない。モデルをまたいでも必要な記憶だけを呼び戻せる継続性だ。

HNがすぐに投げた反論

ただ、実戦の視点では疑いが強かった。初期コメントから「memoryは理論上は良いが、大きくなるほど結局また散らかる」という声が出た。ある読者は、手で管理するAGENTS.mdPROJECT.mdのほうがまだ制御しやすいと言う。別の読者は、結局はpgvectorにremember/recallを載せたRAGに見えると指摘した。さらにチーム開発では、誰のmemoryが最新なのか、別の作業領域の情報が次のsessionへどれだけ混ざるのか、という問題もある。要するに、保存技術より選別技術が問われている。

なぜこの論争が重要か

今のagentツールで本当に難しいのは、「記憶を保存できるか」ではない。多くのシステムはすでに保存している。難しいのはrecall precisionとnamespace hygieneだ。何をmemoryへ昇格させるのか、何を捨てるのか、何を今回のtaskには出さないのか。その設計が甘いと、継続性はそのままノイズになる。HNがStashに食いついた理由もそこにある。オープンなmemory layerへの需要自体は明らかだ。だが需要がそのまま有効性の証明にはならない。Stashがこれから示すべきなのは、memoryを持つことではなく、memoryが昨日の文脈を今日の雑音に変えず、実際の再開速度を上げられるかどうかだ。

出典: Stash紹介ページ · Hacker News議論

Share: Long

Related Articles

Cohere、open 2B ASR model TranscribeとWebGPU browser demoを前面に
AI sources.twitter Mar 28, 2026 1 min read

Cohereは2026年3月28日、Transcribeがreal-world noise環境でspeech recognition accuracyの新しい基準を示すと述べ、試用リンクを共有した。関連するHugging Face資料ではApache 2.0の2B-parameter・14-language ASR modelとして位置づけられ、別のWebGPU demoはこのmodelがbrowser上でローカル動作することを示している。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.