WUPHF 에이전트 위키에 HN 주목, 더 어려운 건 공유보다 신뢰
Original: Show HN: A Karpathy-style LLM wiki your agents maintain (Markdown and Git) View original →
HN은 WUPHF를 단순한 multi-agent 데모로 소비하지 않았다. README는 이 프로젝트를 "AI 직원들을 위한 Slack"처럼 소개하지만, 실제로 더 눈길을 끈 부분은 memory 설계다. 각 agent는 자기 notebook을 갖고, 팀 전체는 공유 wiki를 쓴다. 중요한 점은 흐름이다. 임시 관찰은 notebook에 남기고, 오래 쓸 사실이나 플레이북만 wiki로 올린다. 메모를 쌓는 것이 아니라, 무엇을 승격할지 고르는 구조다.
이 설계가 흥미로운 이유는 local-first 구현 때문이다. 새 설치는 markdown과 git 기반 wiki를 기본으로 쓰고, 저장소는 ~/.wuphf/wiki/에 놓인다. README는 typed fact, append-only log, lookup, contradiction lint까지 전면에 내세운다. 다시 말해 agent memory를 벡터 DB 뒤에 숨기지 않는다. cat, grep, git log로 사람이 직접 읽고 추적할 수 있는 artifact로 만들겠다는 방향이다.
HN 댓글은 왜 이 주제가 지금 뜨거운지 잘 보여준다. 한 댓글은 24시간 안에 프런트페이지에 올라온 세 번째 LLM wiki라고 적었다. 그만큼 agent memory가 설계 경쟁이 됐다는 뜻이다. 동시에 회의론도 뚜렷했다. 메모는 원래 사람이 자료를 비판적으로 읽고 자기 모델에 맞게 다듬는 과정인데, 그걸 왜 자동화하느냐는 질문이 나왔다. 더 날카로운 걱정은 "garbage facts in, garbage briefs out"이다. agent가 자기 노트를 자기 손으로 승격하기 시작하면, 몇 달 뒤에는 자신 있게 틀린 사실이 쌓일 수 있다는 지적이다.
그래서 WUPHF가 만든 대화는 단순히 agent를 더 많이 붙이는 문제가 아니다. memory를 많이 저장하는 일은 이미 어렵지 않다. 진짜 어려운 건 무엇을 믿을 수 있느냐이다. WUPHF는 chat 잔여물을 공유 기억으로 바꾸는 방식을 꽤 구체적으로 제시했고, HN은 그 설계가 유용할 수 있다는 점과 함께 신뢰 관리가 더 큰 병목이라는 점을 동시에 짚었다. 출처는 GitHub 저장소와 HN 토론이다.
Related Articles
r/LocalLLaMA가 900점 넘게 반응한 이유는 Qwen3.6 score표가 아니라, local coding agent가 canvas bug와 wave completion issue를 스스로 찾아 고쳤다는 사용기였다.
OpenAI는 Codex를 매주 300만 명이 넘는 developers가 쓰고 있다고 밝히며, desktop app을 code editor 밖으로 확장했다. 이번 update에는 macOS background computer use, in-app browser, gpt-image-1.5 image generation, 90개+ plugins, PR review workflow, SSH devboxes alpha, automations, memory preview가 포함됐다.
Google이 4월 21일 Deep Research를 Gemini 3.1 Pro 기반으로 끌어올리고 MCP 연결과 Max 모드를 붙였다. 웹 검색, 업로드 파일, 라이선스 데이터 소스를 한 흐름에서 묶어야 하는 금융·생명과학 팀을 겨냥한 변화다.
Comments (0)
No comments yet. Be the first to comment!