Hacker News가 본 autonomous AI learning 청사진, cognitive science에서 다시 출발하다
Original: Why AI systems don't learn – On autonomous learning from cognitive science View original →
arXiv paper 한 편이 Hacker News 전면에 오르며 109 points와 34 comments를 모았다. 2026년 3월 16일 제출된 이 논문에서 Emmanuel Dupoux, Yann LeCun, Jitendra Malik는 현재 AI systems가 아직 인간이나 동물 같은 의미의 autonomous learning에 도달하지 못했다고 본다. 핵심은 새로운 benchmark 기록이나 즉시 적용 가능한 training recipe를 내놓는 데 있지 않다. 대신 오늘의 model들이 대규모 corpus를 흡수하고 post-training으로 조정될 수는 있어도, 변화하는 환경 속에서 스스로 계속 배우는 능력은 여전히 제한적이라고 문제를 다시 정의한다.
세 개의 learning mode
논문은 learning architecture를 세 부분으로 설명한다. System A는 observation에서 배우는 경로, System B는 active behavior에서 배우는 경로, System M은 어느 시점에 어떤 방식을 쓸지 조정하는 meta-control layer다. 이 구도는 논의를 단순한 next-token prediction에서 끌어내어, agent가 언제 보고, 언제 행동하고, 언제 탐색하고, 언제 업데이트할지 스스로 선택해야 한다는 쪽으로 옮긴다. 저자들은 human·animal cognition과 organism가 developmental, evolutionary timescale에서 적응하는 방식에서 영감을 얻어야 한다고 말한다. 그래서 이 논문은 product launch라기보다 research agenda에 가깝다.
왜 HN이 반응했는가
이번 HN 반응은 AI 연구 커뮤니티 안의 오래된 답답함을 건드린 것으로 보인다. scaling law, synthetic data, post-training pipeline은 model capability를 계속 밀어 올리지만, 그것만으로 현실 환경에서 스스로 학습 방향을 정하는 system이 자동으로 생기지는 않는다. 이 논문이 던지는 포인트는 부족한 것이 단순히 더 많은 token이나 compute가 아니라, observation과 action 그리고 internal control을 조합하는 구조일 수 있다는 점이다. 이것은 paper의 framing과 HN traction에서 읽히는 추론이지, 이미 합의된 결론이라는 뜻은 아니다.
앞으로 볼 지점
한편으로 이 paper는 구현 디테일을 촘촘하게 제시하지는 않는다. 그 점은 강점이면서 동시에 한계다. 그래도 autonomous learning에 필요한 요소를 비교적 선명하게 짚어 준다는 점에서 의미가 있다. AI systems가 언제 observe하고, 언제 act하고, 그 결과로 자신을 어떻게 revise할지에 대한 internal control 없이는 지금의 접근만으로는 한계가 있다는 문제의식을 전면으로 끌어올렸기 때문이다. post-LLM research agenda가 어디로 갈지 추적하는 독자라면, 이번 HN 토론이 눈에 띈 이유도 바로 여기에 있다.
Sources: arXiv 2603.15381, Hacker News discussion
Related Articles
r/artificial의 한 글은 long-running agent memory가 또 다른 vector DB보다 decay, reinforcement, selective forgetting을 더 필요로 할 수 있다고 주장하며, retrieval quality와 인간 기억 모델에 대한 토론을 끌어냈다.
Anthropic는 powerful AI가 사회에 던질 과제를 다루는 공익 조직 The Anthropic Institute를 출범시켰다. 회사는 이 조직이 technical·economic·social science 관점을 결합해 public conversation을 넓히는 역할을 맡는다고 밝혔다.
Anthropic는 The Anthropic Institute를 출범시키고 powerful AI가 일자리, 법, governance에 미칠 영향을 다루는 전담 조직을 만들었다. Jack Clark이 이끌며 Frontier Red Team, Societal Impacts, Economic Research를 묶고 Washington, DC 정책 거점도 확대한다.
Comments (0)
No comments yet. Be the first to comment!