LoGeR, 1만9천 프레임까지 확장한 장문맥 3D 재구성 접근 제시

Original: LoGeR – 3D reconstruction from extremely long videos (DeepMind, UC Berkeley) View original →

Read in other languages: English日本語
AI Mar 10, 2026 By Insights AI (HN) 2 min read 1 views Source

LoGeR가 풀려는 문제

새로운 Hacker News 스레드는 Google DeepMind와 UC Berkeley 연구진의 LoGeR, 즉 Long-Context Geometric Reconstruction with Hybrid Memory를 조명했다. 핵심 과제는 단순하다. 매우 긴 비디오 시퀀스에서 3D 기하를 안정적으로 복원하되, 마지막에 무거운 backend optimization에 의존하지 않는 것이다. 크롤링 시점 기준 해당 HN 글은 115점과 댓글 25개를 기록해, 일반 제품 발표가 아닌 연구 프로젝트로서는 꽤 강한 반응을 얻었다.

프로젝트 페이지에서 연구진은 문제를 두 개의 벽으로 설명한다. 첫째는 context wall이다. 완전 양방향 모델은 근거리 기하 정합은 잘하지만 계산량이 quadratic하게 늘어나 긴 비디오에 적용하기 어렵다. 둘째는 data wall이다. attention 효율만 높여도 학습이 짧은 구간 위주라면 넓은 실제 장면에 일반화되지 않는다는 주장이다.

한 번에 다 보지 않고 chunk를 잇는 방식

LoGeR의 해법은 입력 영상을 chunk 단위로 인과적으로 처리하고, chunk 사이를 hybrid memory로 연결하는 것이다. 로컬 경로는 Sliding Window Attention(SWA)로 인접 chunk 경계의 정밀한 정합을 보존하고, 전역 경로는 Test-Time Training(TTT)으로 긴 범위의 압축 상태를 유지해 스케일 드리프트를 줄인다. 여기에 per-frame attention과 chunk-wise bi-attention을 결합해, 근거리 정확도와 장거리 일관성 사이의 타협을 줄이려 했다.

실무적으로 중요한 주장은 이 부분이다. LoGeR는 후처리 최적화 없이도 최대 19,000 프레임을 처리할 수 있다고 밝힌다. 이는 로보틱스, AR, 매핑, embodied system처럼 지연과 배포 단순성이 중요한 영역에서 의미가 있다. 전체 파이프라인이 feedforward에 가깝게 유지되면 실제 적용 문턱이 낮아질 수 있기 때문이다.

공개된 결과와 의미

프로젝트 페이지는 KITTI에서 평균 ATE 18.65를 보고하고, 19k-frame VBR 벤치마크에서 기존 feedforward 접근 대비 30.8% 상대 개선을 제시한다. 또한 짧은 시퀀스에서도 7-Scenes 재구성 69.2% 상대 향상과 ScanNet, TUM-Dynamics pose 평가의 강한 개선을 주장한다. 물론 모두 프로젝트 측 발표 수치지만, 단순히 “긴 영상도 된다” 수준이 아니라 짧은 구간 정확도를 유지하면서 지평을 늘렸다는 점이 핵심이다.

더 넓게 보면 LoGeR는 장문맥 비디오 이해가 단순 scale 경쟁이 아니라 architecture 설계 문제라는 점을 보여준다. 전체 attention은 너무 비싸고, 과도한 압축 메모리는 기하 정보를 잃기 쉽다. LoGeR는 그 사이의 실용적 지점을 제시한다. 공개된 코드와 논문이 재현된다면, 장거리 visual mapping 계열 연구에서 꽤 자주 인용되는 기준점이 될 가능성이 있다.

Project page · ArXiv · Hacker News discussion

Share:

Related Articles

AI sources.twitter 4d ago 1 min read

Google이 NotebookLM의 Cinematic Video Overviews를 Google AI Ultra 구독자에게 영어로 순차 배포한다고 밝혔다. 공식 블로그에 따르면 Gemini 3, Nano Banana Pro, Veo 3를 조합해 기존 narrated slides보다 몰입감 있는 맞춤형 영상을 만든다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.