Ollama에서 인증 없는 메모리 유출 취약점 '블리딩 라마' 발견
Original: Bleeding Llama: Critical Unauthenticated Memory Leak in Ollama View original →
블리딩 라마란?
보안 연구업체 Cyera가 Ollama에서 인증 없이 메모리를 유출시킬 수 있는 심각한 취약점 '블리딩 라마(Bleeding Llama)'를 발견했다. r/LocalLLaMA에서 보고된 이 취약점은 인증 없이 원격에서 서버 메모리에 접근하는 것을 허용할 수 있다.
어떤 위험이 있나
Ollama는 로컬 LLM을 REST API 서버로 운영할 수 있게 해주는 인기 도구다. 기본 설정에서는 인증 없이 localhost에서만 접근 가능하지만, 많은 사용자가 공용 네트워크나 팀 서버에 노출시켜 사용한다. 이 경우 블리딩 라마 취약점은 공격자가 서버 메모리를 읽어 대화 내용, API 키, 기타 민감한 데이터를 탈취할 수 있는 경로를 제공한다.
대응 방법
Ollama 서버를 공개적으로 노출하고 있는 사용자는 즉시 최신 버전으로 업데이트하거나 접근 제어 설정을 점검해야 한다. 방화벽 규칙을 통해 Ollama 포트(기본 11434)에 대한 외부 접근을 차단하는 것도 중요한 완화책이다. Cyera의 전체 연구 보고서는 취약점의 기술적 세부사항을 포함하고 있다.
Related Articles
HN은 Mistral Medium 3.5를 단순 모델 공개로 보지 않았다. 4GPU 자가호스팅, 오픈 웨이트, 원격 코딩 에이전트 패키지가 핵심 화제였다.
LocalLLaMA는 이 질문을 샤워실 잡담으로 넘기지 않았다. 스레드는 왜 오늘의 LLM이 잠재 벡터에 reasoning을 숨기지 않고, 여전히 언어 형태로 드러내는지에 대한 진짜 논쟁으로 번졌다.
중요한 이유는 리더보드 순위가 더 싼 학습비와 함께 나왔다는 점이다. Baidu는 ERNIE 5.1 Preview가 LMArena Text에서 글로벌 13위, 중국 랩 1위를 기록했고, 비슷한 모델 대비 사전학습 비용은 약 6% 수준이라고 적었다.
Comments (0)
No comments yet. Be the first to comment!