Hacker News에서 높은 관심을 받은 Cline 공급망 사고를 정리한다. GitHub 이슈 제목의 prompt injection이 CI 워크플로우, 캐시 오염, 토큰 탈취, 악성 배포로 이어진 경로와 재발 방지 포인트를 다룬다.
#prompt-injection
AI Hacker News Mar 6, 2026 1 min read
LLM Reddit Feb 28, 2026 1 min read
r/artificial에서 주목받은 보안 연구는 zero-width/Unicode Tags를 이용한 숨은 지시가 도구 사용형 LLM 에이전트에 미치는 영향을 분석했다. 공개 요약은 5개 모델, 8,308개 출력 평가를 제시한다.
AI Reddit Feb 16, 2026 1 min read
r/MachineLearning의 토론 글이 OpenClaw 생태계에서 인터넷 노출 인스턴스와 악성 스킬 비율을 제기하며, 에이전트 시대의 공급망 보안 모델을 둘러싼 논의를 촉발했다.
LLM Reddit Feb 14, 2026 1 min read
r/MachineLearning의 고득점 토론(점수 390, 댓글 52)을 바탕으로, ICML 리뷰 정책과 PDF 내 숨은 텍스트 의혹이 왜 심사 신뢰성 이슈로 번졌는지 정리했다.
AI Feb 14, 2026 1 min read
OpenAI가 prompt injection 기반 데이터 유출 위험을 낮추기 위해 ChatGPT 보안 기능을 강화했다. Enterprise/Edu 등 조직형 플랜에서 Lockdown Mode를 우선 제공하고, 고위험 기능에는 Elevated Risk 라벨을 붙여 사용자가 위험을 인지하도록 설계했다.
AI Feb 11, 2026 1 min read
자율 AI 에이전트의 지속적 메모리, 광범위한 권한, 사용자 제어 구성이 프롬프트 인젝션과 데이터 유출 위험을 증폭시키고 있다. ClawHub에서 악성 스킬이 발견됐다.
LLM Reddit Feb 8, 2026 1 min read
개인정보 보호를 위해 셀프 호스팅으로 전환했지만, prompt injection 공격에 시스템 프롬프트가 노출되는 심각한 보안 취약점을 발견한 개발자의 경험담이 커뮤니티에서 큰 공감을 얻었다.