개인정보 필터링은 이제 보안 옵션이 아니라 AI 파이프라인의 기본 인프라다. OpenAI의 1.5B 오픈웨이트 Privacy Filter는 128,000토큰을 로컬에서 처리하고, 보정된 PII-Masking-300k에서 F1 97.43%를 제시했다.
#privacy
RSS FeedHacker News는 이 이슈를 “쿠키 없이도 세션이 이어 붙는” 종류의 프라이버시 사고로 받아들였다. Mozilla는 Firefox 150과 ESR 140.10.0에서 수정했다고 밝혔지만, Tor Browser의 New Identity까지 흔들린다는 점이 토론을 키웠다.
핵심은 민감한 텍스트를 서버로 보내기 전에 기기 안에서 지울 수 있게 됐다는 점이다. OpenAI의 1.5B 파라미터 Privacy Filter는 128,000토큰을 지원하고, 수정한 PII-Masking-300k 평가에서 F1 97.43%를 기록했다.
HN의 GitHub CLI telemetry 논쟁은 metrics가 쓸모 있느냐보다 default-on collection이 command-line tool에 맞는가로 번졌다.
HN의 관심은 telemetry 찬반보다 gh CLI가 CI/CD와 server 환경에서 움직일 때 opt-out이 얼마나 현실적인지에 쏠렸다.
HN이 뜨겁게 반응한 지점은 AI training 자체가 아니라, 업무용 기기에서 mouse movement와 keystroke가 데이터셋이 되는 순간의 신뢰 비용이다.
r/LocalLLaMA가 크게 반응한 이유는 ID 확인이 local model 논쟁을 속도보다 autonomy 문제로 바꿨기 때문이다. Anthropic은 Claude identity verification에서 정부 발급 photo ID와 live selfie가 필요할 수 있다고 설명한다.
LocalLLaMA는 Claude identity verification을 단순한 account policy로 보지 않았다. local model, privacy control, 그리고 tool 접근 gate를 둘러싼 논쟁의 새 재료로 받아들였다.
Google이 Gemini image generation을 긴 prompt 작성에서 계정 context 활용으로 옮겼다. 미국 Google AI Plus, Pro, Ultra 구독자는 Google Photos와 Nano Banana 2를 연결해 개인 사진과 취향을 반영한 이미지를 만들 수 있다.
HN이 크게 반응한 이유는 한 wrapper의 호불호가 아니라, local LLM stack에서 누가 credit과 control을 가져가는지에 대한 불편함이었다. Sleeping Robots의 글은 Ollama가 llama.cpp 위에서 성장했지만 attribution, model packaging, cloud routing, model storage에서 사용자 신뢰를 깎았다고 주장했고, 댓글은 “그래도 UX는 압도적으로 쉽다”는 반론까지 붙었다.
인기 있는 r/LocalLLaMA thread는 Gemma 4의 256k context window로 100k+ token 개인 저널을 로컬에서 분석한 사례를 소개하며, privacy가 on-device LLM의 실용적 이유가 될 수 있음을 보여줬다.
Meta는 AI를 전사 risk review 프로그램의 핵심에 넣었다고 밝혔다. AI가 문서 초안 작성, 법적 요구사항 탐색, privacy·safety·security 문제의 조기 탐지를 돕는다는 것이 회사 설명이다.