個人情報フィルタリングはAI開発の周辺機能ではなく本体になった。OpenAIの1.5BオープンウェイトPrivacy Filterは128,000トークンを端末内で処理し、補正版PII-Masking-300kでF1 97.43%を示した。
#privacy
RSS FeedHacker Newsはこの件を「Cookieなしでもセッションがつながる」タイプの深刻なプライバシー問題として受け止めた。MozillaはFirefox 150とESR 140.10.0で修正したとしているが、Tor BrowserのNew Identityにまで影響する点が議論を大きくした。
いちばん大きい変化は、機密テキストを外へ出す前に手元で消せるようになったことだ。OpenAIの1.5BパラメータPrivacy Filterは128,000トークンを扱い、修正版PII-Masking-300kでF1 97.43%を示した。
HNのGitHub CLI telemetry議論は、metricsの有用性よりもcommand-line toolでdefault-on collectionが許されるかに集中した。
HNの論点はtelemetryの是非だけではなく、gh CLIがCI/CDやserverで動くときopt-outを維持できるかだった。
HNが強く反応したのはAI training dataの不足ではなく、社員の日常入力がdataset化されるときのtrust boundaryだった。
r/LocalLLaMAで伸びた理由は、ID確認がlocal model論を速度ではなくautonomyの話に変えたからだ。AnthropicはClaude identity verificationでgovernment photo IDとlive selfieを求める場合があるとしている。
LocalLLaMAはClaude identity verificationを単なるaccount policyとは見なかった。local model、privacy control、tool accessのgateをめぐる新しい材料として受け止めた。
GoogleはGemini image generationを、長いprompt作成からaccount contextの利用へ寄せた。米国のGoogle AI Plus、Pro、Ultra加入者はGoogle PhotosとNano Banana 2を使い、source確認とreference変更をしながらpersonalized imagesを作れる。
HNが強く反応したのは、wrapperの好き嫌いではなく、local LLM stackで誰がcreditとcontrolを握るのかという違和感だった。Sleeping Robotsの記事は、Ollamaがllama.cppの上で広がりながら attribution、model packaging、cloud routing、model storageで信頼を削ったと批判し、コメント欄では「それでもUXは強い」という反論も出た。
人気のr/LocalLLaMA threadは、Gemma 4の256k context windowで100k+ tokenの個人journalをローカル分析した事例を示し、privacyがon-device LLMを動かす実用的な理由になり得ることを示した。
Meta は AI を全社的な risk review program の中心に置いたと説明した。documentation の事前入力、legal requirement の抽出、privacy・safety・security issue の早期検出を AI が支援するという内容だ。