Chrome Prompt API、HNが真っ先に突っ込んだのはプライバシーより22GB
Original: The Prompt API View original →
ChromeのPrompt APIは、説明だけならかなり魅力的だ。Webアプリがブラウザ内のGemini Nanoに自然言語の依頼を送り、外部APIキーなしで端末上で処理する。ページ検索、記事の分類、コンテンツフィルタ、連絡先抽出、予定作成のような軽めの仕事をローカルで回せる。HNがまず食いついたのもこの点だった。プライバシーとコストの両方に効くからだ。
ただし、スレッドの空気はすぐに要件表へ向かった。Chromeのドキュメントは、対応OS、デスクトップ限定、モデルダウンロード前提に加えて、22GB以上の空き容量、GPUなら4GB超のVRAM、CPU経路でも16GB RAMと4コア以上を求めている。ここがHNの本題になった。代表的な反応はかなり率直で、「このサイトを使うには22GB空けてください」と言うサービスが本当に成立するのか、というものだ。
別の懸念もある。こうしたローカル推論機能がブラウザに入ると、悪意あるJavaScriptが訪問者の計算資源をそれとなく使う方向に進まないかという指摘だ。その一方で、支持する声もはっきりあった。小さな検索や分類なら十分実用になるし、データを外へ送らずに済むのは大きい。コミュニティでは、これを“ブラウザ内の安価なOllama”のように使える場面があるという見方も出ていた。
面白いのは、これが単なるAPI追加の話では終わっていないことだ。ブラウザAIは長く「そのうち来る」と言われてきたが、Prompt APIはそこから一歩進んでいる。ただ、実体化したことと、摩擦が消えたことは別だ。保存容量、対応端末、モデルの質、小型モデルゆえの限界がそのまま体験の差になる。HNでも、今の段階では長い多段推論より、短くはっきりしたタスク向けだという見方が強かった。
今回のHN反応は、持ち上げ一色でも全否定でもない。ローカル推論は確かに魅力がある。だが製品に組み込むなら、要件表そのものがUXになる。Prompt APIが広がるかどうかは、オンデバイスという響きではなく、どの作業で本当にサーバー型AIより筋がいいのかを示せるかにかかっている。
Related Articles
HNがこのRAM shortage storyに反応した理由は、AI data center向けHBM需要がphones、laptops、handheldsの価格にもつながるという物理的な連鎖だった。
HNがこのpostを面白がった理由は、Apple Silicon unified memoryでWasm sandboxとGPU bufferが本当に同じbytesを扱えるのかという実装上の境界だった。
HNで400 comments超まで伸びた理由はnostalgiaではなく、AIが整ったdraftを出せる時代にstudent thinkingをどう証明するかだった。
Comments (0)
No comments yet. Be the first to comment!