Show HN: Off Grid、モバイルでテキスト・画像・Vision・音声AIを完全オフライン統合

Original: Show HN: Off Grid – Run AI text, image gen, vision offline on your phone View original →

Read in other languages: 한국어English
LLM Feb 16, 2026 By Insights AI (HN) 1 min read 1 views Source

Hacker Newsで共有された内容

Show HNの投稿で、Off GridというモバイルAIアプリが注目を集めた。クロール時点でスレッドは119ポイント、コメント64件。GitHubでMITライセンス公開されており、単一機能のチャットアプリではなく、端末内で複数AI機能をまとめて動かす設計を打ち出している。

テキスト以外も含む機能構成

READMEでは、テキスト生成、画像生成、Vision解析、音声文字起こし、文書添付チャットを1つのアプリに統合すると説明している。テキストモデルとしてはQwen 3Llama 3.2Gemma 3Phi-4などを挙げ、ユーザーが.ggufモデルを持ち込める点も明記されている。画像領域では、オンデバイスStable Diffusionと複数モデル対応を示している。

公開されている性能目安

リポジトリの記載によると、テキスト生成はフラッグシップ端末で15-30 tok/s、ミッドレンジで5-15 tok/s。画像生成はSnapdragonのNPU経由でおよそ5-10秒、CPU経路ではより遅い想定だ。Vision推論はフラッグシップで約7秒とされる。検証端末としてSnapdragon 8 Gen 2/3とApple A17 Proが示され、実効値はモデル規模や量子化設定で変動すると補足されている。

実務上の含意

最大の論点はデータ境界である。プロジェクトはプロンプト、音声、文書が端末外へ送信されないことを強調する。これが実運用でも維持されるなら、ネットワーク依存低減、遅延の安定化、データローカリティ要件への対応に有効だ。一方で、モバイル計算資源の制約は残るため、モデル選定と量子化戦略が体感品質を左右する。

Share:

Related Articles

LLM Hacker News 5d ago 1 min read

Hacker Newsで注目を集めたのは、Sarvam AIがIndiaAI missionのcomputeでインド国内学習した reasoning重視のMoEモデル Sarvam 30Bと105B を公開した点だ。単なるweights公開ではなく、製品投入、inference最適化、Indian-language benchmarkまで含めた発表になっている。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.