Rust製manga translator、LocalLLaMAが見たlocal OCR pipelineの手触り

Original: Local manga translator with LLM build-in, written in Rust with llama.cpp integration View original →

Read in other languages: 한국어English
LLM Apr 22, 2026 By Insights AI (Reddit) 1 min read 1 views Source

r/LocalLLaMAで注目されたRust製manga translatorは、単なるmodel demoではなくworkflowとして見えたことが強い。作者は、このprojectがmangaだけでなく一般のimage translationにも使え、object detection、visual LLM-based OCR、layout analysis、fine-tuned inpainting modelを組み合わせると説明した。LLM layerにはllama.cppを統合し、Gemma 4 familyとQwen3.5 familyをsupportする。さらにOpenAPI-compatible API経由でLM StudioやOpenRouterも使えるという。

面白いのは、ひとつのmodelが翻訳する話ではなく、複数のvision工程がeditor UXにまとまっていることだ。投稿ではbuttonを押すとpipelineが走り、結果をproofreadしてfont、size、colorを編集できるmini Photoshopのような流れが紹介された。manga translationではOCRの小さな誤りがspeech bubble、layout、redraw品質まで影響するため、完全自動よりも編集可能な結果が重要になる。repoは https://github.com/mayocream/koharu で公開されている。

  • local OCRとlayout analysisが、text areaと再描画の問題を分けて扱う。
  • llama.cpp integrationにより、cloud-onlyではなくlocal modelを主経路にできる。
  • OpenAPI-compatible pathでlocal providerとhosted providerを同じUI内で切り替えられる。

community discussion noted that users want controls as much as automation. コメントではbrowser extension、manual textbox、font customization、video demoの改善などが求められた。これは良い反応だ。単発の驚きではなく、日常のreadingやfan-translation workflowにどう入るかを想像しているからだ。local LLMは、こうした狭く具体的なcreative toolに入ったときに説得力を増す。

元threadは r/LocalLLaMA にある。

Share: Long

Related Articles

LLM Reddit Apr 16, 2026 1 min read

LocalLLaMAが反応したのは、大きなMoE modelを限られたVRAMで動かす時の痛点を現実的に突いていたからだ。投稿者はQwen3.5-122B-A10Bで、最近routeされたexpertを追跡してhotなものだけVRAM cacheに置くllama.cpp forkを試し、同程度の22GB台VRAM使用量でlayer-based offloadよりtoken generationが26.8%速いと共有した。

LLM Reddit Apr 16, 2026 1 min read

LocalLLaMAが反応したのは、「LLMが自分のruntimeを速くする」という冗談のような仕組みに、具体的なbenchmark数字が付いていたからだ。投稿者はllm-server v2の--ai-tuneがllama-server helpをcontextとして読み、flag組み合わせを試して最速configをcacheすると説明し、Qwen3.5-27B Q4_K_Mは18.5 tok/sから40.05 tok/sへ伸びたと共有した。

LLM Hacker News Apr 16, 2026 1 min read

HNが強く反応したのは、wrapperの好き嫌いではなく、local LLM stackで誰がcreditとcontrolを握るのかという違和感だった。Sleeping Robotsの記事は、Ollamaがllama.cppの上で広がりながら attribution、model packaging、cloud routing、model storageで信頼を削ったと批判し、コメント欄では「それでもUXは強い」という反論も出た。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.