r/LocalLLaMA が捉えた IBM Granite 4.0 3B Vision、文書抽出向け小型 VLM

Original: ibm-granite/granite-4.0-3b-vision · Hugging Face View original →

Read in other languages: 한국어English
LLM Mar 29, 2026 By Insights AI (Reddit) 1 min read Source

r/LocalLLaMAで話題になったIBM ResearchのGranite-4.0-3B-Visionは、汎用multimodal assistantを目指すより、document extractionに照準を合わせた小型VLMだ。位置づけはかなり明確で、chart、table、semi-structured business documentをmachine-readable outputへ変換する実務向けworkloadを先に取りにいく設計になっている。

Hugging Faceのmodel cardによれば、Granite-4.0-3B-VisionはGranite 4.0 Microの上に載るLoRA adapterとして提供される。この構造は運用面で意味が大きい。text-only requestはbase modelのまま処理し、imageやdocument understandingが必要なときだけvision adapterを有効にできるからだ。memory pressureやservingの単純さを重視するチームなら、純粋なbenchmarkと同じくらいこの点に注目するはずだ。

対応taskも具体的だ。chart2csv、chart2summary、chart2codeといったchart extraction tagがあり、table extractionはHTML、JSON、OTSLで出力できる。さらにschemaベースのkey-value pair extractionも含まれる。IBMはこのmodelをenterprise document AI向けの部品として位置づけており、open-ended image chatよりもstructured extraction accuracyが重要なpipelineを狙っている。

LocalLLaMAが反応した理由もそこにある。IBMはchart extractionとtable extractionで他のsmall VLMとの比較を示し、key-value pair extraction用のVAREX benchmarkでは、2026年3月時点で2Bから4B parameter modelの中で85.5%のexact-match accuracyを報告している。release dateは2026年3月27日、licenseはApache 2.0で、Transformersの例だけでなくvLLM serving pathも文書化されている。merged-at-load方式とnative LoRA runtimeの両方が用意されている点も運用寄りだ。

  • enterprise focus: 汎用chatではなくchart、table、KVP extractionに集中している。
  • deployment angle: Granite 4.0 Micro上のLoRA adapterなので、text-onlyとmultimodal workloadを柔軟に分けられる。
  • ecosystem fit: Docling連携とvLLMの文書化によりproduction導入の障壁を下げる。

LocalLLaMAコミュニティがこうしたreleaseに反応する理由は明快だ。小さなopen modelが注目されるのは、何でもできると語るときではなく、ひとつの実際のworkflowをはっきり解くときだ。Granite-4.0-3B-Visionは何でもできるVLMを約束していない。既存pipelineに差し込める現実的なdocument extraction componentを目指しており、その抑制された目標設定の方がむしろ説得力を持つ。

Share: Long

Related Articles

LLM Mar 21, 2026 1 min read

IBM Graniteは2026-03-20、Mellea 0.4.0とGranite 4.0 Micro向けのGranite Libraries 3種を公開した。prompt-only orchestrationではなく、構造化され safety-aware な workflow を求めるチームに向けた release だ。

LLM sources.twitter Mar 22, 2026 1 min read

OpenAI Developersは2026年3月21日、skills・hosted shell・code interpreter向けコンテナ起動が新しいcontainer poolにより約10倍高速になったと述べた。更新されたhosted shellドキュメントでは、`container_auto`による自動作成、`container_reference`による再利用、20分の非アクティブ後の失効が説明されている。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.