Meta、SAM 3.1公開 object multiplexingでsingle H100上32 FPSのvideo trackingへ

Original: SAM 3.1: Faster and More Accessible Real-Time Video Detection and Tracking With Multiplexing and Global Reasoning View original →

Read in other languages: 한국어English
AI Mar 28, 2026 By Insights AI 1 min read Source

MetaはMarch 27, 2026、Segment Anythingシリーズの更新版としてSAM 3.1を発表した。今回の焦点はreal-time video detectionとtrackingの効率改善である。MetaはSAM 3.1をSAM 3のdrop-in replacementと説明し、中心的な改善としてobject multiplexingを挙げている。これにより最大16個のobjectをsingle forward passで同時に追跡でき、medium-object-count videoではsingle H100 GPU上のthroughputが16 FPSから32 FPSへ伸びるとしている。

この更新が重要なのは、multi-object video trackingがsceneの複雑化に伴って急速に重くなりやすいからだ。Metaによれば、従来はobjectごとに別passが必要で、redundant computationとmemory overheadが発生していた。SAM 3.1はtracked objectsをまとめて処理し、global reasoningを使うことでそのボトルネックを削減する設計になっている。狙いは単なる高速化ではなく、より小さなhardware budgetでもreal-time運用を現実的にすることにある。

Metaが提供する内容

Metaは開発者に対し、SAM 3.1を比較的そのまま導入できるupgrade pathとして使ってほしいと打ち出している。今回の公開にはupdated checkpoint、SAM 3 codebaseの更新、research paper、Segment Anything Playgroundとの互換性が含まれる。これはmedia tools、robotics perception、enterprise video workflowのように、latencyとGPU costが本番導入の可否を左右する領域で特に意味を持つ。

  • MetaはSAM 3.1がsingle forward passで最大16個のobjectを追跡できると説明している。
  • medium-object-count videoではsingle H100上のthroughputが16 FPSから32 FPSへ上がるとしている。
  • 別製品ではなく、SAM 3のdrop-in replacementとして提供される。

今回の発表は、Metaがcomputer vision researchをcreator toolsやcommerce workflowへ接続していく流れとも重なる。MetaはSAM 3系がFacebook MarketplaceのView in Roomなどで使われており、関連するcreation featuresがEdits、Vibes、Meta AI surfacesにも広がる予定だと説明している。SAM 3.1は研究成果の更新であると同時に、open computer-vision modelがacademic demoを越え、実際のproduction loopでlatencyとcostを競う段階に入っていることを示すリリースでもある。

Share: Long

Related Articles

AI 6d ago 1 min read

MetaはMarch 11, 2026、WhatsAppのdevice linking warning、Facebookのsuspicious friend request alert、MessengerでのAI scam review拡大など、新しいanti-scam機能を発表した。Metaは昨年159 million件超のscam adを削除し、scam center関連の10.9 millionアカウントも停止したと説明している。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.