Vercel、Chat SDK公開 Slack・Discord・GitHub向けagentを単一コードベースで展開

Original: Every chat platform has its own event model, threading system, and streaming quirks. We felt this pain internally when we challenged every team to build agents to multiply their output, and the agents were easier than the chat plumbing. So we built Chat SDK to remove that bottleneck. Get started directly or via your coding agents with: ▲ ~/ npm i chat ▲ ~/ npx skills add vercel/chat Read more ↓ vercel.com/blog/chat-sdk-… View original →

Read in other languages: 한국어English
LLM Mar 22, 2026 By Insights AI 1 min read Source

XでVercelが発表した内容

2026年3月19日、Vercelはagent展開の本当のボトルネックはモデル接続よりもchat platformごとの配線だったと述べ、Chat SDKを公開した。メッセージング製品ごとにevent model、thread構造、streamingの癖が違うため、SlackやDiscord、GitHubへagentを広げるたびに統合ロジックを作り直す必要があったという。Vercelはその負担をSDK層で吸収しようとしている。

公式ローンチ記事が示す内容

Vercelのブログによれば、Chat SDKはTypeScriptライブラリで、SlackMicrosoft TeamsGoogle ChatDiscordTelegramGitHubLinear向けbotを単一コードベースから構築できる。中心となるchatパッケージがroutingとapplication logicを処理し、platform固有の差異はadapterが受け持つ。つまりチャンネルを増やしてもbot本体を書き直さずに済む設計だ。

  • SDKはmarkdownを各platformの表現に合わせて自動変換し、streaming中の表示崩れを抑える。
  • link preview、referenced posts、imagesをagent promptへ自動的に含め、対話contextを保ちやすくする。
  • 既存のRedisに加え、PostgreSQL state adapterをproduction-readyな選択肢として追加した。
  • さらにWhatsApp対応も拡張し、VercelはChat SDKをopen sourceかつpublic betaだとしている。

なぜ重要か

agentが現場に浸透するかどうかは、優れたモデルを用意できるかだけでは決まらない。実際には、利用者がすでに働いているチャットやissue trackerへ、どれだけ素早くagentを送り込めるかが大きい。ところが実務では、mention処理、table表示、formatting、reactions、streamingなどがchannelごとに異なり、分散した統合作業が採用速度を鈍らせてきた。

Chat SDKはその不安定な差分をadapter層へ押し込み、開発者がworkflow定義に集中できるようにする試みだ。これはmulti-model SDKがprovider差分を吸収したのと同じ発想であり、agent stackの次の競争が「どのmodelを使うか」だけでなく、「どの協業面にどれだけ早く配れるか」に移っていることを示している。もしこの抽象化が機能すれば、bot開発の効率化だけでなく、agentを実際に使われる場所へ配備する速度そのものが変わるはずだ。

ソース: VercelのX投稿 · Vercel Chat SDK発表記事

Share: Long

Related Articles

LLM 6d ago 1 min read

Perplexityは2026年3月11日、search、tool execution、multi-model orchestrationをまとめたAgent APIを発表した。今回の公開によって、Perplexityは単なるanswer interfaceよりも、production agent workflow向けのruntime providerとしての色を強めている。

LLM sources.twitter 19h ago 1 min read

Ollamaは2026年3月18日、MiniMax-M2.7をcloud経由で提供し、Claude CodeとOpenClawから起動できると発表した。Ollamaのライブラリページは、このモデルをcoding・agent workflow・professional productivity向けと位置づけ、SWE-Pro、VIBE-Pro、Terminal Bench 2、GDPval-AA、Toolathonの成績を示している。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.