Google Labs、Opalにagent stepを追加しstatic workflowをagentic AI workflowへ拡張
Original: Google Labs launches agent step in Opal to build agentic AI workflows View original →
Googleは2026年2月24日、Opalに新しいagent stepを導入すると発表した。これは公開初日からすべてのユーザーが利用でき、Googleの表現ではstatic workflowをagentic AI workflowへ変えるための機能だ。従来はユーザーがmodel callを手動で選び、順序も設計する必要があったが、今後はgenerate stepでagentを選び、目標を与えるだけでOpalが必要なtoolsとmodelsを判断して組み合わせる。
Googleはこれをstatic model callsからagentic intelligenceへの移行と説明している。公式記事によれば、agent stepはユーザーの目的を理解し、最適な進め方を考え、必要に応じてresearchにはWeb Search、video用途にはVeoといったtoolやmodelを呼び出す。狙いは、複雑なtaskを自動化するためのmanual configurationを減らすことにある。
- 新しいagent stepはOpalの全ユーザーに提供される。
- Googleはこれをone-way workflowではなくinteractive experienceを作る仕組みとして位置づけている。
- OpalはMemoryも追加し、名前、preferences、running listなどをsessionをまたいで保持できるようになった。
Googleが示したbefore/afterの例はinterior design workflowだ。従来のOpalは部屋の画像とstyle入力を受け取り、再設計した画像を返す一方向の流れに近かった。新しいagent stepを備えたRoom Styler Opalでは、必要なときにユーザーへ追加入力を求めながら、最適なmodelsとtoolsを自ら選ぶため、より協調的なdesign partnerのように振る舞うとされる。
この更新が重要なのは、多くのno-code AI workflow builderが依然として壊れやすいstep chainingに依存しているからだ。Googleはorchestrationの一部をユーザーからagent layerへ移し、multi-step workflowを作りやすくしつつ、runtimeでの適応性も高めようとしている。Memoryの追加は、Opalが一回限りのflowから、より長寿命でpersonalizedなagentへ向かっていることも示す。
今後の分岐点はreliabilityだろう。agent stepが適切なtoolを安定して選び、人間の入力が必要なタイミングを正しく見極められるなら、Opalは単なるprompt wrapperを超える。逆にそうでなければ、複雑さがユーザー画面の外へ移るだけになる。それでも今回の発表は、agenticという概念がdemoからworkflow builderへ移っていることをよく示している。
Related Articles
Googleの2026年2月Geminiアップデートは、Gemini 3.1 Pro、Deep Think、Nano Banana 2、Veo Templates、新しいCanvas機能をまとめて投入した。今回のdropは、Gemini appを単なるchat surfaceではなく、reasoning、image、music、video workflowsの前面インターフェースとして強化する動きだ。
Google DeepMindは2026年3月3日、Gemini 3.1 Flash-Liteを発表し、低価格と高速性を前面に出した。Google AI StudioとVertex AIでpreview提供され、高頻度・低遅延の開発ワークロードを主な対象とする。
Microsoft Researchは2026年2月26日にCORPGENを発表した。実際のオフィス業務を模した高負荷マルチタスク条件で、ベースライン比最大3.5倍の完了率を報告している。
Comments (0)
No comments yet. Be the first to comment!