Google Labs、Opalにagent stepを追加しstatic workflowをagentic AI workflowへ拡張
Original: Google Labs launches agent step in Opal to build agentic AI workflows View original →
Googleは2026年2月24日、Opalに新しいagent stepを導入すると発表した。これは公開初日からすべてのユーザーが利用でき、Googleの表現ではstatic workflowをagentic AI workflowへ変えるための機能だ。従来はユーザーがmodel callを手動で選び、順序も設計する必要があったが、今後はgenerate stepでagentを選び、目標を与えるだけでOpalが必要なtoolsとmodelsを判断して組み合わせる。
Googleはこれをstatic model callsからagentic intelligenceへの移行と説明している。公式記事によれば、agent stepはユーザーの目的を理解し、最適な進め方を考え、必要に応じてresearchにはWeb Search、video用途にはVeoといったtoolやmodelを呼び出す。狙いは、複雑なtaskを自動化するためのmanual configurationを減らすことにある。
- 新しいagent stepはOpalの全ユーザーに提供される。
- Googleはこれをone-way workflowではなくinteractive experienceを作る仕組みとして位置づけている。
- OpalはMemoryも追加し、名前、preferences、running listなどをsessionをまたいで保持できるようになった。
Googleが示したbefore/afterの例はinterior design workflowだ。従来のOpalは部屋の画像とstyle入力を受け取り、再設計した画像を返す一方向の流れに近かった。新しいagent stepを備えたRoom Styler Opalでは、必要なときにユーザーへ追加入力を求めながら、最適なmodelsとtoolsを自ら選ぶため、より協調的なdesign partnerのように振る舞うとされる。
この更新が重要なのは、多くのno-code AI workflow builderが依然として壊れやすいstep chainingに依存しているからだ。Googleはorchestrationの一部をユーザーからagent layerへ移し、multi-step workflowを作りやすくしつつ、runtimeでの適応性も高めようとしている。Memoryの追加は、Opalが一回限りのflowから、より長寿命でpersonalizedなagentへ向かっていることも示す。
今後の分岐点はreliabilityだろう。agent stepが適切なtoolを安定して選び、人間の入力が必要なタイミングを正しく見極められるなら、Opalは単なるprompt wrapperを超える。逆にそうでなければ、複雑さがユーザー画面の外へ移るだけになる。それでも今回の発表は、agenticという概念がdemoからworkflow builderへ移っていることをよく示している。
Related Articles
Google DeepMindは2026年3月3日、Gemini 3.1 Flash-Liteを発表し、低価格と高速性を前面に出した。Google AI StudioとVertex AIでpreview提供され、高頻度・低遅延の開発ワークロードを主な対象とする。
Google AIはGemini 3.1 Flash-Liteの実運用例として、大量画像の仕分けや業務自動化シナリオを紹介した。Gemini API、Google AI Studio、Vertex AIのpreview導線も同時に示された。
Google DeepMindはGemini 3.1 Flash-LiteがGemini APIとGoogle AI Studioでpreview提供されると発表した。同社はこれを最もcost-efficientなGemini 3 modelと位置づけ、低価格・高速性能・調整可能なthinking levelsを強調している。
Comments (0)
No comments yet. Be the first to comment!