OpenAI, Responses API에 computer environment 추가… shell·container·compaction으로 agent 실행 고도화

Original: From model to agent: Equipping the Responses API with a computer environment View original →

Read in other languages: English日本語
LLM Mar 22, 2026 By Insights AI 1 min read Source

OpenAI의 3월 11일 engineering 글은 Responses API를 단순한 model interface에서 agent execution layer로 확장하는 방향을 보여준다. 핵심은 shell tool과 hosted container를 결합해, 모델이 다음 행동을 제안하고 실행 결과를 확인한 뒤 다시 후속 행동을 선택하는 loop를 API 차원에서 지원하는 것이다. 이 구조는 개발자가 별도 orchestration harness를 직접 만들지 않아도 장기 실행형 workflow를 구성할 수 있게 하는 데 초점을 맞춘다.

source 글이 다루는 문제는 agent를 실제 서비스에 넣을 때 생기는 운영 이슈다. intermediate file을 어디에 둘지, 큰 표를 prompt에 직접 붙이지 않고 어떻게 다룰지, network access를 열면서도 security headache를 피할 수 있을지, timeout과 retry를 어떻게 처리할지 같은 문제를 Responses API와 container runtime이 대신 맡는 구조다. OpenAI에 따르면 모델이 제안한 명령은 filesystem, optional SQLite storage, restricted network access를 갖춘 isolated workspace에서 실행된다. 또한 GPT-5.2 이후 모델은 이런 shell command 제안을 하도록 학습돼 있다.

실행 방식도 구체적이다. Responses API는 shell output을 near real time으로 다시 모델에 전달해 다음 결정을 돕고, 여러 shell session을 병렬로 실행해 검색·검증·데이터 조회를 동시에 처리할 수 있다. 길어진 tool log가 context를 잠식하지 않도록 output cap도 적용한다. 여기에 native compaction까지 더해 long-running task가 context limit에 닿아도 핵심 상태만 token-efficient하게 유지하며 계속 실행할 수 있도록 설계했다.

보안과 운영 포인트

  • hosted container는 sidecar egress proxy를 통해 outbound request를 allowlist와 access control 아래에서 처리한다.
  • credential은 approved destination 기준으로 egress 시점에 domain-scoped secret injection을 적용해 raw secret이 model-visible context에 남지 않도록 했다.
  • OpenAI는 큰 입력을 prompt에 밀어 넣기보다 container file system과 database를 먼저 정리한 뒤 필요한 데이터만 읽게 하는 방식을 권장했다.

이 글의 의미는 OpenAI가 agent 시대의 경쟁력을 모델 성능만으로 보지 않는다는 점에 있다. Responses API는 이제 단순한 text interface가 아니라, state 유지, tool 실행, security control, context management를 묶은 managed runtime 방향으로 진화하고 있다. agent product를 실제 운영 환경에 올리려는 개발팀에게는 상당히 중요한 설계 변화다.

Share: Long

Related Articles

LLM sources.twitter 9h ago 1 min read

OpenAI Developers는 2026년 3월 21일 skills·hosted shell·code interpreter용 컨테이너 기동이 새 container pool 덕분에 약 10배 빨라졌다고 밝혔다. 업데이트된 hosted shell 문서는 `container_auto`와 `container_reference`를 통해 활성 컨테이너를 재사용할 수 있고, 20분 비활성 상태 후 만료된다고 설명한다.

LLM sources.twitter Mar 11, 2026 2 min read

OpenAI Developers는 2026년 3월 11일 글에서 Responses API가 장시간 agent workflow를 처리하기 위해 hosted computer environment를 어떻게 구성했는지 설명했다. 핵심은 shell execution, hosted container, 통제된 network access, reusable skills, 그리고 native compaction이다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.