Hacker News, Codex의 token-based credit pricing 전환을 주목

Original: Codex pricing to align with API token usage, instead of per-message View original →

Read in other languages: English日本語
AI Apr 6, 2026 By Insights AI (HN) 2 min read Source

무엇이 바뀌었나

2026년 4월 5일 Hacker News에서 주목받은 Codex rate card 변경의 핵심은, credit 소비를 더 이상 대략적인 per-message 평균치로만 설명하지 않고 token type별 계량으로 전환했다는 점이다. 관련 HN 토론은 크롤링 시점에 195점, 178개 댓글을 기록했다. OpenAI Help Center의 최신 문서는 Codex usage를 1M input tokens, 1M cached input tokens, 1M output tokens당 credit로 제시하며, 입력·cache hit·출력 비중이 실제 credit 소모를 어떻게 바꾸는지 직접 읽을 수 있게 했다.

문서에 따르면 예를 들어 GPT-5.4 는 input 1M tokens당 62.50 credits, cached input은 6.250 credits, output은 375 credits다. GPT-5.4-Mini 는 각각 18.75, 1.875, 113 credits이고, GPT-5.1-Codex-mini6.25, 0.625, 50 credits로 더 낮다. 이 표기는 API pricing과 더 직접적으로 대응되며, 어떤 workload가 input-heavy인지 output-heavy인지, cache를 얼마나 잘 활용하는지에 따라 체감 비용이 달라진다는 점을 명확히 보여준다.

여전히 legacy rate card가 남아 있다

중요한 점은, 새 체계가 모든 사용자에게 한꺼번에 적용되는 것은 아니라는 것이다. Help Center 문서는 new ChatGPT Business customersnew ChatGPT Enterprise customers 는 token-based pricing을 사용해야 한다고 적고 있다. 반면 existing Plus/ProEnterprise/Edu 계정은 migration 전까지 legacy rate card를 계속 참고해야 한다. legacy 표는 local task 1 message, cloud task 1 message, code review 1 pull request 같은 평균 credit 단위로 남아 있고, migration timing은 release note나 admin 공지로 안내된다고 되어 있다.

추가 주의사항도 있다. Fast mode는 2배 credits 를 쓰며, code review는 GPT-5.3-Codex 를 사용한다. 또 GPT-5.3-Codex-Spark 는 research preview로 제공될 수 있지만 rate는 final이 아니라고 명시돼 있다. 문서는 workspace usage panel에서 token usage를 직접 확인하라고 안내한다. 즉 비용 통제의 기준점이 “메시지 하나당 대략 얼마”에서 “입력·cache·출력 구조가 어떤가”로 옮겨가고 있는 셈이다.

왜 실무팀이 관심을 가질 만한가

이 변화는 billing 투명성을 높이는 동시에 운영 난이도를 조금 올린다. message 단위 평균치는 대략적 계획에는 편하지만, agentic workflow처럼 prompt prefix가 길고 cache hit가 중요한 작업에서는 실제 비용 구조를 흐린다. 반면 token-based card는 cache를 잘 설계한 team에 유리하고, output-heavy automation이나 fast mode 남용의 비용도 더 직접적으로 드러낸다. HN에서 논의가 길었던 이유도 여기에 있다. model choice만이 아니라 prompt shape, cache reuse, review workload, automation frequency까지 모두 credit planning의 변수로 올라오기 때문이다.

결국 이번 rate card는 Codex pricing을 API-style metering에 더 가깝게 맞추는 조정으로 볼 수 있다. Codex를 팀 단위로 도입하려는 조직에게는, 앞으로 “몇 메시지 썼는가”보다 “어떤 token mix를 만들었는가”가 더 중요한 운영 지표가 될 가능성이 크다.

출처: OpenAI Codex rate card, Hacker News 토론

Share: Long

Related Articles

AI sources.twitter 5d ago 2 min read

Meta는 2026년 3월 27일 SAM 3.1을 SAM 3의 drop-in update로 공개하며 object multiplexing으로 video processing efficiency를 높였다고 밝혔다. 프로젝트 release note에 따르면 이 업데이트는 shared-memory 기반 joint multi-object tracking, 새 checkpoint, 그리고 2025년 11월 공개된 SAM 3 대비 single H100에서 object 128개 기준 약 7배 속도 향상을 포함한다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.