Hacker News、Codexのtoken-based credit pricing移行を議論
Original: Codex pricing to align with API token usage, instead of per-message View original →
Codex rate cardは何が変わったのか
2026年4月5日にHacker Newsで話題になった Codex rate card の変更点は、credit消費の説明が per-message の概算から token type別の計量 に移ったことだ。クロール時点のHNスレッドは 195ポイント、178コメント。OpenAI Help Centerの現行ページでは、Codex利用量を 1M input tokens、1M cached input tokens、1M output tokens あたりのcreditsで示しており、prompt sizeやcache hit、出力量がどのようにcredit消費へ響くかを直接読めるようになっている。
たとえば GPT-5.4 は input 1M tokens あたり 62.50 credits、cached input は 6.250 credits、output は 375 credits。GPT-5.4-Mini は 18.75、1.875、113 credits、GPT-5.1-Codex-mini は 6.25、0.625、50 credits とさらに低い。これは単なる価格表の書き換えではなく、Codexのcredit消費をAPIのtoken accountingに近い感覚で追えるようにする変更だと読める。
ただしlegacy cardも残っている
興味深いのは、OpenAIが現在 2種類のrate cardを並行運用 している点だ。new ChatGPT Business customer と new ChatGPT Enterprise customer は token-based pricing を参照するよう案内される。一方で、既存の Plus/Pro や migration前の Enterprise/Edu は、依然として legacy rate card を使うよう記されている。こちらは local task 1 message、cloud task 1 message、code review 1 pull request といった平均creditベースの表現だ。
細かな条件も重要である。Fast mode は 2倍のcredits を消費する。Code review は GPT-5.3-Codex を使う。GPT-5.3-Codex-Spark は research preview として出ることがあるが、rateはfinalではないと明示されている。OpenAIはworkspace settings内のusage panelで実際のtoken消費を確認するよう案内しており、平均値だけではなく実測ベースで運用する方向を強めている。
なぜ開発チームにとって重要なのか
この変更がHNで関心を集めた理由は、agentic coding toolのコスト感覚を変えるからだ。per-messageの平均値は分かりやすいが、input-heavyな作業、cacheが効く作業、output-heavyな作業の差を隠してしまう。token-based card はその差をむしろ表に出す。cache reuseをうまく設計するteamには有利であり、長い出力やfast mode、automationの多用は以前より見えやすくなる。
要するに今回のrate card更新は、Codexの経済性を「何件やり取りしたか」ではなく「どんなtoken mixを作ったか」で考える方向へ押し進めるものだ。導入を検討するteamにとっては少し複雑になるが、その分だけ実際のworkloadに即したコスト管理がしやすくなる。
Related Articles
OpenAIは2026年3月31日、$122 billionのfunding roundを完了し、post-money valuation $852 billionに達したと発表した。consumer、enterprise、API、Codex、compute accessを1つの成長flywheelとして説明した点が大きな焦点になっている。
TimesFM を扱った Hacker News の投稿は 254 points、95 comments を集め、単なる GitHub リポジトリ紹介ではなく、汎用 time-series foundation model が本当に複数ドメインへ一般化できるのかという議論へ発展した。コメントは TimesFM 2.5 の更新点に加え、trust、explainability、Prophet や Nixtla との比較に集中した。
ARC PrizeによるARC-AGI 3公開直後、r/singularityはinteractive environmentとaction-efficient scoringへの転換に注目した。要点は、frontier AIが未知環境での一般化・探索・計画ではまだ大きく遅れているということだ。
Comments (0)
No comments yet. Be the first to comment!