OpenAIは2026年2月12日、GPT-5.3 Codex Sparkを発表しました。コーディング用途での処理速度とコスト効率を重視し、GPT-5.2比での遅延・トークン費用改善と主要ベンチマークを提示しています。
#llm
r/LocalLLaMAのQwen3.5投稿は123ポイント・13コメントで拡散し、公開ウェイトの即時検証ニーズを再確認させました。リンク先モデルカードでは397B total、17B activated、262,144 native contextなどの主要仕様が明示されています。
r/LocalLLaMAの高反応投稿は、MiniMax-M2.5のHugging Face公開を契機に、量子化・推論基盤・コスト効率といった実装論点へ議論が集中していることを示した。
Show HNで紹介されたOff Gridは、Android/iOS上でチャット、画像生成、Vision、音声認識をクラウド送信なしで実行するオープンソースアプリだ。
Hacker Newsで注目された投稿は、AnthropicとOpenAIのfast modeを比較し、LLMの体感速度を決める要因がモデル性能だけでなく推論基盤設計にあることを示した。
Hacker Newsで注目を集めたGPT-5.3-Codex-Sparkを整理。OpenAI公開情報では1000 tokens/sec超、低遅延化のための推論パイプライン最適化、短い編集ループ志向が中核とされる。
AnthropicがClaude Opus 4.6を発表し、コーディング、長文コンテキスト理解、ナレッジワークで業界最高性能を達成しました。
DeepSeekがコーディング性能に特化した次世代AIモデルV4を2月中旬にリリース予定。100万トークン以上のコンテキストウィンドウとコンシューマー級GPU対応で開発者アクセシビリティを大幅に向上。
研究者が15のLLMのコーディング性能を単一の変更で劇的に改善した。モデルではなく編集ツールを再設計することで、Grok Code Fastの成功率が6.7%から68.3%へ10倍向上した。
中国のGLM-5モデルがIntelligence Indexで50点を記録し、オープンソース大規模言語モデルの中で最高性能を達成しました。