Cohereがインド AI サミットで「Tiny Aya」を発表。33.5億パラメータのオープンウェイトモデルで70以上の言語をサポートし、インターネット接続なしにノートPCで実行可能。MIT ライセンスで商用利用も自由だ。
#open-source
ESP32マイクロコントローラ上でわずか888KB未満で動作するClaw系パーソナルAIアシスタント「zclaw」がGitHubで公開されました。Hacker Newsで161ポイントを獲得し、エッジAIの可能性を示しています。
CPU RAMを完全にバイパスし、NVMe SSDからGPUへ直接ウェイトをストリーミングすることで、単体の消費者向けGPU(RTX 3090)でLlama 3.1 70Bを動作させるオープンソースプロジェクト「ntransformer」が公開されました。
Andrej KarpathyがOpenClaw的なAIエージェントシステムの新カテゴリ「Claws」を命名。LLMエージェントがLLMの新レイヤーだったように、ClawsはLLMエージェントの上でオーケストレーション・スケジューリング・永続的コンテキスト管理を担う新レイヤーです。
Alibabaは2月16日にQwen 3.5をApache 2.0で公開した。3970億パラメータ(アクティブ170億)のスパースMoEアーキテクチャ、256Kコンテキスト、ネイティブマルチモーダル対応を備え、GPT-5.2と同等のベンチマーク性能を主張する。
LocalLLaMAで高評価を集めたKittenTTS v0.8投稿は、80M/40M/14Mモデル構成、Apache-2.0ライセンス、ローカルCPU実行を前提にした配備方針を共有した。
Hacker Newsで高い反応を集めた投稿は、ggml-org/llama.cppの告知 #19759 を共有した。ggml.ai中核チームはHugging Faceに参加する一方、ggml/llama.cppは引き続きオープンソースかつコミュニティ主導で運営されると説明している。
LocalLLaMAの高反応投稿でKitten TTS v0.8が注目を集めた。80M/40M/14Mの公開モデルとCPU実行、最小25MB未満という軽量性が論点になっている。
LocalLLaMAで注目されたPR #19726は、ik_llama.cppのIQ*_K量子化経路をmainline llama.cppへ移植する初期提案で、CPU backend実装と初期KLD比較を示した。
Hacker Newsで高い反応を得たStep 3.5 Flashは、196B total parameterと約11B active parameterのMoE foundation modelとして公開され、256K contextとcoding/agent指標を前面に出した。
NVIDIAは2026年2月12日、主要推論プロバイダーがBlackwell上のopen-sourceモデル運用でtoken costを大幅に下げていると発表した。記事では医療、ゲーム、企業サポートの具体的な運用指標が示されている。
2026-02-18のr/gamedev高反応投稿は、Godot保守チームがAI-generatedコード提案の急増で審査負荷が上がっているという報道を共有しました。オープンソースゲームエンジン運営の品質課題を示す事例です。