Cohere、70以上の言語対応オープンウェイトモデル「Tiny Aya」発表 — オフラインでも動作可能
概要
Cohereは2026年2月17日のインドAIサミットでTiny Ayaを発表した。インターネット接続なしに一般的なノートPCで動作可能な小型オープンウェイト多言語モデルのファミリーで、英語中心のAIツールが普及していない地域での言語アクセシビリティ向上を目指している。
モデル仕様
- パラメータ数: 33.5億(3.35B)
- ライセンス: オープンウェイト(MIT)
- 学習環境: 64枚のH100 GPU単一クラスター
- 対応言語数: 70以上
地域特化モデル
Cohereは地域別にファインチューニングされたバリアントをリリースした。
- TinyAya-Fire: 南アジア言語(ヒンディー語・ウルドゥー語・ベンガル語・パンジャブ語・グジャラート語・タミル語・テルグ語・マラーティー語)
- TinyAya-Earth: アフリカ言語群
- TinyAya-Water: アジア太平洋・西アジア・ヨーロッパ言語群
入手方法
モデルはHuggingFace、Kaggle、Ollamaでダウンロード可能で、Cohereプラットフォーム経由のAPIアクセスにも対応している。わずか64枚のH100 GPUで学習を完了した効率的な開発プロセスも注目されている。
Source: TechCrunch
Related Articles
r/LocalLLaMAで注目を集めた投稿は、llama-swapを使ってローカルLLMの多モデル運用を整理した具体例を共有。単一バイナリ、YAML設定、systemd運用、パラメータフィルタが実務上の利点として語られた。
LocalLLaMAで大きく取り上げられたSarvam AIの発表は、Apache 2.0のreasoning modelであるSarvam 30BとSarvam 105Bを公開するものだ。会社は両モデルがIndiaでscratchから学習され、Mixture-of-Experts設計を土台にreasoning、coding、agentic workflow、Indian-language性能を狙ったと説明している。
Ollama 0.17が2月22日にリリース。llama.cppサーバーモードに代わる独自推論エンジンを導入し、NVIDIA GPUでプロンプト処理最大40%、トークン生成18%の高速化を実現。マルチGPUテンソル並列処理の改善とAMD RDNA 4サポートも追加。
Comments (0)
No comments yet. Be the first to comment!