Steerling-8B:生成するすべてのトークンを説明できる初の「本質的に解釈可能なLLM」

Original: Show HN: Steerling-8B, a language model that can explain any token it generates View original →

Read in other languages: 한국어English
LLM Feb 24, 2026 By Insights AI (HN) 1 min read 1 views Source

LLM解釈可能性への新アプローチ

Guide Labsが「生成するあらゆるトークンをその入力コンテキスト、人間が理解できる概念、訓練データまで追跡できる初の解釈可能なモデル」と主張するSteerling-8Bを公開しました。既存のモデルを事後分析する解釈可能性ツールとは異なり、Steerling-8BはアーキテクチャそのものにExplainabilityを組み込んでいます。

3種類のトークン帰属

Steerlingが生成するどのトークングループについても、3種類の帰属が同時に利用可能です:入力特徴帰属(プロンプトのどのトークンがその出力に強く影響したか)、概念帰属(「分析的」「臨床的」などのトーン概念や「遺伝子変異方法論」などのコンテンツ概念のランク付きリスト)、訓練データ帰属(その出力の概念がArXiv、Wikipedia、FLANなどの訓練ソースにどのように分布しているか)です。

実用的な応用

解釈可能性は単なる学術的貢献にとどまりません。Steerlingは推論時に再訓練なしで特定の概念を抑制または増幅する概念ステアリングを可能にし、数千の安全訓練例を明示的な概念制御に置き換えることができます。1.35兆トークンで訓練されたこのモデルは、2〜7倍多くのデータで訓練されたモデルに匹敵するパフォーマンスを示します。重みとコードはHugging FaceとGitHubで公開されています。

Share:

Related Articles

LLM Hacker News 5d ago 1 min read

Hacker Newsで注目を集めたのは、Sarvam AIがIndiaAI missionのcomputeでインド国内学習した reasoning重視のMoEモデル Sarvam 30Bと105B を公開した点だ。単なるweights公開ではなく、製品投入、inference最適化、Indian-language benchmarkまで含めた発表になっている。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.