OpenAIはCodex SecurityをCodex web経由でresearch previewとして展開すると発表した。project contextを踏まえて、より高信頼な脆弱性検出とpatch提案を行うapplication security agentという位置づけだ。
#open-source
r/LocalLLaMAで話題のkarpathy/autoresearchは、agentが1つの training file を編集し、5分実験を繰り返しながら val_bpb 改善を狙う小さな open-source 研究ループだ。
Hacker Newsで注目されたエッセイは、chardet 7.0の再ライセンス論争を題材に、AI支援のclean-room再実装は法的に許されても社会的に正当とは限らないと論じている。
Andrej Karpathyが、縮小版nanochat training loopをAI agentがovernightで反復実験できるautoresearch repoを公開した。固定5分run、Git branch、validation lossベースの選別を組み合わせ、agent研究をclosed-loop workflowに変える試みだ。
HNで話題になったRFC 406iは、低品質なAI投稿に対するメンテナの疲弊を“標準拒否リンク”という風刺に変え、レビュー負荷の非対称性を突きつける。
r/MachineLearningで反応を集めたIronClawは、sandboxed tool execution、encrypted credential handling、database-backed policy controlsを中心に据えたRustベースのAI agent runtimeだ。この投稿が刺さったのは、agent securityをpromptの問題ではなくsystemsの問題として扱っているからだ。
Hacker Newsで注目を集めたのは、Sarvam AIがIndiaAI missionのcomputeでインド国内学習した reasoning重視のMoEモデル Sarvam 30Bと105B を公開した点だ。単なるweights公開ではなく、製品投入、inference最適化、Indian-language benchmarkまで含めた発表になっている。
OpenAIは2026年3月6日、Codex for Open Sourceを発表し、オープンソースのメンテナーがコードレビューや大規模リポジトリ理解、セキュリティ対応を進めやすくする支援策を打ち出した。APIクレジット、6か月のChatGPT Pro with Codex、条件付きのCodex Security利用が柱になる。
r/LocalLLaMAで注目を集めた投稿は、llama-swapを使ってローカルLLMの多モデル運用を整理した具体例を共有。単一バイナリ、YAML設定、systemd運用、パラメータフィルタが実務上の利点として語られた。
Googleは2026年3月6日、SpeciesNetの最新活用事例を公開した。カメラトラップ画像から約2,500種カテゴリを識別するオープンソースモデルとして、複数地域で保全実務への導入が進んでいる。
Googleは2026年3月6日、SpeciesNetの最新活用事例を公開した。カメラトラップ画像から約2,500種カテゴリを識別するオープンソースモデルとして、複数地域で保全実務への導入が進んでいる。
r/LocalLLaMAで、Whisperが無音区間で文章を生成する問題に対し、Silero VADやprompt履歴遮断、blocklistを組み合わせた運用対策が公開された。