PaperQA3、150M超の論文・特許を読むEdisonの科学deep-research agentへ拡張
Original: ICYMI 🔬 @edisonsci is redefining scientific discovery. PaperQA3 can now reason across 150M+ research papers & patents and achieved industry-leading accuracy on the LABBench2 benchmark. See how AI accelerates deep research for science: https://edisonscientific.com/articles/edison-literature-agent View original →
NVIDIA AI DevがXで紹介した内容
2026年3月27日、NVIDIA AI DevはEdison ScientificのPaperQA3を取り上げ、このシステムが150M+の研究論文と特許を対象に推論し、LABBench2で強い精度を示したと述べた。研究支援agentが増えている中でも、この主張が重要なのは、実際の科学業務の難所がテキストだけでは完結しないからだ。
研究者は膨大な文献からfigure、table、方法、数値結果を突き合わせなければならない。そうした視覚的証拠を読めないagentは、最も重要な場面で限界を見せやすい。
Edisonの記事が補足した点
Edisonの公式記事は、PaperQA3をfrontier multimodal deep research agent for scienceとして紹介する。記事によれば、Edison LiteratureとKosmosは現在、1億5千万超の研究論文と特許からfiguresとtablesを読み取ることができ、回答前に数百の視覚要素を解析し比較できる。Edisonはこれを、検索結果から得たテキスト中心だったPaperQA2からの大きな前進と位置づけている。
性能面の説明も比較的具体的だ。Edisonは、更新後のシステムが関連するLABBench2 subsetと2つの Humanity's Last Exam variant で、現在のfrontier deep-research agentを上回る水準にあると説明する。さらに、PaperQA3を使ったバージョンがすでに同社のplatformとAPIで利用可能だとしており、研究プレビューではなく実装可能な製品更新であることを示している。
なぜ重要か
この発表がscienceとAI toolingの両方で高信号なのは、multimodal readingが研究agentの実力範囲そのものを変えるからだ。重要な科学情報はchart、microscopy image、benchmark table、ablation plot、supplementary visualに埋まっていることが多い。これらをテキストと合わせて読めることは、実際の文献レビューにかなり近い能力を意味する。
より大きな流れとして、deep-research製品は汎用的なWeb要約から、領域特化のreasoning systemへ移りつつある。Edisonのbenchmarkと規模の主張が実運用でも再現されるなら、PaperQA3は科学assistantの基準を一段引き上げる可能性がある。関連論文を探すだけでなく、文献の視覚構造そのものから証拠を取り出す段階に入りつつあるからだ。
Related Articles
Anthropicは2026年3月23日、AIが研究実務とscientific discoveryをどう変えるかに焦点を当てたScience Blogを立ち上げると発表した。新しいblogはfeature、workflow guide、field noteを通じてAnthropicのAI-for-science戦略を継続的なプログラムとして見せている。
Googleは2026年2月12日、Gemini 3 Deep Thinkの大規模アップグレードを発表した。Google AI Ultra加入者はGemini appで利用でき、researchers・engineers・enterprisesはGemini API early accessを申請できる。
Google Researchは2026年3月16日、high-temperature superconductivityに関する67問で6つのLLM系システムを評価した結果を公表した。NotebookLMやcustom RAGのようにcurated referenceを使う構成が、open-web型モデルを上回った。
Comments (0)
No comments yet. Be the first to comment!