Perplexity、frontier AI security研究のための Secure Intelligence Institute を立ち上げ
Original: Today, we're launching the Secure Intelligence Institute. SII partners with top cryptography, security, and ML teams to advance security research and industry collaboration. It is led by Dr. Ninghui Li at Purdue. https://www.perplexity.ai/secure-intelligence-institute View original →
Perplexityが発表した内容
2026年3月31日、PerplexityはSecure Intelligence Institute、略してSIIを立ち上げると発表した。目的はleading-edge AI systemのsecurity、trustworthiness、そしてpractical defenseの研究だと説明している。位置づけも明確で、単発の研究発表ではなく、research programとindustry collaborationの基盤として打ち出している。
このタイミングは重要だ。Frontier AI securityの議論が、抽象的な原則論から、agent、browser、tool、autonomous workflowといった具体的なシステム設計の問題へ移っているからだ。PerplexityはSIIを、policy commentaryにとどまらず、production systemの改善へ戻していく研究拠点として提示している。
Instituteページが示すもの
Perplexityによれば、SIIはinternal researchとacademic communityとの協力を組み合わせてAI securityを前進させる。Instituteページは、この取り組みが、millions of usersとthousands of enterprisesに使われるgeneral-purpose AI systemを、controlled environmentとopen-world environmentの両方で運用してきた経験に支えられていると述べている。これは理論研究だけでなく、現実の運用条件が土台になっていることを意味する。
ページでは、Purdue UniversityのSamuel D. Conte Professor of Computer ScienceであるDr. Ninghui LiがSIIのinaugural directorだと明記されている。さらに研究ネットワークには、cryptography、usable privacy and security、robust machine learning、trustworthy AIの分野のacademic groupが含まれ、Dan BonehやNeil Gongの名前も挙がっている。
初期の研究シグナル
Instituteページはすでに具体的な研究出力を示している。ひとつはBrowseSafeで、PerplexityはこれをAI-native web向けのopen-source benchmark兼content-detection modelとして説明する。紹介文では、14,700件超のreal-world attack scenarioと14のharm categoryを含むとしている。
もうひとつの柱がNIST Agent Security RFI論文だ。リンク先のarXiv論文は、これがNIST/CAISI Request for Information 2025-0035に対するPerplexityの回答を軽く改稿したものだと説明している。Abstractでは、AI agentがcode-data separation、authority boundary、execution predictabilityに関する前提を変え、tool、connector、hosting boundary、multi-agent coordination全体に新しいattack surfaceを生むと論じる。特にindirect prompt injection、confused-deputy behavior、長時間workflowにおけるcascading failureを重要なリスクとして挙げている。
なぜ重要か
より大きなシグナルは、product companyの中でAI security研究がinstitutionの形をとり始めていることだ。Security paperを個別チームに散らすのではなく、benchmark開発、policy engagement、production engineering、academic collaborationを一つの名前の下に束ねている。
今回の立ち上げから読み取れるのは、Perplexityがagentic productの拡大に合わせてsecurityを競争力とgovernance narrativeの中心に据えようとしていることだ。もちろん、本当の評価はこのinstituteがbranding以上のものになり、再利用可能なdefenseや意味のあるstandardにつながるかにある。それでも、live productの運用経験、公開benchmark、政策への入力、academic networkを一つに結んだ今回の発表は、十分に高シグナルな更新といえる。
出典: Perplexity X投稿 · Secure Intelligence Institute · NIST agent security論文
Related Articles
GitHub repoとarXiv paperが注目されたのは、self-improvementをスローガンではなくeditableなcode loopとして見せたからだ。task agentとmeta agentが一つのprogramに入り、改善手続きそのものも書き換えられる。
2026年3月のr/singularityで203 pointsと82 commentsを集めた投稿は、SymbolicaのAgentica SDKがARC-AGI-3で未検証の36.08%を記録したという主張に注目した。主要な数字は、182のplayable level中113を解き、25ゲーム中7つを完了し、chain-of-thought baselineよりかなり低い報告コストだった。
NISTは2026年2月17日、Center for AI Standards and InnovationがAI Agent Standards Initiativeを開始すると発表した。この取り組みはautonomous AI systemの普及に向け、技術標準、open protocol、agent securityとidentityの研究を同時に進める。
Comments (0)
No comments yet. Be the first to comment!