Perplexity, frontier AI security 연구를 위한 Secure Intelligence Institute 출범
Original: Today, we're launching the Secure Intelligence Institute. SII partners with top cryptography, security, and ML teams to advance security research and industry collaboration. It is led by Dr. Ninghui Li at Purdue. https://www.perplexity.ai/secure-intelligence-institute View original →
Perplexity가 발표한 내용
2026년 3월 31일, Perplexity는 Secure Intelligence Institute, 줄여서 SII를 출범한다고 밝혔다. 회사는 이 조직의 목적을 leading-edge AI system의 security, trustworthiness, 그리고 practical defense 연구로 설명했다. 발표 방식도 흥미롭다. 단발성 논문 발표가 아니라 research program이자 industry collaboration vehicle로 포지셔닝하고 있기 때문이다.
시점 역시 중요하다. Frontier AI security 논의가 추상적인 원칙 수준에서 agent, browser, tool, autonomous workflow의 구체적 시스템 설계 문제로 이동하고 있기 때문이다. Perplexity는 SII를 policy commentary에 머무는 조직이 아니라, production system 개선으로 다시 연결되는 연구 허브로 제시하고 있다.
Institute 페이지가 보여 주는 구조
Perplexity는 SII가 internal research와 academic collaboration을 함께 추진한다고 설명한다. Institute 페이지에 따르면 이 작업은 통제된 환경과 open-world 환경 모두에서 millions of users와 thousands of enterprises가 사용하는 general-purpose AI system을 운영해 온 Perplexity의 경험에 기반한다. 이 점은 SII가 이론적 분석만이 아니라 실제 운영 노출 위에 서 있음을 보여 준다.
페이지는 또 Purdue University의 Samuel D. Conte Professor of Computer Science인 Dr. Ninghui Li를 SII의 inaugural director로 명시한다. 연구 네트워크에는 cryptography, usable privacy and security, robust machine learning, trustworthy AI 분야의 academic group이 포함되며, 페이지에는 Dan Boneh와 Neil Gong 같은 이름도 등장한다.
초기 연구 신호
Institute 페이지는 이미 몇 가지 구체적 산출물을 연결하고 있다. 하나는 BrowseSafe로, Perplexity는 이를 emerging AI-native web을 위한 open-source benchmark이자 content-detection model로 설명한다. 소개에 따르면 이 benchmark는 14,700개 이상 real-world attack scenario와 14개 harm category를 포함한다.
또 다른 핵심은 NIST Agent Security RFI 논문이다. 연결된 arXiv 논문은 이것이 NIST/CAISI Request for Information 2025-0035에 대한 Perplexity 응답을 바탕으로 다듬은 버전이라고 설명한다. Abstract는 AI agent가 code-data separation, authority boundary, execution predictability에 대한 기존 가정을 바꾸며, tool, connector, hosting boundary, multi-agent coordination 전반의 attack surface를 새로 드러낸다고 말한다. 특히 indirect prompt injection, confused-deputy behavior, 장시간 workflow의 cascading failure를 주요 위험으로 짚는다.
왜 중요한가
더 큰 신호는 product company 내부에서 AI security 연구가 점점 institute 형태를 띠기 시작했다는 점이다. Security 관련 paper를 여러 팀에 흩어 놓는 대신, benchmark 개발, policy engagement, production engineering, academic collaboration을 하나의 이름 있는 조직 아래 묶고 있다.
이번 출범에서 읽히는 메시지는 Perplexity가 agentic product 확장과 함께 security를 경쟁력과 governance narrative의 핵심 축으로 만들고 싶어 한다는 것이다. 물론 실제 과제는 institute가 branding을 넘어서 재사용 가능한 defense와 의미 있는 standard를 내놓느냐에 있다. 그럼에도 이번 발표는 live product 운영 경험, 공개 benchmark, 정책 입력, academic network를 한 프레임에 연결했다는 점에서 고신호 업데이트다.
출처: Perplexity X 게시물 · Secure Intelligence Institute · NIST agent security 논문
Related Articles
GitHub repo와 arXiv paper가 관심을 끈 이유는 self-improvement를 슬로건이 아니라 editable code loop로 보여주기 때문이다. task agent와 meta agent가 하나의 program 안에서 함께 바뀐다.
Perplexity는 Enterprise 제품군의 대형 업그레이드로 Computer for Enterprise를 공개했다. 이 기능은 직원이 웹사이트와 내부 웹 앱을 넘나드는 장기 작업을 맡길 수 있게 하면서도 audit log, SAML, RBAC 같은 기업 통제를 함께 제공한다.
Perplexity는 이제 Perplexity Computer를 텍스트뿐 아니라 음성으로도 조종할 수 있다고 밝혔다. 진행 중인 작업을 말로 수정하고 방향을 바꾸는 spoken control loop가 web 기반 agent workflow에 들어온 셈이다.
Comments (0)
No comments yet. Be the first to comment!