OpenAI, AI abuse와 agentic risk 겨냥한 공개 Safety Bug Bounty 시작
Original: Introducing the OpenAI Safety Bug Bounty program View original →
OpenAI는 2026년 3월 25일 Bugcrowd를 통해 공개 Safety Bug Bounty 프로그램을 시작한다고 밝혔다. 기존 Security Bug Bounty가 전통적인 보안 취약점에 초점을 맞췄다면, 이번 프로그램은 AI abuse와 safety risk처럼 실제 피해로 이어질 수 있지만 전형적인 software vulnerability로 분류되기 어려운 문제를 제보받는 통로다.
어떤 제보를 받는가
공개된 범위의 핵심은 AI 특화 시나리오다. 가장 눈에 띄는 항목은 agentic risk와 MCP 관련 이슈다. OpenAI는 Browser, ChatGPT Agent 같은 agentic product에서 공격자 텍스트가 피해자의 agent를 가로채 harmful action을 유도하거나 민감 정보를 유출시키는 prompt injection, data exfiltration 사례를 접수하겠다고 설명했다. 유효 제보가 되려면 해당 동작이 최소 50% 이상 재현되어야 한다.
또한 OpenAI 웹사이트에서 agentic product가 대규모로 disallowed action을 수행하는 경우, 또는 다른 유형의 potentially harmful action이 plausibly material harm으로 이어지는 경우도 범위에 포함했다. reasoning과 관련된 proprietary information 노출, 기타 OpenAI proprietary information 노출, anti-automation control 우회, account trust signal 조작, suspension 또는 ban 회피 같은 account and platform integrity 문제도 신고 대상이다.
무엇은 제외되나
OpenAI는 일반적인 jailbreak 제보는 이번 공개 프로그램의 범위 밖이라고 선을 그었다. 명확한 safety impact나 abuse path가 없는 content-policy bypass는 보상 대상이 아니며, 일부 biorisk content 이슈처럼 별도 private campaign으로 다루는 영역도 있다고 설명했다. MCP 관련 테스트는 관련 third party 서비스 약관을 준수해야 한다는 조건도 붙였다.
왜 중요한가
이번 변화의 의미는 policy 위반과 보안 취약점 사이에 놓여 있던 AI safety failure를 공식적으로 접수하는 창구가 생겼다는 점이다. OpenAI는 제보를 Safety Bug Bounty 팀과 Security Bug Bounty 팀이 함께 triage하고 필요하면 서로 다른 프로그램으로 reroute하겠다고 밝혔다. AI system이 사용자 대신 더 많은 행동을 수행할수록 model behavior, agent tooling, platform control이 한데 얽히기 때문에, 이러한 공개 제보 구조는 운영 측면에서도 중요해지고 있다.
Related Articles
OpenAI는 X에서 Safety Fellowship을 소개했고, 2026년 4월 6일 공식 글에서 외부 연구자와 실무자를 위한 safety·alignment 프로그램 세부 내용을 공개했다. 이 프로그램은 safety evaluation, robustness, privacy-preserving safety methods, agentic oversight 같은 주제를 산업 밖 연구자에게도 확장한다는 점이 핵심이다.
OpenAI는 2026년 4월 10일 Axios package compromise가 자사 macOS app-signing GitHub Actions workflow에 영향을 줬다고 밝혔다. 회사는 사용자 데이터나 시스템, 배포 소프트웨어의 침해 증거는 없다고 했지만, macOS 사용자는 2026년 5월 8일 전에 새 certificate로 서명된 build로 업데이트해야 한다고 안내했다.
OpenAI는 March 25, 2026에 AI abuse와 safety risk를 겨냥한 공개 Safety Bug Bounty를 시작했다. 기존 Security Bug Bounty가 다루기 어려웠던 agentic misuse, prompt injection, data exfiltration 같은 AI 특화 이슈를 별도 채널로 받겠다는 의미다.
Comments (0)
No comments yet. Be the first to comment!