Anthropic RSP 3.2 발효… LTBT에 외부검증 승인권 추가
Original: Responsible Scaling Policy Updates View original →
Anthropic의 2026년 4월 29일 RSP 3.2 업데이트는 분량으로 보면 짧다. 하지만 권한의 방향을 보면 가볍지 않다. Responsible Scaling Policy 업데이트 페이지에서 회사는 Version 3.2가 발효되며 LTBT가 Risk Report에 대한 external review를 요청할 수 있고, Anthropic이 고른 external reviewer를 승인할 수 있으며, 정기 브리핑을 받는 절차가 공식화됐다고 밝혔다. frontier model 안전정책에서 “누가 보고, 누가 묻고, 누가 바깥 검증을 끌어오나”는 문장 몇 줄이 실제 권한 구조를 바꾸는 경우가 많다. 이번이 그렇다.
맥락도 중요하다. Anthropic의 RSP는 회사가 점점 더 강한 모델을 개발·배치할 때 어떤 위험 평가와 안전장치를 요구할지 정하는 공개 거버넌스 문서다. 그리고 LTBT는 Anthropic이 2023년 소개한 Long-Term Benefit Trust로, AI safety와 국가안보, 공공정책, 사회적 기업 영역 전문성을 가진 독립 신탁기구다. 이번 3.2 개정은 그 LTBT를 단순 자문 창구보다 한 단계 더 실무적인 감시 축으로 밀어 올린다. Risk Report 외부 검토 요청권과 검토자 승인권이 들어오면, 회사 내부 평가만으로 끝내기 어려운 구조가 되기 때문이다.
여기서 눈여겨볼 대목은 “정기 브리핑의 공식화”다. 안전정책은 위기 순간에만 작동하면 늦다. 정기적으로 같은 기구가 보고를 받고 질문하고 외부 검토를 붙일 수 있어야, 위험 신호가 누적되기 전에 관리가 가능하다. Anthropic이 4월 29일 로그에 굳이 이 세 가지를 함께 적어 넣은 이유도 여기에 있다. 단발성 검토보다 지속적 감독, 사후 설명보다 사전 개입 쪽으로 무게를 옮긴 셈이다.
AI 업계 전체로 보면 이 업데이트는 화려한 모델 출시보다 덜 눈에 띄지만, 실제론 더 오래 남을 가능성이 있다. frontier AI 경쟁이 빨라질수록 안전 문서는 선언보다 절차가 중요해진다. 누가 external review를 부를 수 있는지, 누가 reviewer를 승인하는지, 누가 어떤 간격으로 briefing을 받는지가 결국 배치 속도와 리스크 허용 범위를 정한다. Anthropic의 RSP 3.2는 바로 그 절차 언어를 손봤다. 성능 숫자보다 governance 설계가 시장 신뢰를 좌우하는 국면이 이미 시작됐다는 신호다.
Related Articles
Anthropic는 2026년 4월 2일 Responsible Scaling Policy 페이지를 업데이트하며 policy 버전을 3.1로 조정했다. 핵심은 AI R&D threshold 문구를 더 명확히 하고, RSP가 명시적으로 요구하지 않더라도 필요하면 development pause를 선택할 수 있음을 분명히 한 점이다.
Stanford HAI의 새 보고서는 AI의 병목이 모델 성능보다 측정과 거버넌스에 있음을 드러낸다. 2025년 미국 민간 AI 투자는 $285.9 billion까지 뛰었지만, 문서화된 AI incident는 233건에서 362건으로 늘었다.
Anthropic는 powerful AI가 사회에 던질 과제를 다루는 공익 조직 The Anthropic Institute를 출범시켰다. 회사는 이 조직이 technical·economic·social science 관점을 결합해 public conversation을 넓히는 역할을 맡는다고 밝혔다.
Comments (0)
No comments yet. Be the first to comment!