미 상무부 CAISI, Google·Microsoft·xAI와 AI 사전 안전 검증 협정
공개 전 평가 체계의 제도화
미국 국립표준기술연구원(NIST) 산하 인공지능표준혁신센터(CAISI, 구 AI안전연구소)가 5월 5일 Google DeepMind, Microsoft, xAI와 프런티어 AI 모델의 사전 배포 평가 협정을 체결했다고 발표했다. OpenAI와 Anthropic은 트럼프 행정부의 AI 행동계획에 맞게 기존 협정을 재협상했다.
이번 협정에 따라 CAISI는 세 기업의 AI 모델을 공개 전에 평가하고, 배포 후 지속 모니터링 및 AI 보안 위험 관련 연구도 수행한다. 일부 모델은 기밀 환경에서 평가되며, 개발사들은 안전 장치가 줄어든 버전을 제출하기도 한다.
사이버·바이오·화학 위협이 핵심 평가 대상
CAISI는 사이버 보안, 바이오 보안, 화학 무기 관련 입증 가능한 위험에 집중한다. Howard Lutnick 상무장관의 지시 아래 CAISI는 AI 분야에서 미국 정부의 산업계 주요 창구로 지정됐다. 현재까지 미공개 모델을 포함해 40건 이상의 평가를 완료했다.
AISI에서 CAISI로 — 안전에서 표준으로
바이든 행정부 시절 설립된 미국 AI 안전 연구소(AISI)는 트럼프 행정부 들어 CAISI로 명칭이 바뀌었다. 안전(safety) 중심에서 표준(standards)과 혁신(innovation) 중심으로 임무가 재조정됐으며, 영국 AI안전연구소와의 국제 협력은 계속된다.
출처: NIST, SiliconAngle
Related Articles
미 국방부가 5월 1일 Amazon, Google, Microsoft, NVIDIA, OpenAI, SpaceX, Reflection AI와 기밀 군사 네트워크 AI 배포 협약을 체결했다. 안전 가드레일을 주장한 Anthropic은 명단에서 빠졌다.
미 국방부가 OpenAI·구글·마이크로소프트·AWS·오라클·엔비디아·스페이스X와 기밀 군사망 AI 계약을 체결했다. 안전 가이드라인을 요구한 Anthropic은 배제됐다.
미 국방부가 OpenAI·구글·마이크로소프트 등 8개사와 최고 기밀 분류 네트워크에서의 AI 배포 협정을 체결했다. 앤트로픽은 군사적 활용 제한 조항을 둘러싼 분쟁으로 유일하게 제외됐다.
Comments (0)
No comments yet. Be the first to comment!