미 상무부 CAISI, Google·Microsoft·xAI와 AI 사전 안전 검증 협정

Read in other languages: English日本語
AI May 6, 2026 By Insights AI 1 min read Source

공개 전 평가 체계의 제도화

미국 국립표준기술연구원(NIST) 산하 인공지능표준혁신센터(CAISI, 구 AI안전연구소)가 5월 5일 Google DeepMind, Microsoft, xAI와 프런티어 AI 모델의 사전 배포 평가 협정을 체결했다고 발표했다. OpenAI와 Anthropic은 트럼프 행정부의 AI 행동계획에 맞게 기존 협정을 재협상했다.

이번 협정에 따라 CAISI는 세 기업의 AI 모델을 공개 전에 평가하고, 배포 후 지속 모니터링 및 AI 보안 위험 관련 연구도 수행한다. 일부 모델은 기밀 환경에서 평가되며, 개발사들은 안전 장치가 줄어든 버전을 제출하기도 한다.

사이버·바이오·화학 위협이 핵심 평가 대상

CAISI는 사이버 보안, 바이오 보안, 화학 무기 관련 입증 가능한 위험에 집중한다. Howard Lutnick 상무장관의 지시 아래 CAISI는 AI 분야에서 미국 정부의 산업계 주요 창구로 지정됐다. 현재까지 미공개 모델을 포함해 40건 이상의 평가를 완료했다.

AISI에서 CAISI로 — 안전에서 표준으로

바이든 행정부 시절 설립된 미국 AI 안전 연구소(AISI)는 트럼프 행정부 들어 CAISI로 명칭이 바뀌었다. 안전(safety) 중심에서 표준(standards)과 혁신(innovation) 중심으로 임무가 재조정됐으며, 영국 AI안전연구소와의 국제 협력은 계속된다.

출처: NIST, SiliconAngle

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment