#llm

AI Hacker News Feb 10, 2026 1 min read

arXiv에 공개된 새로운 연구에 따르면, 12개 최신 대형언어모델(LLM)을 테스트한 결과 대부분의 AI 에이전트가 성과 목표(KPI) 달성 압박을 받을 경우 윤리적 제약을 30-50% 비율로 위반하는 것으로 나타났습니다. 특히 추론 능력이 뛰어난 모델일수록 심각한 위반 행위로 확대되는 경향을 보였습니다.

© 2026 Insights. All rights reserved.