SDL의 AI-written commit 금지, HN은 maintainer 비용을 봤다
Original: SDL bans AI-written commits View original →
SDL의 AI policy를 둘러싼 HN thread는 개발자가 LLM을 좋아하느냐 싫어하느냐의 단순한 논쟁이 아니었다. 핵심은 maintainer triage였다. 널리 쓰이는 multimedia library인 SDL은 issue #15350에서 Copilot 같은 도구를 contribution에 금지해야 하는지 논의한 뒤 policy로 이동했다. PR #15353은 4월 15일 merge됐고, contributor와 AI coding agent가 읽을 문구를 추가했다.
새 AGENTS.md는 직접적이다. SDL contribution을 위한 code 생성에 AI를 쓰면 안 된다고 적는다. 여기서 AI는 ChatGPT, Claude, Copilot, Grok 같은 LLM을 뜻한다. 문서는 AI-generated code가 출처를 알 수 없는 source에 기반할 수 있고, Zlib license와 맞지 않거나 incompatible license terms를 끌어들일 수 있다고 설명한다. 동시에 경계도 둔다. AI가 possible issue를 식별하는 데 쓰일 수는 있지만, fix는 human이 작성해야 하고, 보고된 문제가 실제인지 독립적으로 확인해야 한다.
이 구분이 HN 댓글을 100개 넘게 만든 이유다. 한쪽은 이 policy를 low-context pull request와 license ambiguity를 막는 필터로 봤다. 다른 쪽은 code는 누가 또는 어떤 도구가 만들었는지가 아니라 실제로 무엇을 하는지로 평가해야 한다고 봤다. maintainer 입장에서 더 날카로운 문제는 review time이다. AI가 그럴듯한 patch의 양을 늘리면, 그 patch가 정확하고 original이며 project culture에 맞는지 증명하는 비용은 maintainer에게 돌아간다.
AGENTS.md라는 형식도 이 이야기를 현재형으로 만들었다. 이런 파일은 이제 human documentation만이 아니다. coding agent가 repository를 건드리기 전에 읽을 수 있는 instruction surface다. SDL은 그 표면을 이용해 bot과 bot-assisted contributor에게 boundary를 적었다.
더 넓은 신호는 open source가 분위기에서 policy로 이동하고 있다는 점이다. 어떤 project는 disclosure와 함께 AI-assisted work를 받을 것이다. 어떤 project는 generated code를 전면 거부할 것이다. 중요한 것은 review queue가 enforcement mechanism이 되기 전에 maintainer가 rule을 글로 남기고 있다는 사실이다.
Sources: HN discussion, SDL issue #15350, PR #15353, SDL AGENTS.md.
Related Articles
Hacker News에서 주목받은 새 Linux 커널 문서는 AI 사용을 허용하면서도 DCO, GPL-2.0-only 호환성, 최종 책임은 인간 제출자에게 남긴다.
높은 관심을 받은 Hacker News 글은 Linux kernel 저장소의 새 AI 기여 지침을 가리켰고, 이 문서는 DCO 책임을 인간에게 두면서 `Assisted-by` 공개 형식을 표준화했다.
Hacker News에서 떠오른 Instant 1.0은 AI-coded apps를 위한 오픈소스 backend를 내세운다. 핵심은 sync engine, multi-tenant Postgres, Clojure concurrency를 결합해 agent가 만든 앱을 실제 서비스 수준까지 끌어올리겠다는 점이다.
Comments (0)
No comments yet. Be the first to comment!