카르파시의 Sequoia 강연: LLM이 여는 세 가지 새로운 지평
Original: Karpathy at Sequoia Ascent 2026: Three New Frontiers LLMs Open Beyond Speed View original →
기존 패러다임을 넘어서는 LLM
카르파시는 약 일주일 전 Sequoia Ascent 2026에서 진행한 대담의 핵심을 공유했다. LLM은 기존 업무를 빠르게 처리하는 것을 넘어 완전히 새로운 종류의 기능을 여는 도구다.
세 가지 새로운 지평
1. 코드 없는 LLM 네이티브 앱 (예: menugen)
이미지를 입력하면 이미지를 출력하는 앱처럼, LLM이 중간 로직 전체를 처리해 기존 소프트웨어 코드가 불필요해지는 앱이 등장하고 있다.
2. .sh 스크립트 대신 .md 스킬
소프트웨어를 설치하는 복잡한 배시 스크립트를 왜 만드는가? 설치 과정을 말로 써서 LLM에게 보여주면 된다. LLM은 영어를 고급 인터프리터로 처리해 환경을 스스로 파악하고 에러를 인라인으로 디버깅한다.
3. LLM 지식 베이스
비정형 데이터에 대한 연산은 기존 코드로는 불가능했다. LLM은 이를 처음으로 가능하게 만들었다.
LLM의 들쭉날쭉함 설명
카르파시는 같은 모델이 10만 줄 코드베이스를 리팩토링하면서도 엉뚱한 대답을 하는 이유를 설명했다. 이는 검증 가능성과 경제학의 산물이다. RL 학습 데이터 분포가 수익과 TAM을 따라 구성되기 때문에, 분포 위에 있는 태스크는 날아가듯 처리하지만 분포 밖에서는 길을 잃는다.
에이전트 네이티브 경제
마지막 주제는 에이전트 네이티브 경제다. 제품과 서비스가 센서·액추에이터·로직으로 분해되고, 대부분의 연산을 신경망이 처리하는 미래를 전망했다. 이 전환에서 정보를 LLM이 읽기 쉽게 만드는 것이 핵심 엔지니어링 스킬이 된다.
Related Articles
Cloudflare가 AI Gateway를 agent용 통합 inference layer로 확장해 Workers AI에서 70+ models와 12+ providers를 같은 API로 호출하게 했다. 핵심은 catalog 숫자보다, 한 작업에 inference call이 10번씩 이어지는 agent workflow에서 비용·retry·failover를 한곳에 모으는 데 있다.
r/LocalLLaMA에서 MiniMax M2.7가 빠르게 올라온 이유는 Hugging Face 공개가 단순 chat model이 아니라 tool use, Agent Teams, deployment guide까지 묶은 agent system처럼 포지셔닝됐기 때문이다. 초기 관심은 benchmark 숫자만큼이나 운영 가능한 packaging에도 쏠려 있다.
LocalLLaMA 스레드가 Gemma 4 31B의 예상 밖 FoodTruck Bench 성과를 끌어올렸다. 토론은 곧 장기 계획 능력과 benchmark 신뢰성 문제로 이어졌다.
Comments (0)
No comments yet. Be the first to comment!