Cloudflare, Code Mode로 MCP 토큰 낭비 줄이고 shadow server까지 잡는다
Original: Scaling MCP adoption: Our reference architecture for simpler, safer and cheaper enterprise deployments of MCP View original →
MCP 채택이 커지면서 고민의 결도 바뀌고 있다. 초반 질문은 “agent를 더 유용하게 만들 수 있나”였다. 지금 질문은 “이걸 회사 안에서 어떻게 통제 가능한 형태로 굴릴 것인가”에 가깝다. 4월 14일 Cloudflare가 공개한 reference architecture는 local MCP server를 enterprise 기본값으로 두면 software supply-chain risk, tool injection risk, 그리고 IT·security 팀이 거의 보지 못하는 사각지대가 함께 커진다고 짚는다.
Cloudflare가 내놓은 답은 remote MCP servers, OAuth와 identity checks를 맡는 Cloudflare Access, discovery와 policy enforcement를 모으는 MCP server portals, provider switching과 spend control을 담당하는 AI Gateway, 그리고 Shadow MCP detection용 Gateway rules를 한 덩어리로 묶는 방식이다. 여기서 가장 눈에 띄는 기능은 Code Mode다. 모든 tool schema를 model context에 한꺼번에 밀어 넣는 대신, portal이 여러 upstream tools를 search와 execute 중심의 작은 인터페이스로 압축해 필요한 것만 점진적으로 드러낸다.
Cloudflare는 여기에 숫자도 붙였다. 자사 API용 MCP server에서는 Code Mode 패턴으로 token 사용량을 99.9%까지 줄였고, 내부 portal 사례에서는 52개 tools가 먹던 약 9,400 tokens가 2개 portal tools와 약 600 tokens로 떨어져 94% 감소했다는 설명이다. 이건 보기 좋은 최적화가 아니다. Jira, Google Drive, code repository, docs, internal systems가 한 agent 표면으로 묶이기 시작하면, context bloat는 곧바로 비용과 신뢰성 문제로 바뀐다.
보안 쪽도 무게감이 크다. Cloudflare는 hostname 규칙, /mcp와 /mcp/sse 같은 URL path 검사, 그리고 tools/call이나 initialize 같은 JSON-RPC method를 보는 body inspection으로 비인가 MCP traffic을 찾는 방식을 제시했다. 요점은 단순하다. MCP는 더 이상 LLM과 장난감 database를 잇는 개발자 취미가 아니다. infrastructure가 되고 있다. 그렇게 되면 비용 통제, 인증, DLP, logging, policy는 부가 기능이 아니라 제품 그 자체가 된다.
Related Articles
GitHub은 AI coding agent가 commit이나 pull request 이전에 GitHub MCP Server를 통해 secret scanning을 호출할 수 있다고 밝혔다. 이 기능은 GitHub Secret Protection이 활성화된 repository를 대상으로 public preview로 제공된다.
Google Cloud Tech는 2026년 4월 10일 X에서 MCP Toolbox for Databases용 Java SDK를 다시 부각하며 enterprise-grade agent integration 경로로 제시했다. 연결된 blog는 Spring Boot, transactional control, stateful service 패턴을 유지한 채 MCP로 database와 agent를 연결할 수 있다고 주장한다.
Cloudflare는 2026년 3월 19일 Workers AI에 Moonshot AI의 Kimi K2.5를 추가하며 large-model tier로 올라섰다. durable agent execution, large-context inference, lower-cost open model deployment를 하나의 stack으로 묶겠다는 전략이 핵심이다.
Comments (0)
No comments yet. Be the first to comment!