Ollama 모델, VS Code GitHub Copilot Chat 모델 선택기에서 직접 사용 가능

Original: Visual Studio Code now integrates with Ollama via GitHub Copilot. If you have Ollama installed, any local or cloud model from Ollama can be selected for use within Visual Studio Code. View original →

Read in other languages: English日本語
LLM Mar 27, 2026 By Insights AI 1 min read Source

X에서 나온 발표

2026년 3월 26일 Ollama는 Visual Studio Code가 GitHub Copilot을 통해 Ollama와 통합되었으며, Ollama에 있는 local 또는 cloud model을 VS Code 안에서 직접 선택할 수 있다고 밝혔다. 중요한 점은 이것이 별도 extension이나 분리된 chat panel 방식이 아니라는 것이다. Ollama models가 많은 개발자가 이미 쓰는 Copilot workflow의 model picker 안으로 들어온 셈이다.

문서가 보태는 정보

Ollama의 VS Code integration 문서는 이 경로에 Ollama v0.18.3+, VS Code 1.113+, GitHub Copilot Chat extension 0.41.0+가 필요하다고 적고 있다. 또한 model selector를 쓰기 위해 sign-in은 필요하지만 유료 GitHub Copilot subscription은 필수가 아니며, GitHub Copilot Free만으로도 custom model selection을 활성화할 수 있다고 설명한다.

설정도 비교적 가볍다. Ollama는 ollama launch vscode라는 one-command flow를 제공하고, 수동 설정 경로도 문서화했다. 사용자는 Copilot Chat을 열고 Language Models 창을 띄운 뒤 Ollama를 provider로 추가하고 원하는 model을 unhide하면 된다. 문서는 local weights뿐 아니라 cloud models도 명시적으로 지원하므로, 같은 VS Code surface에서 노트북 내부 모델과 더 큰 hosted model을 함께 다룰 수 있다.

왜 중요한가

실질적인 변화는 local model 선택이 더 이상 enthusiast setup이 아니라 mainstream editor의 1급 workflow가 되고 있다는 점이다. 개발자는 GitHub Copilot Chat 안에 머무른 채 privacy, cost control, open-model experimentation 목적에 맞게 Ollama-served models를 고를 수 있고, 더 큰 scale이 필요할 때는 hosted model로 옮겨갈 수 있다. 이는 closed와 open ecosystem 사이의 전환 비용을 낮추고 local AI tooling을 일상적인 software work 안으로 더 자연스럽게 끌어들인다.

출처: Ollama X 게시물 · Ollama VS Code 문서

Share: Long

Related Articles

LLM sources.twitter 5d ago 1 min read

Ollama는 2026년 3월 18일 MiniMax-M2.7을 cloud 경로로 제공하며 Claude Code와 OpenClaw에서 바로 실행할 수 있다고 밝혔다. Ollama 라이브러리 페이지는 이 모델을 coding·agent workflow·professional productivity용 모델로 소개하며 SWE-Pro, VIBE-Pro, Terminal Bench 2, GDPval-AA, Toolathon 성적을 함께 제시한다.

GitHub, Copilot·VS Code·Figma를 bidirectional MCP loop로 연결
LLM sources.twitter Mar 15, 2026 1 min read

GitHub는 March 10, 2026 X post에서 GitHub Copilot, VS Code, Figma가 bidirectional Figma MCP server를 통해 continuous loop를 만든다고 밝혔다. March 6 changelog에 따르면 Copilot 사용자는 design context를 code로 끌어오고, 동작하는 UI를 editable frame 형태로 다시 Figma canvas로 보낼 수 있다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.