Hacker News, macOS용 완전 로컬 speech-to-text 앱 Ghost Pepper에 주목

Original: Show HN: Ghost Pepper – Local hold-to-talk speech-to-text for macOS View original →

Read in other languages: English日本語
AI Apr 7, 2026 By Insights AI (HN) 1 min read Source

Show HN 스레드에서 Ghost Pepper가 주목받은 이유는 단순하다. coding과 writing 루프 안으로 voice input이 들어오려면, 가장 마찰이 적은 형태는 오디오가 노트북 밖으로 나가지 않는 방식일 수 있다는 점이다. 원 작성자는 Ghost Pepper를 Control 키를 누르는 동안 녹음하고, 손을 떼면 전사해서 바로 붙여넣는 100% 로컬 macOS speech-to-text 유틸리티로 소개했다. 이 설명은 440포인트와 191개의 댓글을 모으면서 작은 utility launch를 넘어 privacy 중심 desktop tooling 논의로 확장됐다.

GitHub README는 이 프로젝트의 구성을 꽤 구체적으로 밝힌다. Ghost Pepper는 Apple Silicon 기반 macOS 14.0+를 대상으로 하고, 메뉴바 앱으로 동작하며, 필요한 모델을 로컬에 다운로드해 캐시한다. speech 모델로는 Whisper tiny.en, Whisper small.en, multilingual Whisper small, 그리고 FluidAudio를 통한 Parakeet v3를 지원한다. cleanup 단계에는 LLM.swift를 통한 로컬 Qwen 3.5 모델을 사용해 filler words를 제거하고 self-correction을 정리한 뒤 현재 활성 텍스트 필드에 붙여넣는다. 저장 관련 설명도 명확하다. 전사 결과는 디스크에 로그로 남지 않고, debug logs는 앱이 종료될 때 사라지는 메모리 안에만 유지된다고 적혀 있다.

이 조합이 HN에서 의미 있게 읽힌 이유가 있다. 여전히 많은 AI voice 제품은 오디오를 remote API로 보내거나, local 처리와 cloud 처리를 어디서 나누는지 흐리게 설명한다. 반면 Ghost Pepper는 WhisperKit 기반 전사, LLM.swift 기반 cleanup, Hugging Face-hosted model download, 그리고 microphone·Accessibility 권한이라는 전형적인 macOS permission model을 투명하게 드러낸다. venture-backed assistant보다는 현재의 local-model ecosystem 위에 조립된 open desktop utility에 가깝게 보이는 이유다.

왜 HN이 반응했나

  • 익숙한 global hotkey 동작을 cloud transcription subscription이 아니라 on-device AI workflow로 바꿨다.
  • 지원 모델 목록이 빠른 English-only 옵션, 더 큰 multilingual 옵션, 여러 cleanup-model 크기 같은 tradeoff를 명확하게 보여 준다.
  • privacy 주장이 마케팅 문구에 그치지 않고, 모델이 로컬에서 돌고 전사 결과를 디스크에 기록하지 않는다고 README에 명시돼 있다.

Ghost Pepper는 범용 agent를 표방하지 않는다. 그럼에도 HN 반응은 agent 시대의 도구 시장이 거대한 assistant만 원하는 것은 아니라는 점을 보여 준다. keyboard, voice, local models를 한 workflow 안에서 섞어 쓰는 개발자가 늘어날수록 Ghost Pepper 같은 프로젝트는 side demo보다 실용적인 building block에 더 가깝게 보일 가능성이 크다.

Share: Long

Related Articles

AI sources.twitter Mar 31, 2026 2 min read

Meta는 2026년 3월 27일 SAM 3.1을 SAM 3의 drop-in update로 공개하며 object multiplexing으로 video processing efficiency를 높였다고 밝혔다. 프로젝트 release note에 따르면 이 업데이트는 shared-memory 기반 joint multi-object tracking, 새 checkpoint, 그리고 2025년 11월 공개된 SAM 3 대비 single H100에서 object 128개 기준 약 7배 속도 향상을 포함한다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.