안녕하세요, 에디터 노마드 랩입니다. 일과 여행의 공존, 노마드를 위한 실속 정보 공유 ✨
여러분, 혹시 불과 며칠 전인 2026년 3월 31일에 터진 대박 사건 들으셨나요? 저도 포르투갈의 한 카페에서 노트북을 켜놓고 여유롭게 코딩을 하다가, 슬랙 알림이 미친 듯이 울려서 확인해 보니 세상에... Claude Code의 소스코드가 npm 소스맵을 통해 고스란히 노출되었다는 소식이더군요.
마시던 커피를 진짜 뿜을 뻔했습니다 ☕.
우연한 유출이 불러온 엄청난 나비효과
사실 개발을 하다 보면 소스맵(SourceMap)을 잘못 올리는 실수는 종종 일어납니다. 하지만 그 대상이 다름 아닌 앤스로픽(Anthropic)의 야심작, Claude Code였다면 이야기가 다르죠. 이번 유출본을 뜯어본 해커와 개발자들은 발 빠르게 움직였습니다.
단순히 코드를 구경하는 데 그치지 않고, 여기에 OpenAI 호환 provider shim이라는 마법의 가루를 뿌려버린 건데요. 그렇게 탄생한 것이 바로 오늘 소개할 OpenClaude입니다. 정말 개발자들의 실행력은 언제 봐도 소름이 돋네요 🚀.
OpenClaude, 도대체 왜 다들 열광할까?
기존 Claude Code의 가장 큰 아쉬움은 오직 클로드(Claude) 모델만 써야 한다는 점이었죠. 비용도 비용이지만, 가끔은 다른 모델의 추론 능력이 필요할 때가 있잖아요? 저도 종종 답답함을 느꼈거든요.
그런데 OpenClaude는 이 제한을 완전히 부숴버렸습니다. OpenAI의 chat completions API를 지원하는 모델이라면 뭐든 꽂아서 쓸 수 있어요. GPT-4o, DeepSeek, Gemini 같은 대형 상용 모델은 물론이고, Llama나 Mistral 같은 로컬 오픈소스 모델까지 싹 다 지원합니다. 로컬에서 Ollama를 돌리면 비용이 0원이라는 사실, 믿어지시나요?
https://gitlawb.com/node/repos/z6MkgKkb/instructkr-claude-code
https://github.com/musistudio/claude-code-router
내 환경에 직접 세팅해 보는 방법
자, 이제 이 엄청난 녀석을 어떻게 쓰는지 궁금하시죠? 생각보다 아주 간단합니다. 로컬에서 Ollama를 활용해 무료로 터미널 AI 비서를 구축하는 과정을 단계별로 알려드릴게요.
- Node.js 및 환경 준비:
터미널을 열고 OpenClaude 패키지를 글로벌로 설치합니다.
npm install -g @gitlawb/openclaude - Ollama 로컬 실행:
Llama 3 또는 Mistral 모델을 백그라운드에서 실행해 둡니다.ollama run llama3 - 실행 및 설정:
CMD를 새로 실행하고 나서 실행 Command를 입력하고, 설정을 진행해주세요. 다양한 메뉴가 나오는데 원하시는 모델을 선택하고, 가이드에 따라서 설치를 진행하시면 됩니다.
예로, Ollama를 이미 설치 후 실행 중이라면, "2. Ollama"를 선택하면 자동으로 연결 확인 후 설정을 진행합니다.openclaude - 실행 및 즐기기:
터미널에서 명령어 하나만 치면, 우리가 알던 그 매끄러운 Claude UI 화면이 뜨면서 로컬 모델이 대답을 하기 시작합니다!
직접 해보니 터미널 안에서 쾌적하게 동작하는 모습이 정말 경이롭더군요. 인터넷이 불안정한 비행기 안이나 해외 오지에서도 코딩 비서와 함께할 수 있다는 건 노마드들에게 엄청난 축복입니다 🌴.
독자들이 가장 궁금해하는 질문들
Q. 소스코드가 유출된 거라는데, 사용해도 법적으로 문제가 없나요?
A. 매우 예민하고 중요한 질문입니다! 유출된 코드를 기반으로 한 포크(Fork) 프로젝트이기 때문에 저작권 및 라이선스 위반 소지가 다분합니다. 따라서 기업의 상업적 프로젝트나 실무에 도입하는 것은 절대 권장하지 않으며, 개인적인 로컬 테스트나 학습 목적으로만 조심스럽게 접근하시는 것이 좋습니다.
Q. GPT-4o나 Gemini 등 API 비용은 어떻게 되나요?
A. OpenClaude는 UI 껍데기를 제공할 뿐입니다. 따라서 GPT-4o나 Gemini를 연동하려면 본인의 API 키를 입력해야 하며, 각 모델 공급자가 정한 API 토큰 요금이 정상적으로 청구됩니다. 비용 절감이 목적이라면 Ollama를 활용한 로컬 모델 구동을 강력히 추천해요.
Q. 다른 터미널 AI 도구들(예: Cursor, Aider)과 비교하면 어떤가요?
A. Aider가 날것의 강력함을 자랑한다면, 이건 압도적으로 부드러운 사용자 경험(UX)이 무기입니다. 특히 인터랙티브한 피드백 루프는 앤스로픽이 얼마나 공을 들였는지 알 수 있는 대목이죠.
마무리하며
기술의 발전, 그리고 생태계의 확장은 때로는 이런 예상치 못한 해프닝에서 폭발적으로 일어나는 것 같습니다. 며칠 전 일어난 이번 사태가 앞으로 터미널 AI 도구 시장에 어떤 파장을 불러일으킬지, 흥미롭게 지켜봐야겠습니다. 여러분도 주말에 커피 한 잔 내려놓고 가볍게 테스트해 보시는 건 어떨까요? 언제나 그렇듯, 즐거운 코딩 라이프 되시길 바랍니다! 💡
이 글은 정보 제공 및 기술 리뷰 목적이며 전문적인 법률 조언을 대체하지 않습니다. 유출된 코드를 무단으로 상용 서비스에 적용할 경우 라이선스 및 저작권법 위반에 해당할 수 있으므로 각별한 주의가 필요합니다.