여러분, 혹시 '나만의 인공지능'을 만들고 싶은데 검은색 터미널 창만 보면 머리가 아프지 않으셨나요? 저도 그랬거든요! 파이썬 깔고, 환경 설정하고, 라이브러리 꼬여서 샷건 칠 뻔한 경험... 다들 한두 번은 있으시잖아요? 하지만 이제 그런 걱정 끝입니다. 오늘은 이름만큼이나 귀엽지만 성능은 무시무시한 로컬 LLM 실행 도구, Gerbil을 소개해 드릴게요!
- 복잡한 설정 없이 클릭 몇 번으로 내 PC에서 AI(LLM) 실행 가능!
- 텍스트 생성은 물론 이미지 생성(Flux 등)까지 지원하는 만능 도구
- Windows, macOS, Linux 어디서든 완벽하게 작동하는 미친 호환성
Gerbil이 도대체 뭐길래 이렇게 난리야?
Gerbil은 쉽게 말해 '로컬 LLM을 위한 종합 선물 세트'라고 보시면 돼요. KoboldCpp를 기반으로 돌아가는데, 백엔드 관리부터 모델 다운로드, 하드웨어 가속 설정까지 알아서 다 해줍니다. 솔직히 저도 처음엔 반신반의했거든요? 그런데 설치해보니 그냥 게임 하나 깔아서 실행하는 것만큼 쉽더라고요! 와, 세상 참 좋아졌죠?
이런 분들께 강력 추천합니다!
- 코딩의 'ㅋ'자도 모르지만 나만의 AI 비서를 갖고 싶은 분
- 검색 기록이 외부 서버로 나가는 게 찝찝해서 오프라인 AI를 찾는 분
- 내 비싼 그래픽카드(RTX 4090 같은 거!)를 100% 활용하고 싶은 분
- 이미지 생성 AI까지 한 앱에서 해결하고 싶은 욕심쟁이(?) 분들
Gerbil vs 다른 도구 비교하기
시중에 많은 도구가 있지만 Gerbil이 왜 돋보이는지 표로 한눈에 정리해 드릴게요. 보시면 깜짝 놀라실걸요?
Gerbil 5분 만에 세팅하는 방법
자, 이제 이론은 충분합니다. 바로 실전으로 들어가 볼까요? 순서대로 따라오시면 여러분도 곧 AI 마스터가 될 수 있습니다!
- 앱 다운로드:
공식 GitHub Releases 페이지에서 운영체제에 맞는 파일을 받으세요.
(Windows는 Setup.exe를 추천해요!) - Backend 다운로드:
PC환경에 따른 백엔드를 선책해서 다운로드 해주세요.
뭘 선택해야 할지 모르신다면 Standard를 선택하시면 됩니다. - 모델 탐색:
앱 실행 후 돋보기 아이콘을 눌러 허깅페이스(HuggingFace) 검색창을 여세요. - 모델 선택:
성능과 용량의 조화가 좋은 GGUF 형식의 모델(예: Llama 3 또는 Gemma)을 선택해 다운로드하세요. - 가속 설정:
GPU가 있다면 CUDA나 Vulkan을 선택해 속도를 높이세요. CPU만 있어도 걱정 마세요! - 채팅 시작 (LAUNCH):
이제 하고 싶은 말을 던지면 끝! 개인적인 질문부터 어려운 코딩 상담까지 마음껏 즐기세요.
전문가를 위한 꿀팁: CLI 모드
혹시 리소스를 아끼고 싶다면 --cli 옵션을 사용해 보세요. GUI 없이 백엔드만 구동해서 메모리 사용량을 줄일 수 있답니다. OpenWebUI나 SillyTavern 같은 다른 프론트엔드와 연결할 때 아주 유용하죠!
글을 마치며: 로컬 AI의 시대, 여러분도 주인공입니다
이제 더 이상 클라우드 AI의 눈치를 볼 필요가 없습니다. Gerbil 하나만 있으면 여러분의 컴퓨터는 세상에서 가장 똑똑한 개인 비서가 되니까요. 지금 바로 시작해보세요!
Disclaimer: 본 콘텐츠는 정보 제공 목적으로 작성되었으며, 특정 소프트웨어의 설치 및 사용으로 인한 책임은 사용자 본인에게 있습니다.