반응형
ai 개발환경
-
Ollama + Gemma 4 26B Mac mini 설치 완전 가이드AI 2026. 4. 3. 22:42
Mac mini에서 로컬 LLM을 돌리고 싶다면클라우드 API 비용이 부담스럽거나, 코드와 데이터를 외부로 보내기 꺼려지는 상황이라면 로컬에서 대형 언어 모델을 직접 실행하는 게 현실적인 대안이에요. Ollama는 Apple Silicon Mac에서 LLM을 손쉽게 실행할 수 있게 해주는 런타임으로, v0.19부터 Apple의 MLX 프레임워크를 자동으로 활용해 추론 속도가 크게 향상됐어요. 이 글에서는 Mac mini (M1~M5) 위에서 Ollama와 Gemma 4 26B 모델을 설치하고, 부팅 시 자동 로드까지 구성하는 전 과정을 다뤄요.사전 준비시작 전에 아래 조건을 확인하세요.Apple Silicon Mac mini (M1/M2/M3/M4/M5)통합 메모리(Unified Memory) 24GB ..