huggingface 모델1 🧪 Ollama로 EXAONE Deep 실행하는 방법 (로컬에서 쉽게 사용하기!) Ollama는 로컬에서 LLM 모델을 간편하게 실행할 수 있도록 도와주는 도구입니다. Mac, Windows, Linux 모두 지원되며, EXAONE Deep 모델도 Ollama에서 바로 실행 가능합니다.✅ 준비 사항💻 Windows / macOS / Linux 환경💾 최소 8GB RAM (권장: GPU 또는 16GB 이상)🌐 인터넷 연결 (모델 다운로드를 위해)1️⃣ Ollama 설치하기Ollama는 아래 링크에서 운영체제에 맞는 설치 파일을 다운로드할 수 있습니다.🔗 Ollama 다운로드 페이지설치 후 터미널(또는 명령 프롬프트)에서 아래 명령어로 설치 확인을 할 수 있어요:ollama --version2️⃣ EXAONE Deep 모델 실행하기Ollama는 EXAONE Deep 7.8B 모델을.. 2025. 4. 3. 이전 1 다음