본문 바로가기
IT 개발 및 프로그래밍/LLM & AI 활용

맥북에서 OpenManus를 이용해 나만의 로컬 AI 에이전트 만들기 (Ollama 연동 가이드)

by 노마드데이터랩 2025. 3. 26.
반응형

최근, 로컬 환경에서 ChatGPT와 유사한 LLM(Large Language Model)을 사용하는 사례가 늘어나고 있습니다. 그중에서도 주목받는 프로젝트가 OpenManus입니다.

OpenManus는 Ollama를 활용하여 로컬 환경에서 작동하는 오픈소스 AI 에이전트로, 개인 정보 보호는 물론 인터넷 연결 없이도 작동할 수 있다는 장점이 있습니다.

이번 글에서는 Mac(macOS) 환경에서 OpenManus를 설치하고 실행하는 방법을 단계별로 자세히 알려드리겠습니다.

반응형

🚀 1단계: OpenManus 설치하기

📌 GitHub에서 소스 코드 다운로드

먼저, 터미널을 열고 다음 명령어를 입력하여 OpenManus 프로젝트를 다운로드합니다.

git clone https://github.com/mannaandpoem/OpenManus.git
cd OpenManus

📌 필요한 패키지 설치하기

OpenManus가 동작하는 데 필요한 파이썬 패키지들을 설치합니다.

pip install -r requirements.txt

🚀 2단계: Ollama 설치 및 모델 준비하기

OpenManus는 로컬 LLM인 Ollama와 함께 사용합니다.

📌 Ollama 설치하기

다음 두 가지 방법 중 하나를 선택하여 Ollama를 설치합니다.

  • 방법 1: Homebrew를 통한 설치 (추천)
brew install ollama
  • 방법 2: 공식 웹사이트에서 설치 Ollama 공식 웹사이트에서 macOS용 설치 파일을 다운로드하여 설치합니다.

설치 후 터미널에서 정상 설치 여부를 확인합니다.

ollama -v

📌 LLM 모델 다운로드하기

기본적으로 OpenManus는 QwQ-32B 모델을 활용하지만, 함수 호출이 가능한 다른 모델도 사용할 수 있습니다. 아래는 사용 가능한 추천 명령어입니다.

ollama run qwq
ollama run minicpm-v

실행 후 정상적으로 모델이 로딩되는지 확인하세요.


🚀 3단계: OpenManus 설정하기

설정 파일을 자신의 환경에 맞게 복사하고 수정합니다.

📌 설정 파일 복사 및 수정

아래 명령어를 실행하여 설정 파일을 준비합니다.

cp config/config.example.toml config/config.toml
  • config.toml 파일 수정: API 키와 개인 설정을 입력합니다.
  • 필요하면 app/tool/browser_use_tool.py 파일도 수정하여 브라우저 툴 사용 설정을 추가할 수 있습니다.

🚀 4단계: OpenManus 실행 및 테스트하기

모든 설정을 마쳤다면 이제 OpenManus를 실행해봅니다.

📌 OpenManus 실행하기

터미널에서 다음 명령어를 입력하여 실행합니다.

python main.py

정상적으로 실행되면, 명령어 입력이 가능한 상태가 됩니다.

📌 동작 테스트 예시 프롬프트

아래는 OpenManus로 AI 에이전트 기능을 테스트할 수 있는 예시 프롬프트입니다.

I need a 7-day Japan itinerary for April 15-23 from Seattle, with a $2500-5000 budget for my fiancée and me. We love historical sites, hidden gems, and Japanese culture (kendo, tea ceremonies, Zen meditation). We want to see Nara's deer and explore cities on foot. I plan to propose during this trip and need a special location recommendation. Please provide a detailed itinerary and a simple HTML travel handbook with maps, attraction descriptions, essential Japanese phrases, and travel tips we can reference throughout our journey.

AI 에이전트가 정상적으로 작동하는지 확인하고, 결과를 평가해보세요.


🚀 추가 팁: 편리한 UI로 OpenManus 사용하기

터미널 사용이 익숙하지 않거나 GUI 환경을 선호한다면, 아래의 방법을 활용해 보세요.

  • Open WebUI 활용: Ollama를 웹서비스로 사용하여 브라우저에서 ChatGPT와 비슷한 UI로 이용할 수 있습니다.
  • Native App 사용 (Ollamac): Docker 없이 macOS 네이티브 앱 형태로 Ollama를 사용할 수도 있습니다. 다만 한글 지원이 완벽하지 않을 수 있다는 점을 고려하세요.
docker run -d -p 3000:8080 ghcr.io/open-webui/open-webui:main

🚀 간단히 Ollama 단독 사용하기

OpenManus 없이 Ollama만 사용해 간편하게 로컬 LLM을 실행할 수도 있습니다.

 
ollama run llama3.2

이 명령어만으로 터미널에서 바로 대화형 AI를 사용할 수 있습니다.


🚨 유의사항 및 성능 팁

  • Mac Silicon 칩(M1 이상)에서는 로컬 환경에서 LLM을 원활하게 사용할 수 있습니다.
  • GPU 최적화를 위해 맥북의 시스템 설정을 "고성능"으로 지정하거나 환경 변수를 설정하면 더 빠른 응답속도를 얻을 수 있습니다.

🎯 결론: 로컬 AI 에이전트 OpenManus 활용하기

OpenManus는 강력한 AI 기능을 개인용 맥북에서 자유롭게 활용할 수 있는 좋은 기회를 제공합니다. 위 가이드를 참고하여 간편하게 설치하고 자신만의 AI 어시스턴트를 로컬 환경에서 안전하게 구축해 보세요!

반응형

댓글