반응형 Ollama2 [Ollama] 내가 만든 MCP를 추가하여 날씨정보 가져오기. 오늘은 내가만들진 않았지만 누군가 만들어준 MCP를 모델에게 직접 사용할 수 있도록 제공해 보려고 합니다. 0. pip, uv, uvx 설치powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex" 0-1. 환경변수 설정.$env:DATA_DIR="C:\open-webui\data"; uvx --python 3.11 open-webui@latest serve 1. ollama 가 없다면 설치하세요!https://ollama.com/ OllamaGet up and running with large language models.ollama.com 2. Ollama Web-ui 설치cmd 를 이용하여 아래 명령어를 .. 2025. 4. 26. [AI] Ollama 윈도우에 설치 후 사용해보기 올라마를 다운로드하여 윈도우에서 질문을 던져보고자 한다. 1. 먼저 올라마 사이트에 가서 다운로드를 받은 후 설치한다.https://ollama.com/download 2. 올라마 사이트의 Models 에 가서 원하는 모델을 클릭한다. (나는 llama3.3 을 선택했다.)https://ollama.com/library/llama3.3 llama3.3New state of the art 70B model. Llama 3.3 70B offers similar performance compared to the Llama 3.1 405B model.ollama.com 3. 빨간내모의 우측의 명령어를 클릭하여 복사한다. 4. CMD 에서 해당 명령어를 붙여넣은 후 실행한다. 5. CMD 한글로 질문을 던져.. 2025. 1. 15. 이전 1 다음 반응형