올라마 명령어 모음
민광석
2024-12-20 11:26
208
0
0
본문
올라마 사이트 : https://ollama.com/
GPU 사용 확인 : watch -n 1 nvidia-smi
올라마 재시작
sudo systemctl daemon-reload
sudo systemctl restart ollama
sudo systemctl status ollama
nano /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
Environment="PATH=/usr/local/cuda/bin:/root/.local/bin:/root/bin:/usr/share/Mod" "OLLAMA_HOST=0.0.0.0" "LD_LIBRARY_PATH=/usr/local/cuda/lib64" "OLLAMA_USE_GPU=true" "OLLAMA_GPU_DEVICE=0"
[Install]
WantedBy=multi-user.target
0
로그인 후 추천 또는 비추천하실 수 있습니다.
민광석
회원등급 : 최고관리자
포인트 2,200
경험치 270
[레벨 2] - 진행률
18%
가입일
2024-10-21 11:52:45
댓글목록0