Découvrez comment utiliser Ollama dans LobeVidol, exécutez des modèles de langage de grande taille localement et profitez de lexpérience d’IA à la pointe de la technologie.’
Installer Ollama localement
Configurer Ollama pour autoriser l'accès cross-origin
OLLAMA_ORIGINS
. Utilisez launchctl
pour définir la variable d’environnement :Dialoguer avec le grand modèle local dans LobeVidol
OLLAMA_ORIGINS
.OLLAMA_ORIGINS
pour votre compte utilisateur, avec la valeur *
.OK/Appliquer
pour enregistrer, puis redémarrez le système.Ollama
.curl -fsSL https://ollama.com/install.sh | sh
OLLAMA_ORIGINS
. Si Ollama fonctionne en tant que service systemd, vous devez utiliser systemctl
pour définir la variable d’environnement :sudo systemctl edit ollama.service
.sudo systemctl edit ollama.service
Environment
sous la section [Service]
:[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
systemd
et redémarrez Ollama :sudo systemctl daemon-reload
sudo systemctl restart ollama
docker pull ollama/ollama
OLLAMA_ORIGINS
.docker run
.docker run -d --gpus=all -v ollama:/root/.ollama -e OLLAMA_ORIGINS="*" -p 11434:11434 --name ollama ollama/ollama
Paramètres
-> Modèle de langage
, où vous pouvez configurer le proxy, le nom du modèle, etc.