了解如何在 LobeVidol中使用 Ollama ,在你的本地运行大型语言模型,获得最前沿的 AI 使用体验。
本地安装 Ollama
配置 Ollama 允许跨域访问
OLLAMA_ORIGINS
。使用 launchctl
设置环境变量:在 LobeVidol中与本地大模型对话
OLLAMA_ORIGINS
。OLLAMA_ORIGINS
,值设为 *
。OK/应用
保存后重启系统。Ollama
。curl -fsSL https://ollama.com/install.sh | sh
OLLAMA_ORIGINS
。如果 Ollama 作为 systemd 服务运行,应该使用systemctl
设置环境变量:sudo systemctl edit ollama.service
编辑 systemd 服务。sudo systemctl edit ollama.service
[Service]
部分下添加Environment
:[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
systemd
并重启 Ollama:sudo systemctl daemon-reload
sudo systemctl restart ollama
docker pull ollama/ollama
OLLAMA_ORIGINS
。docker run
命令中。docker run -d --gpus=all -v ollama:/root/.ollama -e OLLAMA_ORIGINS="*" -p 11434:11434 --name ollama ollama/ollama
设置
-> 语言模型
中找到 Ollama 的配置选项,你可以在这里配置 Ollama 的代理、模型名称等。