LobeVidolでOllamaを使用して、ローカルで大規模言語モデルを実行し、最先端のAI体験を得る方法を学びましょう。
Ollamaをローカルにインストール
Ollamaのクロスオリジンアクセスを許可する設定
OLLAMA_ORIGINS
が必要です。launchctl
を使用して環境変数を設定します:LobeVidolでローカル大規模モデルと対話する
OLLAMA_ORIGINS
が必要です。OLLAMA_ORIGINS
を編集または新規作成し、値を*
に設定します。OK/適用
をクリックして保存し、システムを再起動します。Ollama
を再実行します。curl -fsSL https://ollama.com/install.sh | sh
OLLAMA_ORIGINS
が必要です。Ollamaがsystemdサービスとして実行されている場合、systemctl
を使用して環境変数を設定する必要があります:sudo systemctl edit ollama.service
を呼び出してsystemdサービスを編集します。sudo systemctl edit ollama.service
[Service]
セクションの下にEnvironment
を追加します:[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
systemd
をリロードし、Ollamaを再起動します:sudo systemctl daemon-reload
sudo systemctl restart ollama
docker pull ollama/ollama
OLLAMA_ORIGINS
が必要です。docker run
コマンドに追加できます。docker run -d --gpus=all -v ollama:/root/.ollama -e OLLAMA_ORIGINS="*" -p 11434:11434 --name ollama ollama/ollama
設定
-> 言語モデル
でOllamaの設定オプションを見つけることができ、ここでOllamaのプロキシ、モデル名などを設定できます。