Ollamaの使用
LobeVidolでOllamaを使用して、ローカルで大規模言語モデルを実行し、最先端のAI体験を得る方法を学びましょう。
Ollamaは、Llama 2やMistralなど、さまざまな言語モデルをサポートする強力なローカル実行の大規模言語モデル(LLM)フレームワークです。現在、LobeVidolはOllamaとの統合をサポートしており、LobeVidol内でOllamaが提供する言語モデルを簡単に使用してアプリケーションを強化できます。
このドキュメントでは、LobeVidolでOllamaを使用する方法を説明します:
macOSでOllamaを使用する
Ollamaをローカルにインストール
macOS用Ollamaをダウンロードし、解凍してインストールします。
Ollamaのクロスオリジンアクセスを許可する設定
Ollamaのデフォルト設定では、起動時にローカルアクセスのみが設定されているため、クロスオリジンアクセスとポートリスニングには追加の環境変数設定OLLAMA_ORIGINS
が必要です。launchctl
を使用して環境変数を設定します:
LobeVidolでローカル大規模モデルと対話する
次に、LobeVidolを使用してローカルLLMと対話できます。
WindowsでOllamaを使用する
OLLAMA_ORIGINS
が必要です。OLLAMA_ORIGINS
を編集または新規作成し、値を*
に設定します。OK/適用
をクリックして保存し、システムを再起動します。Ollama
を再実行します。LinuxでOllamaを使用する
curl -fsSL https://ollama.com/install.sh | sh
OLLAMA_ORIGINS
が必要です。Ollamaがsystemdサービスとして実行されている場合、systemctl
を使用して環境変数を設定する必要があります:sudo systemctl edit ollama.service
を呼び出してsystemdサービスを編集します。sudo systemctl edit ollama.service
[Service]
セクションの下にEnvironment
を追加します:[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
systemd
をリロードし、Ollamaを再起動します:sudo systemctl daemon-reload
sudo systemctl restart ollama
Dockerを使用してOllamaをデプロイする
docker pull ollama/ollama
OLLAMA_ORIGINS
が必要です。docker run
コマンドに追加できます。docker run -d --gpus=all -v ollama:/root/.ollama -e OLLAMA_ORIGINS="*" -p 11434:11434 --name ollama ollama/ollama
Ollamaモデルのインストール
Ollamaはさまざまなモデルをサポートしており、Ollamaライブラリで利用可能なモデルのリストを確認し、ニーズに合ったモデルを選択できます。
LobeVidolでのインストール
LobeVidolでは、llama3、Gemma、Mistralなどの一般的な大規模言語モデルがデフォルトで有効になっています。モデルを選択して対話を開始すると、そのモデルをダウンロードする必要があることを通知します。
ダウンロードが完了したら、対話を開始できます。
Ollamaを使用してモデルをローカルにプルする
もちろん、ターミナルで以下のコマンドを実行してモデルをインストールすることもできます。llama3の例:
カスタム設定
設定
-> 言語モデル
でOllamaの設定オプションを見つけることができ、ここでOllamaのプロキシ、モデル名などを設定できます。
Ollamaとの統合にアクセスして、Ollamaとの統合要件を満たすためにLobeVidolをデプロイする方法を学ぶことができます。