先日のDifyと同じくらいあっけなくLLMをローカルで動かせるのがOllamaです。
ローカルマシンにOllamaをインストールするのは以下のコマンド1行です。
$ curl -fsSL https://ollama.com/install.sh | sh
そして実行は次の1行。
$ ollama run llama3
これはモデルにLlama3を使ってアプリケーションを起動した例です。
Ollamaで使用できるモデルは公式ホームページのここに列挙されています。多くのモデルに対応しているので色々と試すのに良いですね。
これでもいんですがDockerでOpenWebUIと一緒に動かすのが好みです。
Dockerで実行するには次のコマンド1行です。
$ docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
そしてOpenWebUIを動かします。
$ docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
これでWebブラウザーから http://localhost:3000 を開けば使えます。適当なアカウントを登録して始めます。
アカウントの設定メニューからモデルをダウンロードします。「Ollama.comからモデルをプル」と書かれているフィールドに「llama3」などを入力してフィールド右端のダウンロードボタンを押します。
今回はllama3:instructと入力してモデルをダウンロードして使いました。
「OllamaとOpenWebUIでLlama3」への2件のフィードバック