OllamaデスクトップでローカルLLMしてみる。ローカルLLMが簡単に使えるようになった

※当ブログでは商品・サービスのリンク先にプロモーションを含みます。

ローカルLLM環境を簡単に構築できる「Ollama」にデスクトップアプリができたというので、試してみることにした。

公式サイトの記事によると、WindowsとMac用に用意されているらしい。

WindowsにOllamaアプリをインストールし、実行する

早速、公式サイトからWindows用のインストーラーをダウンロードし、デスクトップにインストールしてみる。

インストールには特筆するようなこともなく、すぐにインストールできてしまった。

アプリを起動すると、シンプルな画面が出てきた。Ollamaのシンボルであるアルパカがかわいい。

Ollamaデスクトップ LLM選択

アプリはダークモードに対応していたようで、黒背景に白文字の、私にとっては馴染んだ画面だ。システム設定あたりから読み取ってくれたのだろう。

チャット枠の右下にモデルを選択するところがあって、ここでモデルの切り替えができそうだ。

モデルの選択肢を見ていると、Ollama自体はもっと多くのモデルに対応しているんだけど、デスクトップで使えるのはその一部なのかな?といった様子。

Ollamaデスクトップ LLMダウンロード

適当にモデルを選んでチャットを開始すると、まずは指定のモデルのダウンロードがはじまった。

我が家のデスクトップだと、「Gemma3:12b」くらいは実用的な速度で動くことがLM Studioで確認済みだから、まずはGemma3:12bを使ってみることにした。

モデルのダウンロードが終わったら、すぐに回答が作られた。

Ollamaデスクトップ チャット

回答の内容自体はGemma3:12bの能力を発揮してくれていることだろう。

モデルのダウンロードには時間がかかるが、一旦ダウンロードしてしまえば、その後の会話はスムーズである。

ローカルLLM環境構築がスムーズに実行できた!

Ollamaデスクトップアプリをインストールして、アプリを起動し、チャットをはじめたらLLMのモデルがダウンロードされ、回答が生成された。

言うなれば、ローカルLLM環境がこの一連の流れだけで構築できたってことだ。これはとてもスムーズに構築できたと言っていいだろう。

LM Studioでも同じくらいの工程で簡単にローカルLLM環境を構築できたが、Ollamaは更にこれがわかりやすくなっていると思う。

もともとOllamaはターミナルで会話するようになっていて、デスクトップ環境はなく、必要に応じてサードパーティーのデスクトップアプリに相当するものを用意してやる必要があった。Open WebUIが有名どころか。

私も前にOllama + Open WebUIの実行環境をDockerで作ったことがあるが、それなりに手間だったのを覚えている。まずOllamaがCUIで対話するものであって、それをGeminiなどのようにデスクトップで使うのであれば・・・というあたりから理解が必要だったからな。

Ollama自体がデスクトップアプリを作ったことで、この手間が全く必要なくなった。おかげで、細かいことがよくわからなくても、ワンストップでローカルLLM実行環境が作れるようになったと言えるだろう。

モデルの切り替えも簡単にできるし、これはものすごく便利になったと思う。

LM Studioと比べてシンプル

LM StudioでやっていたことがOllamaだけでもできるようになった。すると、これらの違いが気になるところだろう。

私としては、LM Studioは先行しているだけあって、カスタマイズが豊富にできるようになっている印象だ。未だによくわからない項目があるし。まあ、わからなくても生成AIを動かす分には問題ないのだけれど。

これに対し、Ollamaデスクトップは遥かにシンプルに作られている感じがする。必要最低限の機能を付けてまずはリリースしました、という印象。悪くない。

ひとまずローカルLLM環境を作りたいなら、どちらのアプリを選んでもいいけど、あえて言うならOllamaの方が簡単につくれて、設定項目が少ない分、悩みは少なくていいかな、と思う。

ただ生成AIを使って文章を生成するだけなら、Ollamaデスクトップで十分事足りるだろう。

実行速度に関しても、同じモデルを使ってみた感じだと大差ないと思う。

一方で、LLMの動作をよく理解したいとか、LLMの性能を最大限に引き出したいとかいう場合はLM Studioの方がよさそうかな。

あえていうと、両アプリでモデルが共用できたらよかったかもなぁ、と思わないでもない。LLMはそれなりに容量が大きいので、何回もダウンロードしたくない。ただ、それぞれ全く違うフォーマットで管理しているから、それぞれのアプリでモデルをダウンロードしてやる必要があるようだ。まあ、これは言っても詮無きことか。LM StudioとOllamaをどちらも同じマシンで使うというケースは少なそうだし。

おわりに

Ollamaがデスクトップアプリを作ったというので、インストールして使ってみた。

アプリを起動してから生成AIによって文章を作るところまで、非常にスムーズにはじめられたと思う。

似たようなものにLM Studioがあるが、それに比べるとよりシンプルにローカルLLM環境を作ることができたという印象だ。

UIもこなれていて、あんまり悩むことなく、直感的に使えた。

ローカルLLMがますます身近になったものだと思う。

パソコン

Posted by junchan