システム開発部のTです。
ここ最近、ChatGPTのAPIを利用していくなかで、もっとコストを抑えた感じで利用できないか・・・と模索していくなか、クラウド環境ではなくローカル環境で動作するLLM(以降、ローカルLLM)が話題となっています。そういったローカルLLMを気軽に動かす環境ないかな・・・と探していたところ、Youtube上で話題になっていたのがLM Studioであり、インストール手順や動作方法などがとても使いやすかったので、今回記事にしてみました。
ローカルLLMとは
ローカルLLM(Local Large Language Model)とは、クラウド上のサービスを利用せずに、ユーザーのPCやサーバーなどのローカル環境で動作する大規模言語モデル(LLM)のことです。通常、ChatGPTのようなAIはクラウド上で実行されますが、ローカルLLMを使用すると、インターネットに接続せずにAIの推論を行うことができます。
ローカルLLMに関する説明については、今回の趣旨から外れてしまうため省略します。
LLM利用ツール
今回のLM Studioも含めて代表的な4つのツールを挙げました。
以下以外にも、多くのツールがありますので、各自が使いやすいツールを利用いただければと思います。
| ツール名 | インストールの容易さ | 推論速度 | インターフェース | モデル管理 | 特徴的な強み |
|---|---|---|---|---|---|
| Ollama | 🟢 とても簡単 | ⚡ 高速 | CLI | ✅ あり | シンプルでお手軽。Mac向けが特に強力。 |
| llama.cpp | 🟠 中程度 | ⚡⚡ 超高速 | CLI | ❌ 手動 | パフォーマンス最強。制御性抜群。 |
| GPT4All | 🟢 簡単 | 🔹 標準 | GUI | ✅ あり | 非エンジニアでも使いやすい。 |
| LM Studio | 🟢 簡単 | 🔹 標準 | GUI | ✅ あり | 直感的なUIで複数モデルを管理可能。 |
これより、LM Studioのインストール手順を説明します。
動作環境
本記事で検証した環境は以下の通りです。
• MacBook Pro 14インチ(2024年11月モデル)
• チップ:Apple M4
• メモリ:24 GB
• 起動ディスク:Macintosh HD
• OS:macOS 15.3.2 (24D81)
導入手順
1. インストーラーの入手
まずは公式サイト(LM Studio公式)にアクセスし、使用しているOSに対応したインストーラーをダウンロードします。

2. インストール手順
ダウンロードしたインストーラーを起動し、指示に従ってインストールを進めます。基本的には指示に従うだけで完了します。

以上でインストール完了です。
LM Studioを使ってみる
1. モデルの選択とダウンロード
インストール後、LM Studioを起動すると、直感的なインターフェースが表示されます。以下の手順でモデルを追加します。

左メニューから「探索」を開く

好みのモデルを一覧から選択し、「Download」をクリックしてモデルをダウンロードします。

自身のPCスペックと相談し、モデルを選択してください。
今回は、Apple Siliconに最適化されたMLXモデルを選択することとし、以下のモデルを選択しました。

続けて、右下にあるダウンロードボタンを押下します。
ダウンロードが開始されます。

ダウンロードが完了すると、右下に「ダウンロード完了!」のポップアップが表示されているので、
「Load Model」ボタンを押下してください。

そのままチャット画面に移動し、モデルがロードされます。

ローディング完了後は、ChatGPTのようにAIと会話することが可能となります。

2. 設定画面について
アプリをインストール後、以下より設定画面にて各種設定することをおすすめします。
アプリ画面の右下に歯車アイコンがあるので、それをクリックしてください。

設定画面が表示されます。

ここでは、アプリの更新、言語設定、その他カラーテーマ等が設定可能です。
言語設定は、デフォルトは英語でしたが、日本語に切り替え済みです。
今回は設定画面で何が可能かの深堀りは省略します。
別の記事として紹介するかもしれませんので、そのときにでも。
その他、左メニューからはモデルをダウンロードするための「Model Search」、ランタイム情報を表示する「Runtime」、ハードウェア情報を表示する「Hardware」などがあります。

3. マイモデルについて
各種モデルをダウンロードしたら、マイモデルにてダウンロードしたモデルが一覧表示されます。
この画面より、モデルの削除、モデル個別の設定が可能です。


4. 開発者について
これを説明すると、内容が膨大になるため省略します。
簡単に言うと、簡易的なOpenAI互換のAPIサーバーとなり、ネットワーク経由で各種モデルが利用可能になります。当然、全てのモデルが各エンドポイントに対応してはいません。/v1/chat/completionsであれば、大抵のモデルは対応していると思われます。

5. チャットについて
最後にメインの機能になりますが、ダウンロードしたモデルを気軽に試せる画面になります。
UIはChatGPTと同様のイメージになっております。

このチャット画面ですが、ChatGPTにないような機能も何点かあるのですが、その辺については別の記事で紹介予定のため、本件では割愛します。
以上、簡単ですがLM Studioの機能の紹介でした。
モデル選択時の注意点
LM Studioを利用する際、特に重要なのがモデル選択です。ここでは、モデル選択時に意識したいポイントを解説します。
ハードウェア性能に適したモデルを選ぶ
- モデルのサイズによって必要となるメモリが異なります。
大規模モデルほど高性能ですが、その分メモリ消費が増え、動作も遅くなります。 - 利用しているマシンのスペックに合わせて、最適なモデルサイズを選びましょう。
例:Apple Silicon(Apple M4・メモリ24GB)搭載MacBook Proの場合
- 一般的なテキスト生成や日常的な質問応答には7B〜13Bサイズのモデルがおすすめ。
- より複雑な推論や高精度な回答を得たい場合は13Bサイズまでが適しています。ただし、高負荷時はパフォーマンスがやや低下する可能性があります。
パラメータ数が8Bで4bit量子化したモデルの場合、特に問題なく利用可能です。

パラメータ数が70Bのモデルになると、以下のような警告メッセージが表示されます。

選択する際、この警告メッセージの有無を確認するといいと思います。
また、モデル選択画面にて画面上にGGUFとMLXのチェック欄がありますが、MLXにチェックを入れると、Apple Siliconに最適化されたモデルのみが表示されるため、こちらのチェックを入れて選択することをおすすめします。

MLXについてはこちら。
モデル選択時の具体的なチェックポイント
- サイズと速度のバランス
- 小さいモデル:高速だが精度・複雑な回答に限界がある
- 大きいモデル:精度が高いが処理速度が遅く、メモリ消費が多い
- タスクの性質に合わせたモデルを選択
- 簡単なチャット用途:小~中サイズモデル
- 複雑な推論や専門的質問:大きめのモデルを選ぶ
- 利用頻度と消費電力の兼ね合い
- 長時間利用するなら、小~中サイズのモデルが現実的
まとめ
LM Studioは直感的な操作性と柔軟なモデル管理が魅力のツールです。コストを抑えつつ、ローカルで高速に動作するLLM環境を手軽に構築できます。気軽にローカルLLMを試したい方に最適な環境といえます。








