システム開発部のTです。
ここ最近、ChatGPTのAPIを利用していくなかで、もっとコストを抑えた感じで利用できないか・・・と模索していくなか、クラウド環境ではなくローカル環境で動作するLLM(以降、ローカルLLM)が話題となっています。そういったローカルLLMを気軽に動かす環境ないかな・・・と探していたところ、Youtube上で話題になっていたのがLM Studioであり、インストール手順や動作方法などがとても使いやすかったので、今回記事にしてみました。

ローカルLLMとは

ローカルLLM(Local Large Language Model)とは、クラウド上のサービスを利用せずに、ユーザーのPCやサーバーなどのローカル環境で動作する大規模言語モデル(LLM)のことです。通常、ChatGPTのようなAIはクラウド上で実行されますが、ローカルLLMを使用すると、インターネットに接続せずにAIの推論を行うことができます。

ローカルLLMに関する説明については、今回の趣旨から外れてしまうため省略します。

LLM利用ツール

今回のLM Studioも含めて代表的な4つのツールを挙げました。
以下以外にも、多くのツールがありますので、各自が使いやすいツールを利用いただければと思います。

ツール名インストールの容易さ推論速度インターフェースモデル管理特徴的な強み
Ollama🟢 とても簡単⚡ 高速CLI✅ ありシンプルでお手軽。Mac向けが特に強力。
llama.cpp🟠 中程度⚡⚡ 超高速CLI❌ 手動パフォーマンス最強。制御性抜群。
GPT4All🟢 簡単🔹 標準GUI✅ あり非エンジニアでも使いやすい。
LM Studio🟢 簡単🔹 標準GUI✅ あり直感的なUIで複数モデルを管理可能。

これより、LM Studioのインストール手順を説明します。

動作環境

本記事で検証した環境は以下の通りです。

• MacBook Pro 14インチ(2024年11月モデル)
• チップ:Apple M4
• メモリ:24 GB
• 起動ディスク:Macintosh HD
• OS:macOS 15.3.2 (24D81)

導入手順

1. インストーラーの入手

まずは公式サイト(LM Studio公式)にアクセスし、使用しているOSに対応したインストーラーをダウンロードします。

2. インストール手順

ダウンロードしたインストーラーを起動し、指示に従ってインストールを進めます。基本的には指示に従うだけで完了します。

以上でインストール完了です。

LM Studioを使ってみる

1. モデルの選択とダウンロード

インストール後、LM Studioを起動すると、直感的なインターフェースが表示されます。以下の手順でモデルを追加します。

左メニューから「探索」を開く

好みのモデルを一覧から選択し、「Download」をクリックしてモデルをダウンロードします。

自身のPCスペックと相談し、モデルを選択してください。
今回は、Apple Siliconに最適化されたMLXモデルを選択することとし、以下のモデルを選択しました。

続けて、右下にあるダウンロードボタンを押下します。
ダウンロードが開始されます。

ダウンロードが完了すると、右下に「ダウンロード完了!」のポップアップが表示されているので、
「Load Model」ボタンを押下してください。

そのままチャット画面に移動し、モデルがロードされます。

ローディング完了後は、ChatGPTのようにAIと会話することが可能となります。

2. 設定画面について

アプリをインストール後、以下より設定画面にて各種設定することをおすすめします。
アプリ画面の右下に歯車アイコンがあるので、それをクリックしてください。

設定画面が表示されます。

ここでは、アプリの更新、言語設定、その他カラーテーマ等が設定可能です。
言語設定は、デフォルトは英語でしたが、日本語に切り替え済みです。

今回は設定画面で何が可能かの深堀りは省略します。
別の記事として紹介するかもしれませんので、そのときにでも。

その他、左メニューからはモデルをダウンロードするための「Model Search」、ランタイム情報を表示する「Runtime」、ハードウェア情報を表示する「Hardware」などがあります。

3. マイモデルについて

各種モデルをダウンロードしたら、マイモデルにてダウンロードしたモデルが一覧表示されます。
この画面より、モデルの削除、モデル個別の設定が可能です。

4. 開発者について

これを説明すると、内容が膨大になるため省略します。
簡単に言うと、簡易的なOpenAI互換のAPIサーバーとなり、ネットワーク経由で各種モデルが利用可能になります。当然、全てのモデルが各エンドポイントに対応してはいません。/v1/chat/completionsであれば、大抵のモデルは対応していると思われます。

5. チャットについて

最後にメインの機能になりますが、ダウンロードしたモデルを気軽に試せる画面になります。
UIはChatGPTと同様のイメージになっております。

このチャット画面ですが、ChatGPTにないような機能も何点かあるのですが、その辺については別の記事で紹介予定のため、本件では割愛します。

以上、簡単ですがLM Studioの機能の紹介でした。

モデル選択時の注意点

LM Studioを利用する際、特に重要なのがモデル選択です。ここでは、モデル選択時に意識したいポイントを解説します。

ハードウェア性能に適したモデルを選ぶ

  • モデルのサイズによって必要となるメモリが異なります。
    大規模モデルほど高性能ですが、その分メモリ消費が増え、動作も遅くなります。
  • 利用しているマシンのスペックに合わせて、最適なモデルサイズを選びましょう。

例:Apple Silicon(Apple M4・メモリ24GB)搭載MacBook Proの場合

  • 一般的なテキスト生成や日常的な質問応答には7B〜13Bサイズのモデルがおすすめ。
  • より複雑な推論や高精度な回答を得たい場合は13Bサイズまでが適しています。ただし、高負荷時はパフォーマンスがやや低下する可能性があります。

パラメータ数が8Bで4bit量子化したモデルの場合、特に問題なく利用可能です。

パラメータ数が70Bのモデルになると、以下のような警告メッセージが表示されます。

選択する際、この警告メッセージの有無を確認するといいと思います。

また、モデル選択画面にて画面上にGGUFとMLXのチェック欄がありますが、MLXにチェックを入れると、Apple Siliconに最適化されたモデルのみが表示されるため、こちらのチェックを入れて選択することをおすすめします。

MLXについてはこちら

モデル選択時の具体的なチェックポイント

  • サイズと速度のバランス
    • 小さいモデル:高速だが精度・複雑な回答に限界がある
    • 大きいモデル:精度が高いが処理速度が遅く、メモリ消費が多い
  • タスクの性質に合わせたモデルを選択
    • 簡単なチャット用途:小~中サイズモデル
    • 複雑な推論や専門的質問:大きめのモデルを選ぶ
  • 利用頻度と消費電力の兼ね合い
    • 長時間利用するなら、小~中サイズのモデルが現実的

まとめ

LM Studioは直感的な操作性と柔軟なモデル管理が魅力のツールです。コストを抑えつつ、ローカルで高速に動作するLLM環境を手軽に構築できます。気軽にローカルLLMを試したい方に最適な環境といえます。



ギャップロを運営しているアップフロンティア株式会社では、一緒に働いてくれる仲間を随時、募集しています。 興味がある!一緒に働いてみたい!という方は下記よりご応募お待ちしております。
採用情報をみる