概要
LM StudioのローカルLLM
一般的なLLM(大規模言語モデル)サービスは、インターネット経由で接続することでチャット生成やコード生成などの機能を提供しています。今回紹介する「LM Studio」はインターネットに接続しなくても(アプリのインストールとかAIモデルのダウンロードなどの動作環境構築には必要)ローカルのPC環境でローカルでLLMを実行するためのアプリケーションです。従って、セキュリティを気にしているとか、自社のノウハウなどを外部サーバーへデータを送信せずにLLMを利用したい用途などに便利です。また「LM Studio」は複数のモデルを切り替えながら使用できます。
この記事では「LM Studio」の導入の初歩として「LM Studio」の導入手順と基本的な使い方について解説します。
- 概要 (このぺージ)
- インストール
- 導入テスト
- API-テスト
- LM Link
- 外部サービス連携(MCP)
ライセンス体系
「LM Studio」を使用する上での気になるライセンスはどうなっているのか?
最新のライセンスは「LM Studio」のサイト(https://lmstudio.ai/blog/free-for-work)をご確認ください。ここでは、簡単に説明します。
| 無料 | 個人・企業 | 当初は個人は無料でしたが企業も無料に変更されている。 |
| 有料(問い合わせ) | 企業 | TeamsとEnterpriseが有るようだが、詳しくは不明である。 |
運用コスト
「LM Studio」を運用する費用はアプリをローカル環境で使用する場合には発生しません。特別に有料ライセンスを購入すればもっと多くの情報へアクセス出来る様ですが、個人もしくは自社内で利用する事に関しての追加コストは発生しないようです。
運用コストとしては、非力なPCでは無理が有ります。例えば、8GBメモリで128GB SSDでは、小規模モデルであれば動作しますが、快適に利用するのは難しいでしょう。今回はMacBookPro 14インチ(M1-32GBRAM)でテストしました、使用するAIモデルによっては無理が有りそうです。macOSでは無く、Windows/Linux系だとGPUにも左右されるので何処まで「LM Studio」を使用するかによってPC/GPUのスペックを考慮する必要が有ります。
他のローカルLLM
「LM Studio」をテストした後に他のローカルLLMを調べました。以下以外にも沢山のローカルLLM対応が有ります。
| 名称 | URL | 概要 |
| LM Studio | https://lmstudio.ai | Element Labs, Inc. |
| Llama 4 | https://www.llama.com/models/llama-4/ | 2025年4月、Meta社、マルチモーダル機能と言うテキスト/画像/動画を処理 |
| Mistral AI | https://mistral.ai | 2023年、オープンソース型、複数のAIモデルを組み合わせて処理 |
| Qwen 3 | https://qwen.ai/home | 2025年、アリババクラウド、オープンソース |
| Gemma 4 | https://ai.google.dev/gemma/docs/core/model_card_4?hl=ja | 2024年、Google DeepMind社、AIオープン化戦略の一環で提供 |
| DeepSeek | https://www.deepseek.com | 2024年、DeepSeek社 |
| GPT-OSS | オープンモデル (gpt-oss) | 2025年8月、OpenAI社、オープンソースGPT系 |
| Phi-4 | https://azure.microsoft.com/ja-jp/products/phi | Microsoft社、小型言語モデル |
| TinyLlama | https://github.com/jzhang38/TinyLlama | 2024年1月、オープンソース(Apache 2.0)、エッジデバイス活用 |
注意事項
「LM Studio」をインストールするには、予めSSDの空きを確保してください。PCのRAMも重要です。可能な限り多い方が良さそうです。
AIモデルは1つ当たり、数GBから50GBを越える物まで有ります。2-3個のモデルをダウンロードし、アプリと合わせて50GBのSSDを消費したとかなります。