メインコンテンツへスキップ

Cursorとの接続

Cursorとの接続

XcodeとCursorとを接続して、XcodeからChatとしてローカルLLMを使用する方法です。

Xcode関係の動作環境
LM Studio バージョン0.4.11+1 (0.4.11+1)


MacBookPro 14 inch CPU: Apple Silicon M1 Max

RAM: 32 GB

SSD: 1 TB

macOS: Tahoe 26.4

Xcode: 26.4 (APIテスト用)


MacBookPro 16 inch CPU: Apple Silicon M2 Max

RAM: 94 GB

SSD: 8 TB

macOS: Tahoe 26.4

Xcode: 26.4 (APIテスト用)
LM Studioの設定

まず、「LM Studio」のローカルサーバー機能を有効にします。

Developer画面を開きます。

スクリーンショット 2026-04-15 5.17.32.png

Status: Stoppedとなっているのを有効にします。
Status: Runnug状態とします。

スクリーンショット 2026-04-15 5.17.52.png

Statusの画面で接続URなどを確認します。今回はデフォルトの「http://127.0.0.1:1234」です。

スクリーンショット 2026-04-15 5.54.42.png

Xcodeの設定

次にXcodeでプロジェクトを開きます。Xcodeで「LM Studio」のローカルLLMに接続したときに直ぐにテストするためです。

スクリーンショット 2026-04-15 5.18.26.png

Xcodeの設定画面の「Intellgence」を開きます。

スクリーンショット 2026-04-15 5.18.52.png

Chat 項目で「Add a Chat Provider...」をクリックし、次の様な登録画面を開きます。

スクリーンショット 2026-04-15 5.19.06.png

設定を「LM Studion」のサーバー状態と同じ様に入力します。

Port: 1234 (初期値のまま)
Description: Local LM Studio Server (分かり易い名称)

スクリーンショット 2026-04-15 5.20.00.png

「Add」ボタンを押して登録します。新しいChatが登録出来ました。

スクリーンショット 2026-04-15 5.20.27.png

Xcodeのプロジェクト操作

XcodeのプロジェクトからChat > を起動します。Local LM Studio Serverを選択しモデルを選択します。今回は「openal/gpt-oss-120b」という大きな物を選択してみました。

スクリーンショット 2026-04-15 5.20.50.png