2026年1月6日

Codex CLIでLM StudioのローカルLLMを使う

Codex CLIを、LM Studioで動かすローカルLLM(OpenAI互換のローカルAPI)につないで、ローカル環境でコーディングエージェントとして使う手順をまとめます。

山﨑祐太
山﨑祐太
代表取締役
Codex CLIでLM StudioのローカルLLMを使う

はじめに

本記事では、LM Studio でローカルLLMを動かし、Codex CLIでそのLLMに接続し、ローカルでコーディングエージェントを動かす方法について記載します。

結論から言うと、LM Studioで「OpenAI互換API」を起動し、Codex CLIの設定でそのURLを参照するようにすれば、Codex CLIをローカルLLMにつないでコーディングエージェントとして動かせます。

このLM Studioの活用によって、コーディングエージェントをローカルで動かすことができ、セキュリティ的に一般的なコーディングエージェントの利用が難しいケースでも、セキュアに利用できる可能性が広がります。一方で「ローカルLLMで動かす=完全にオフライン」ではありません。たとえば初回のモデル取得、拡張機能の更新、外部依存のインストールなどはネットワークが関わることがあります。運用要件(社内ポリシーやログの扱い)に合わせて、どこまでをローカルに閉じるかは切り分けて考えるのが安全です。

また、Codexには使用量に制限があるため、このローカルLLMで動かす方法により、その制限を回避することが可能です。

今回の記事はOpenAIのCodexに関する公式ドキュメントに基づいて、記載しています。

Codex CLI とは?

Codex CLIは、ターミナルからリポジトリを読み込み、ファイル編集やコマンド実行を支援するエージェントです。設定は ~/.codex/config.toml で管理でき、モデルの指定や接続先を切り替えられます。

Codex については以下の記事でまとめていますので、よろしければこちらの記事もご覧ください。

LM Studio とは?

LM Studioは、ローカルマシン上でLLMを動かし、外部ツールから呼び出せるようにするための環境です。特に本記事では、LM Studioが提供する「OpenAI互換エンドポイント(/v1)」を使い、Codex CLIから localhost にHTTPでアクセスする形を扱います。

LM Studioについては、以下の記事で説明していますので、こちらの記事もよろしければご覧ください。

LM Studioのセットアップ

ここでは、LM Studioの「ダウンロード → インストール → モデルのダウンロード → ローカルサーバ起動」までを行い、Codex CLIから呼べる準備をします。

1) LM Studioをダウンロードしてインストールする

LM Studioは公式サイトから最新版をダウンロードしてインストールできます。まずはLM Studioをインストールし、起動してください。

インストールできたら、LM Studioは Power User モードで起動しておくと、後続の設定(開発者向けの操作)が進めやすくなります

LM Studio のトップページからダウンロードできます
LM Studio のトップページからダウンロードできます

2) モデルをダウンロードして動作確認する

LM Studioの探索(Explore)タブなどからモデル名を検索し、任意のモデルをダウンロードします。今回は gpt-oss-20b を利用します。

ダウンロードが完了したら、Use in New Chat などからチャットを開き、まずはLM Studio単体で応答が返ることを確認します。

gpt-oss-20b をダウンロードし、選択して使用を開始する
gpt-oss-20b をダウンロードし、選択して使用を開始する

3) コンテキスト長を調整する

Developer画面において、画面右側にある Context Length が gpt-oss-20b のデフォルトでは4096になっており、これを 40960 などに変更します。

これは、Codexのシステムプロンプトが4096以上の長さがあり、この後エラーになる可能性を避けるためです。

この設定が完了すれば、サイドバーの下部にある「Reload to apply changes」ボタンをクリックします。

これで LM Studio 側の準備は完了です。

Codex CLIの設定

次はCodex CLI側の接続先を設定します。

~/.codex/config.toml を開いて、以下を追記します。

profile = "gpt-oss-20b"

[model_providers.lmstudio]
name = "LMStudio"
base_url = "http://127.0.0.1:1234/v1"

[profiles.gpt-oss-20b]
model = "openai/gpt-oss-20b"
model_provider = "lmstudio"

もしLM Studio側のポートを 1234 以外にしている場合は、base_url のポート番号を合わせて変更してください。

LM Studio + Codex を実際に試してみる

ここまでできたら、いよいよCodex CLIを起動してみます。

$ codex

上記のコマンドをうち、以下のような画面が表示されれば、LM Studio のローカルLLMでCodexを起動できています。

LM Studio で Codex を起動
LM Studio で Codex を起動

実際にCodexにメッセージを送信すると、適切に返答が返っていることが分かります。

Codexにメッセージを送信する
Codexにメッセージを送信する

LM Studio の Developer Logs にも、以下のようにリクエストが来ていることが確認できます。

LM Studio Developer Logs
LM Studio Developer Logs

まとめ

LM StudioとCodex CLIを組み合わせると、ローカルLLMを「Codex CLIの実行エンジン」として使えるようになり、ネットワーク要件や運用ポリシーの都合でクラウド型のコーディングエージェントが使いにくいケースでも、試せる選択肢が増えます。

またセキュリティ観点のみにとどまらず、Codexの利用制限の対策として使える点も、ローカルLLMの魅力のひとつです。

株式会社Digeon では法人向けAIエージェントのファーストステップに最適なサービスである「ENSOU AI」を提供しています。

無料ですぐに使えるフリープランのご利用開始はこちらから👇

サービス紹介資料をこちらからダウンロードいただけます👇

ご相談、無料トライアルは、以下からお問い合わせください👇

フリープラン

今すぐ無料で始める

クレジットカード登録・申込不要。今すぐ始められます。

メールアドレスのみで今すぐ始められます!
無料で始める
お問い合わせ
無料でRAG構築ができる
無料で使えるプロンプトテンプレート多数
無料でGPT-5.1が使える

NEW

最新記事

Codex CLIでLM StudioのローカルLLMを使う

ブログ

Codex CLIでLM StudioのローカルLLMを使う

Codex CLIを、LM Studioで動かすローカルLLM(OpenAI互換のローカルAPI)につないで、ローカル環境でコーディングエージェントとして使う手順をまとめます。

2026/01/06詳細を見る
ChatGPT Codexとは?できること・使い方・導入判断をわかりやすく解説

ブログ

ChatGPT Codexとは?できること・使い方・導入判断をわかりやすく解説

ChatGPT Codexの概要とできること、CLI/IDE/クラウドの使い分け、導入判断のチェックポイントをまとめた実務ガイド。

2026/01/05詳細を見る
Agent Skillsとは?実世界タスクを回すためのスキル設計と共有の考え方

ブログ

Agent Skillsとは?実世界タスクを回すためのスキル設計と共有の考え方

Agent Skillsの目的や構成要素、実装ステップ、失敗ポイント、ガバナンス設計を整理し、実務で再現性を高めるための考え方を解説する。

2026/01/05詳細を見る
KintoneとENSOUを連携してRAGを構築する方法を徹底解説

ブログ

KintoneとENSOUを連携してRAGを構築する方法を徹底解説

PowerAutomateを使用し、Kintoneアプリのデータを自動でナレッジとして読み込むことで、常に最新のデータをAIに提供します。

2026/01/07詳細を見る
Claude Codeとは?ターミナルで使うClaudeの導入・使い方・安全運用ガイド

ブログ

Claude Codeとは?ターミナルで使うClaudeの導入・使い方・安全運用ガイド

Claude Codeは、Anthropicが提供するターミナル向けのAIコーディングエージェントです。Claude Codeの公式ドキュメントでは、コードベースを理解しながら編集やコマンド実行を行い、開発作業を前に進めるツールとして紹介されています。

2026/01/05詳細を見る
MCP(Model Context Protocol)とは?AIエージェントの外部連携を標準化する仕組みと導入の勘所【2026年版】

ブログ

MCP(Model Context Protocol)とは?AIエージェントの外部連携を標準化する仕組みと導入の勘所【2026年版】

MCPは、LLMアプリケーションと外部のデータソースやツールを「同じ繋ぎ方」で接続するためのオープンなプロトコルです。MCP公式仕様では、LLMに渡すコンテキストと、実行できる操作を、JSON-RPC 2.0ベースのセッションとしてやり取りする方法が定義されています。

2026/01/03詳細を見る