2026年5月4日月曜日

Mac Studio で作る完全ローカル AI 開発環境(OpenCode + Qwen 3.5)

 

1. はじめに

  • 背景: クラウド AI(OpenAI 等)にコードを投げたくない、あるいは API コストを抑えたい。

  • 解決策: Apple Silicon (UMA) のパワーを活かし、OpenCode と llama-server でローカル完結のエージェント環境を構築する。

2. 事前準備:Llama-server の起動

秀成さんが実行したコマンドをベースに、GPU をフル活用する設定を紹介します。

Bash
# Llama-server の起動例
llama-server \
  --model ~/models/Qwen3.5-9B-Q8_0.gguf \
  --ctx-size 8192 \
  --port 8080 \
  --ngl 99
  • ポイント--ngl 99 で全てのレイヤーを GPU (Metal) にオフロードし、爆速化する。

3. OpenCode のインストールと「魔の」設定ファイル

ここが一番のハイライトです。UI から設定しても反映されない場合の「正解の JSON 構造」を記載します。

  • 設定パス~/.config/opencode/config.json

  • 正解の書き方:

JSON
{
  "provider": {
    "openai": {
      "apiKey": "dummy",
      "baseUrl": "http://localhost:8080/v1"
    }
  },
  "model": "local"
}
  • 注意点providers(複数形)ではなく provider であること、model キーの階層が外側であることを強調します。

4. 実際の動作:Terraform 等での検証

秀成さんが成功した "Screenshot 2026-05-04 at 23.28.36.jpg" のような、具体的なコード生成例を載せます。

  • 「つぎに sg と vps を作成して」といった曖昧な指示から、プロバイダー設定を含む main.tf が一瞬で生成される様子を紹介。

5. Automator による「一発起動アプリ」化

ターミナルを叩く手間を省くための、エンジニアらしい自動化ハックを紹介します。

  • llama-server と opencode を同時に立ち上げるスクリプトの解説。




0 件のコメント:

コメントを投稿

Mac Studio で作る完全ローカル AI 開発環境(OpenCode + Qwen 3.5)

  1. はじめに 背景 : クラウド AI(OpenAI 等)にコードを投げたくない、あるいは API コストを抑えたい。 解決策 : Apple Silicon (UMA) のパワーを活かし、OpenCode と  llama-server  でローカル完結のエージェント環境...