1. はじめに
背景: クラウド AI(OpenAI 等)にコードを投げたくない、あるいは API コストを抑えたい。
解決策: Apple Silicon (UMA) のパワーを活かし、OpenCode と
llama-serverでローカル完結のエージェント環境を構築する。
2. 事前準備:Llama-server の起動
秀成さんが実行したコマンドをベースに、GPU をフル活用する設定を紹介します。
# Llama-server の起動例
llama-server \
--model ~/models/Qwen3.5-9B-Q8_0.gguf \
--ctx-size 8192 \
--port 8080 \
--ngl 99
ポイント:
--ngl 99で全てのレイヤーを GPU (Metal) にオフロードし、爆速化する。
3. OpenCode のインストールと「魔の」設定ファイル
ここが一番のハイライトです。UI から設定しても反映されない場合の「正解の JSON 構造」を記載します。
設定パス:
~/.config/opencode/config.json正解の書き方:
{
"provider": {
"openai": {
"apiKey": "dummy",
"baseUrl": "http://localhost:8080/v1"
}
},
"model": "local"
}
注意点:
providers(複数形)ではなくproviderであること、modelキーの階層が外側であることを強調します。
4. 実際の動作:Terraform 等での検証
秀成さんが成功した "Screenshot 2026-05-04 at 23.28.36.jpg" のような、具体的なコード生成例を載せます。
「つぎに sg と vps を作成して」といった曖昧な指示から、プロバイダー設定を含む
main.tfが一瞬で生成される様子を紹介。
5. Automator による「一発起動アプリ」化
ターミナルを叩く手間を省くための、エンジニアらしい自動化ハックを紹介します。
llama-serverとopencodeを同時に立ち上げるスクリプトの解説。
0 件のコメント:
コメントを投稿