1. 開発パイプラインの全体像
私が構築したのは、役割を明確に分担させた多段構成だ。
1層目(実装担当):ローカルAI (Qwen3-9B / Roo Code)
実行環境: M4 Max / M1 Max (llama.cpp)
役割: ジュニアエンジニア。Terraformやスクリプトの初稿を爆速で書き上げる。
利点: APIコストを気にせず、機密情報を外に出さずに「100回の試行錯誤」ができる。
2層目(査読担当):クラウドAI (Google Code Assist / GitHub Copilot)
役割: シニアエンジニア。
内容: ローカルAIが吐き出したコードのバグ、セキュリティ、ベストプラクティスをチェックし、洗練させる。
利点: クラウド側の膨大な計算資源と、最新のドキュメントに基づいた「大局的な判断」を仰ぐ。
3層目(承認担当):自分自身
役割: CTO / 最終意思決定。
内容: 30年の経験をもとに、AIたちの提案が「現場の運用」に耐えうるかを判断する。
2. なぜローカルAIは「ジュニア」で、クラウドAIは「シニア」なのか
ローカルで動かす9Bクラスのモデルは、タイピングや定型コードの生成には非常に長けているが、全体像を把握する能力には限界がある。
一方、クラウドAI(特にGemini Code Assistなど)はコンテキスト窓が広く、プロジェクト全体を俯瞰したレビューができる。 「下書きは若手(ローカル)に、ハンコを貰う前の添削はベテラン(クラウド)に」 この役割分担が、個人の開発効率を極限まで引き上げる。
3. コストと「災厄」への備え
これまでGitHub Copilot Proに月10ドル払ってきたが、この構成が完成してから「いらないかもしれない」と考え始めた。 Google Code Assistの強力な無料枠があるうちは、クラウドAIを「無料のシニア」として活用し、余った予算はデバイスや投資(恩株など)に回すのが賢明だ。
もし将来的にクラウドAIが高価になる「災厄」が来ても、この構成なら問題ない。 「ローカルAI(実装)→ 自分(レビュー・承認)」 のセミオート構成に切り替えるだけだ。自前のM4 Max環境と、30年のキャリアがあれば、AIの価格変動に振り回されることはない。
結び
エンジニアとしての達成感は、常に道具を最適化し、自らの手で環境を支配することにある。 M4 MaxのパワーをLLMに振り向け、クラウドを賢く使い倒す。これが、2026年現在の私の最適解だ。
0 件のコメント:
コメントを投稿