wget https://github.com/cli/cli/releases/download/v2.5.2/gh_2.5.2_linux_386.rpm
sudo rpm -i gh_2.5.2_linux_386.rpm
今更ながら感は、ありますがAIエージェントとローカルLLMで MCPの設定を行ってみたいと思います。 1)ローカルLLMを使う上で、Ollamaと qwen2.5-coder:14bをいれました。 3)MCPを動かす上で、以下の導入を行います。 ①nodeのインストール: bre...
0 件のコメント:
コメントを投稿