メインコンテンツまでスキップ

「continue」タグのついた1記事

全てのタグを見る

Google ColabのGPUでOllamaを動かして、無料のLLMサーバーを立てる。

Claude CodeやContinueなどのコーディングアシスタントを使っていると、「APIのコストが気になる」「コードを外部サービスに送りたくない」という場面が出てきます。また、「ローカルLLMを手軽に試してみたいけど、手元のGPUでは遅くて使い物にならない」という悩みもあります。