メインコンテンツまでスキップ

Google ColabのGPUで動く、ログを残さないプライベートLLMチャットツールをリリースしました。

· 約4分
hiroaki
Individual Developer
当サイトがお役に立ったら ⭐️ の応援お願いします🙏
Star on GitHub

ChatGPTやClaudeは優秀ですが、仕事の文章や個人的な内容を入力するとき、少し躊躇することはないでしょうか。かといって、ローカルにGPU環境を用意してOllamaを動かすのは、ハードルが高い。

そこで、Google ColabのGPUを使い、会話ログを一切外部に送らずに使えるプライベートなLLMチャット環境をノートブック1本で作りました。セルを上から順に実行するだけで動き始めます。

🚀 今すぐ試す

環境構築は不要です。以下のリンクからブラウザ上ですぐに実行できます。

こんな場面で使えます

  • 業務上の機密文書を要約・添削したいが、外部サービスには送りたくない
  • 個人的な悩みや日記を整理するのにLLMを使いたい
  • 最新のローカルLLMモデルをすぐ試してみたい
  • GPUのない手元のPCでも、ブラウザ一つでLLMを動かしたい

いずれも、このノートブック一つで対応できます。

3つの特徴

会話ログをどこにも保存しないステートレス設計になっています。ブラウザをリロードすれば即座に消去され、Colabのインスタンス外にデータが出ることはありません。

Google ColabのT4 GPUを使うため、完全無料で動きます。OpenAIやAnthropicのAPIキーも不要で、外部サービスへの依存がありません。

セルを上から順に実行するだけで、Ollamaのインストールからモデルのダウンロード、チャットUIの起動まで全工程が完結します。途中でコードを書く必要はありません。

チャットUIは2種類

Colabのセル出力内で動く Inline モード と、ブラウザの別タブで開く Standalone モード を用意しています。

Inlineモードはデフォルトの Direct(Colabカーネル内部通信)と Tunnel(Backup)(Cloudflare Tunnel経由)をワンクリックで切り替えられます。普段はDirectで十分高速に動作します。

Standaloneモードはスマートフォンを含む他の端末からもアクセスできる専用URLが発行されます。画面全体を使った快適なUI で、自分のPCから離れた場所でも使えます。

使い方

3ステップで始められます。

  1. Model Registry セルでモデルを選択する。ollama.com/search から好きなモデルをカンマ区切りで入力し、ラジオボタンで一つ選びます。
  2. Server セルを実行する。Ollamaの起動、モデルのダウンロード、Cloudflare Tunnelの確立が自動で走ります。初回のみモデルのダウンロードに数分かかります。
  3. Chat UI セルを実行してチャットを開始する。InlineかStandaloneのどちらかを選んで実行するだけです。

num_ctx パラメーターでコンテキスト長を変更できます(デフォルト4096トークン)。モデルサイズとVRAMのバランスを見ながら調整してください。

技術的な実装について

Ollamaのサーバー管理、Cloudflare Tunnelによるアクセス経路の確保、Colabの制約に合わせたストリーミング設計など、各コンポーネントをどう組み合わせたかについては別途まとめています。

技術解説記事:OllamaとCloudflare TunnelでColabにプライベートLLMチャット環境を作りました。

当サイトがお役に立ったら ⭐️ の応援お願いします🙏
Star on GitHub