メインコンテンツまでスキップ

「Ollama」タグの記事が4件件あります

Ollamaを使ったローカルLLM実行に関する記事。

全てのタグを見る

Ollama Colab Private Chat にWeb検索RAG機能を追加しました

· 約3分
hiroaki
Individual Developer
当サイトがお役に立ったら ⭐️ の応援お願いします🙏
Star on GitHub

Ollama Colab Private Chat にWeb検索RAG機能を追加しました。チャットUIに追加した「🔍 Web検索」トグルをオンにするだけで、DuckDuckGoの検索結果をコンテキストに加えてLLMへ送信できます。

Google ColabのGPUで動く、ログを残さないプライベートLLMチャットツールをリリースしました。

· 約4分
hiroaki
Individual Developer
当サイトがお役に立ったら ⭐️ の応援お願いします🙏
Star on GitHub

ChatGPTやClaudeは優秀ですが、仕事の文章や個人的な内容を入力するとき、少し躊躇することはないでしょうか。かといって、ローカルにGPU環境を用意してOllamaを動かすのは、ハードルが高い。

そこで、Google ColabのGPUを使い、会話ログを一切外部に送らずに使えるプライベートなLLMチャット環境をノートブック1本で作りました。セルを上から順に実行するだけで動き始めます。

Google ColabをOllamaサーバーとして使えるノートブック「Ollama Colab Free Server」をリリースしました

· 約4分
hiroaki
Individual Developer
当サイトがお役に立ったら ⭐️ の応援お願いします🙏
Star on GitHub

本日、Google Colabの無料GPU上でOllamaを動かし、Claude CodeやContinueのバックエンドとして即座に利用できるオープンソースノートブック Ollama Colab Free Server を公開しました。セルを上から実行するだけで、数分以内に外部公開LLMサーバーが立ち上がります。

Google ColabでローカルLLMを無料比較できるOSSツール「Ollama Multi-Model Benchmarker」をリリースしました

· 約3分
hiroaki
Individual Developer
当サイトがお役に立ったら ⭐️ の応援お願いします🙏
Star on GitHub

本日、ローカルLLMの選定を支援するオープンソースツール Ollama Multi-Model Benchmarker を公開しました。Google Colabの無料T4 GPU環境上で複数のOllamaモデルを一括テストし、生成速度・応答性・モデルサイズなどの指標を自動で比較・可視化します。