Ollama

テイラー百科事典

Ollama

OllamaはローカルマシンでオープンソースLLMを動かすランタイムです。ollama run llama3.2の一行でモデルのダウンロード・量子化・ロード・チャットまで一括処理し、裏でllama.cppを使うためCPU・Apple Silicon・NVIDIA GPUをすべてサポートします。

OllamaはローカルマシンでオープンソースLLMを動かすランタイムです。ollama run llama3.2の一行でモデルのダウンロード・量子化・ロード・チャットまで一括処理し、裏でllama.cppを使うためCPU・Apple Silicon・NVIDIA GPUをすべてサポートします。

OpenAI互換API(localhost:11434)も備えており、既存のOpenAI SDKコードでbase_urlを差し替えるだけでローカルモデルに切り替わります。ローカルLLM入門の事実上の標準ツールです。

→ 原典: Ollama GitHub

最終更新: 2026-04-21 · shuntailor.net テイラー百科事典
JAKO