Skip to content

LobeChat 与 Ollama

如何配置与部署 LobeChat 来使用 Ollama

lobe-chat

lobe-chat

部署

运行 LobeChat

shell
docker run -d -p 3210:3210 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434/v1 -e OPENAI_API_KEY=sk-xxx -e ACCESS_CODE=lobe66 --name lobe-chat lobehub/lobe-chat

使用本地通义千问 Qwen 模型

ollama

ollama

Ollama 是一款强大的本地运行大型语言模型(LLM)的框架,支持多种语言模型,包括 Llama 2, Mistral 等。

test

shell
curl http://localhost:11434/api/generate -d '{
  "model": "qwen:4b",
  "prompt":"Why is the sky blue?"
}'