LobeChat 与 Ollama
如何配置与部署 LobeChat 来使用 Ollama
lobe-chat
部署
shell
docker run -d -p 3210:3210 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434/v1 -e OPENAI_API_KEY=sk-xxx -e ACCESS_CODE=lobe66 --name lobe-chat lobehub/lobe-chat
ollama
Ollama 是一款强大的本地运行大型语言模型(LLM)的框架,支持多种语言模型,包括 Llama 2, Mistral 等。
test
shell
curl http://localhost:11434/api/generate -d '{
"model": "qwen:4b",
"prompt":"Why is the sky blue?"
}'