http://localhost:11434
访问。
如需运行其它模型,访问 Ollama Models 了解详情。
设置 > 模型供应商 > Ollama
中填入:
llama3.2
http://<your-ollama-endpoint-domain>:11434
此处需填写 Ollama 服务地址。如果填写公开 URL 后仍提示报错,请参考常见问题,修改环境变量并使得 Ollama 服务可被所有 IP 访问。
若 Dify 为 Docker 部署,建议填写局域网 IP 地址,例如:http://192.168.1.100:11434
或 Docker 容器的内部 IP 地址,例如:http://host.docker.internal:11434
。
若为本地源码部署,可填写 http://localhost:11434
。
对话
4096
模型的最大上下文长度,若不清楚可填写默认值 4096。
4096
模型返回内容的最大 token 数量,若模型无特别说明,则可与模型上下文长度保持一致。
是
当模型支持图片理解(多模态)勾选此项,如 llava
。
llava
模型,配置模型参数后即可使用。
Ollama
作为 macOS
应用程序运行,则应使用以下命令设置环境变量 launchctl
:
launchctl setenv
设置环境变量:
host.docker.internal
,才能访问 docker 的主机,所以将 localhost
替换为 host.docker.internal
服务就可以生效了:
systemctl
设置环境变量:
systemctl edit ollama.service
编辑 systemd 服务。这将打开一个编辑器。
[Service]
部分下添加一行 Environment
:
systemd
并重启 Ollama:
OLLAMA_HOST
、OLLAMA_MODELS
等。
ollama
OLLAMA_HOST
环境变量更改绑定地址。
如需获取 Ollama 更多信息,请参考