Ollama 下载模型时,有时候下载模型越下载越慢,但是你重启下又下载很快了,根据这个现象,我写了这个工具,当下载速度低于一个阈值时,自动重新下载。 使用该工具会拦截pull命令,其他的命令会正常转发给ollama。 ollama的镜像其实用的docker API那一套协议 ...
OLLAMA_HOST 开放的主机端口,格式为 host:port, 也可以写为:port(有冒号), 代表服务器开放在localhost:port上. OLLAMA_MODELS 保存模型的绝对路径. OLLAMA_ORIGINS 配置跨域,想要使用ollama的api,这一步是必须的,直接设置为代表允许所有跨域请求. OLLAMA_DEBUG 设置为1时,将在ollama ...