Ollama 设置
Ollama 是一款优秀的本地大模型运行工具。通过 WordOllama,您可以直接在 Word/WPS 中调用本地运行的 Ollama 模型。
前提条件
- 已安装 Ollama
- 已下载至少一个模型(如
qwen2.5:7b) - Ollama 正在后台运行
配置步骤
- 打开 WordOllama 设置界面
- 在"AI 提供商"中选择 Ollama
- 在"API 地址"中输入
http://localhost:11434(默认地址) - 保存配置后,在 WordOllama 面板中选择您下载的模型
常用模型推荐
- qwen2.5:7b:通义千问 7B,中文能力强,综合表现优秀
- qwen2.5:3b:轻量级版本,适合低配置电脑
- llama3.2:3b:Meta 的轻量模型,英文表现好
- deepseek-r1:8b:DeepSeek 模型,推理能力强
验证连接
在设置界面点击"测试连接"按钮,如果配置正确,会显示连接成功的提示。
常见问题
Ollama 无法连接?
- 请确认 Ollama 正在运行:打开终端执行
ollama list查看 - 默认地址为
http://localhost:11434,请检查是否一致
模型加载缓慢?
首次加载模型时需要将模型加载到内存中,请耐心等待。后续使用会更快。