✅ 第一步:安装 Ollama(本地大模型运行器)
1. 访问官网下载 Windows 安装包:[https://http://ollama.com/download](https://http://ollama.com/download)
2. 双击安装,默认路径即可。
3. 安装完成后,按 `Win + R`,输入 `cmd` 打开命令行,输入: ollama
若显示帮助信息,说明安装成功。
✅ 第二步:下载并运行 DeepSeek 模型
根据你的内存选择模型版本(建议):我的电脑是X1,所以我用的是| 12GB | deepseek-r1:14b |,下载用了差不多1小时时间;
按 `Win + R`,输入 `cmd` 打开命令行,输入: ollama run deepseek-r1:14b
首次运行会自动下载(约9GB),完成后可直接对话测试。
✅ 第三步:安装 Cherry Studio(可视化界面)
1. 官网下载安装包:[https://http://cherry-ai.com/download](https://http://cherry-ai.com/download)
2. 安装并启动 Cherry Studio。
3. **配置本地模型**:
– 点击左下角【设置】→【模型服务】→【Ollama】;
– 打开右上角开关;
– API地址填:`http://localhost:11434`;
– 点击【管理】,添加并启用 `deepseek-r1:14b`。
✅ 第四步:安装嵌入模型(用于知识库)
在CMD命令行中输入:ollama pull shaw/dmeta-embedding-zh
> 这是中文语义嵌入模型,支持知识库向量化。
✅ 第五步:创建本地知识库(Cherry Studio)
1. 打开 Cherry Studio;
2. 点击【知识库】→【新建知识库】;
3. 设置名称,选择嵌入模型为 `shaw/dmeta-embedding-zh`;(如果找不到回到第三步配置添加一个这个模型)
4. 拖入本地文档(PDF、Word、TXT、Markdown 等);
5. 等待文档向量化完成;
6. 返回聊天界面,选择知识库,即可基于本地文档问答。
注:这个有点坑只能用MinerU进行预处理,只有500页,想搞一个本地的‘tesseract’既然不支持,太坑了;
✅ 第六步:测试效果
– 先问通用问题:“你是谁?”
– 再上传一份文档(如简历、论文、手册),问:“这份文档里提到了哪些关键词?”
✅ 总结一句话
下载 Ollama → 拉 DeepSeek → 装 Cherry Studio → 拉嵌入模型 → 上传文档 → 开始问答**,全程本地运行,数据不上传,适合个人知识库搭建。