一、使用场景#
- 有大量资料储备,并且很多已经想不起来了
- 需要同资料对话,比如查找若干年前领导表述的一句话
- 个人注重隐私,不愿意给公开互联网大语言模型喂菜
- 本地电脑配置还可以,至少 8G 以上内存
二、实验思路#
- 在 obsidian 笔记软件内,借助于 copilot 插件调用 ollama 服务
- 用 ollama 调用大语言模型,比如 llama2-chinese 或 qwen:4b
- 实现一问一答、单篇问答、全库聊天等功能
三、具体方法#
- 电脑从官网安装ollama
- 管理员身份打开终端或命令行模式
- 输入
ollama run llama2-chinese
命令 - 等待下载安装 llama2-chinese 模型完成
- 输入
/bye
退出 ollama - 输入
ollama pull nomic-embed-text
命令 - 等待下载安装
nomic-embed-text
- 输入
/bye
退出 ollama- 从桌面右下角任务栏退出运行的 ollama
- 再从任务管理器中退出全部
ollama.exe
进程 - 以上两步很关键
- 否则后面会报错
LangChain error: TypeError: Failed to fetch
- 输入
set OLLAMA_ORIGINS=app://obsidian.md*
- 输入
ollama serve
启动服务 - 保持终端或命令行窗口运行状态
- obsidian 安装 copilot 插件
- 设置默认模型为
ollama(local)
- ollama 模型选择
llama2-chinese
- ollama base url 设置为 http://localhost:11434
- the embedding API 选择
nomic-embed-text
- ctrl+p 调出 obsidian 命令面板
- 输入 copilot 并选择所需命令
- 右侧边栏会显示 copilot 会话框
- 根据需要选择聊天、单篇问答、全库问答等模式
- 设置默认模型为
四、实验总结#
- 电脑配置好的情况下,这可能是不错的选择
- 注重隐私保护的前提下,这将是不二的选择
- 可喜的地方:可对全库资料进行索引对话
- 不足的地方:需要终端或命令行窗口一直打开