一、使用场景#
- 有大量资料储备,并且很多已经想不起来了
 - 需要同资料对话,比如查找若干年前领导表述的一句话
 - 个人注重隐私,不愿意给公开互联网大语言模型喂菜
 - 本地电脑配置还可以,至少 8G 以上内存
 
二、实验思路#
- 在 obsidian 笔记软件内,借助于 copilot 插件调用 ollama 服务
 - 用 ollama 调用大语言模型,比如 llama2-chinese 或 qwen:4b
 - 实现一问一答、单篇问答、全库聊天等功能
 
三、具体方法#
- 电脑从官网安装ollama
 - 管理员身份打开终端或命令行模式
 - 输入
ollama run llama2-chinese命令 - 等待下载安装 llama2-chinese 模型完成
 - 输入
/bye退出 ollama - 输入
ollama pull nomic-embed-text命令 - 等待下载安装
nomic-embed-text - 输入
/bye退出 ollama- 从桌面右下角任务栏退出运行的 ollama
 - 再从任务管理器中退出全部
ollama.exe进程 - 以上两步很关键
 - 否则后面会报错
LangChain error: TypeError: Failed to fetch 
 - 输入
set OLLAMA_ORIGINS=app://obsidian.md* - 输入
ollama serve启动服务 - 保持终端或命令行窗口运行状态
 - obsidian 安装 copilot 插件
- 设置默认模型为
ollama(local) - ollama 模型选择
llama2-chinese - ollama base url 设置为 http://localhost:11434
 - the embedding API 选择
nomic-embed-text - ctrl+p 调出 obsidian 命令面板
 - 输入 copilot 并选择所需命令
 - 右侧边栏会显示 copilot 会话框
 - 根据需要选择聊天、单篇问答、全库问答等模式
 
 - 设置默认模型为
 
四、实验总结#
- 电脑配置好的情况下,这可能是不错的选择
 - 注重隐私保护的前提下,这将是不二的选择
 - 可喜的地方:可对全库资料进行索引对话
 - 不足的地方:需要终端或命令行窗口一直打开