testxlog

testxlog

在obsidian中用copilot插件来与本地资料对话

一、使用场景#

  • 有大量资料储备,并且很多已经想不起来了
  • 需要同资料对话,比如查找若干年前领导表述的一句话
  • 个人注重隐私,不愿意给公开互联网大语言模型喂菜
  • 本地电脑配置还可以,至少 8G 以上内存

二、实验思路#

  • 在 obsidian 笔记软件内,借助于 copilot 插件调用 ollama 服务
  • 用 ollama 调用大语言模型,比如 llama2-chinese 或 qwen:4b
  • 实现一问一答、单篇问答、全库聊天等功能

三、具体方法#

  • 电脑从官网安装ollama
  • 管理员身份打开终端或命令行模式
  • 输入ollama run llama2-chinese命令
  • 等待下载安装 llama2-chinese 模型完成
  • 输入/bye退出 ollama
  • 输入ollama pull nomic-embed-text命令
  • 等待下载安装nomic-embed-text
  • 输入/bye退出 ollama
    • 从桌面右下角任务栏退出运行的 ollama
    • 再从任务管理器中退出全部ollama.exe进程
    • 以上两步很关键
    • 否则后面会报错LangChain error: TypeError: Failed to fetch
  • 输入set OLLAMA_ORIGINS=app://obsidian.md*
  • 输入ollama serve启动服务
  • 保持终端或命令行窗口运行状态
  • obsidian 安装 copilot 插件
    • 设置默认模型为ollama(local)
    • ollama 模型选择llama2-chinese
    • ollama base url 设置为 http://localhost:11434
    • the embedding API 选择nomic-embed-text
    • ctrl+p 调出 obsidian 命令面板
    • 输入 copilot 并选择所需命令
    • 右侧边栏会显示 copilot 会话框
    • 根据需要选择聊天、单篇问答、全库问答等模式

四、实验总结#

  • 电脑配置好的情况下,这可能是不错的选择
  • 注重隐私保护的前提下,这将是不二的选择
  • 可喜的地方:可对全库资料进行索引对话
  • 不足的地方:需要终端或命令行窗口一直打开
加载中...
此文章数据所有权由区块链加密技术和智能合约保障仅归创作者所有。