- アイデア
- 一つは MantouAI プラグインを使用して、アリババクラウドの期間限定無料の通義大モデルを呼び出す方法です。国産モデルは中国語のサポートがより良いです。
- もう一つは local-gpt プラグインを使用して、ローカルの gemma モデルリポジトリを呼び出し、ローカルにダウンロードした gemma:2b や qwen:4b などのモデルを実行する方法です。
- 方法
- MantouAI プラグイン法
- obsidian にコミュニティプラグイン MantouAI をインストールします。
- アリババクラウドで期間限定無料の Dashscope API キーを申請します。
- 申請したキーを MantouAI プラグインのフィールドに入力します。
- ノートの一部のテキストをコーパスとして選択した状態で、ctrl+P を押してコマンドパネルを開き、MantouAI と入力します。
- 必要に応じて、修正、翻訳、要約、質問などの機能を選択します。
- 結果はカーソルの位置に生成されます。
- obsidian のショートカットキーによく使用する機能を追加することもできます。たとえば、質問機能を ctrl+shift+? に設定するなどです。
- local-gpt プラグイン法
- コンピュータのシステムに ollama ソフトウェアを公式ウェブサイトからダウンロードしてインストールします。
- コマンドラインを開き、
ollama --version
と入力してインストールされたバージョンが正しいことを確認します。 ollama run gemma:2b
と入力し、8G のメモリをサポートする gemma:2b の小さなモデルをダウンロードしてインストールします。- ビデオメモリやメモリのサイズに応じて、複数のモデルをダウンロードしてインストールすることもできます。例えば:
ollama run gemma:4b
を選択することもできます。ollama run gemma:7b
を選択することもできます。ollama run qwen:4b
を選択することもできます。ollama run qwen:14b
を選択することもできます。- サポートされている具体的なモデルは、ollama の公式ウェブサイトで確認できます。
- obsidian に local-gpt プラグインをインストールし、設定します。
- 選択した AI プロバイダー:Ollama
- Ollama URL を http://localhost:11434 に設定します。
- デフォルトのモデルは、上記でインストールしたモデルに応じて選択します。例えば、gemma:2b です。
- local-gpt プラグインにショートカットキーを設定します。たとえば、ctrl+alt+? です。これは MantouAI の ctrl+shift+? と区別するためです。
- ノートの一部のテキストをコーパスとして選択した状態で、ctrl+alt+? を押します。
- 表示される Summarize などのコマンドから必要なコマンドを選択し、確定します。
- local-gpt プラグインの設定で、コマンドの名前やヒントワードを変更または追加することもできます。
- MantouAI プラグイン法
- 結論
- 国産の中文サポートがより良いため、優先的に MantouAI プラグイン法を使用します。
- プライバシーに配慮する場合は、local-gpt プラグイン法を使用できますが、コンピュータの要件が高くなります。