1. 项目概述一个能帮你“写”笔记的 Obsidian 插件如果你和我一样重度依赖 Obsidian 来构建和管理自己的知识库那你一定遇到过这样的场景面对一个刚创建的空笔记脑子里有无数想法但就是不知道从何下笔或者你整理了一堆零散的笔记片段却苦于无法将它们串联成一篇逻辑通顺的文章。这种“写作阻塞”的感觉相信每个内容创作者和知识工作者都深有体会。今天要聊的这个 Obsidian 插件——Text Generator就是专门为解决这类痛点而生的。它的核心功能简单来说就是利用人工智能模型在你的笔记环境中直接帮你生成、续写、总结和润色文本。它不是要取代你的思考而是作为一个强大的“写作副驾驶”在你思路卡壳时提供灵感在你需要提炼时提供摘要在你词穷时提供表达。这个由开发者 nhaouari 创建的开源项目已经成为了 Obsidian 社区中最受欢迎的 AI 增强工具之一它巧妙地将前沿的生成式 AI 能力无缝集成到了我们熟悉的笔记工作流中。无论你是学生需要整理课堂笔记、写论文提纲还是研究者需要归纳文献要点或是创作者需要构思文章草稿、润色文案Text Generator 都能提供实质性的帮助。它支持多种主流的大语言模型后端如 OpenAI 的 GPT 系列、Google 的 Gemini以及本地部署的 Ollama、LM Studio 等让你可以根据自己的需求、预算和对隐私的要求灵活选择。接下来我将带你深入拆解这个插件的核心设计、详细配置方法、实战应用场景并分享我在深度使用过程中积累的一系列实操技巧和避坑指南。2. 插件核心架构与设计思路拆解2.1 核心定位作为笔记流程的“智能增强层”Text Generator 的设计哲学非常清晰它不是一个独立的 AI 写作工具而是 Obsidian 这个“第二大脑”的智能扩展。这意味着它的所有功能都紧密围绕“笔记”这个核心场景展开。开发者 nhaouari 没有试图做一个大而全的 AI 套件而是聚焦于几个与笔记创作和管理高度相关的核心任务生成、续写、总结、扩写、改写、翻译以及基于上下文的问答。这种定位决定了它的交互设计是“非侵入式”的。你不需要离开 Obsidian 的编辑界面去某个网页或应用里操作。所有的 AI 功能都通过命令面板、右键菜单、快捷键或者自定义的按钮来触发生成的内容直接插入到你当前光标所在的位置。这种流畅的体验让你感觉 AI 能力就像是 Obsidian 原生功能的一部分极大地减少了工作流的中断。2.2 模块化后端支持连接AI模型的桥梁插件的强大之处在于其出色的模块化设计。它自身并不包含 AI 模型而是作为一个“中间件”或“客户端”去连接各种不同的 AI 服务提供商。这种设计带来了极大的灵活性云端模型最常用的是 OpenAI 的 API。你只需要在插件设置中填入自己的 API Key就能调用 GPT-3.5-Turbo、GPT-4 等模型。优点是效果稳定、能力强缺点是会产生持续的费用并且你的提示词和生成内容会发送到 OpenAI 的服务器。本地模型这是对隐私要求高的用户的福音。插件支持通过Ollama或LM Studio这类工具本地运行开源大模型如 Llama 3、Mistral、Qwen 等。你需要在电脑上先运行 Ollama 服务然后在插件设置中将 API 端点指向本地地址如http://localhost:11434。优点是数据完全本地无需联网无使用成本缺点是对电脑硬件尤其是 GPU 内存有一定要求且模型效果可能略逊于顶尖的云端模型。其他云端服务插件也支持 Anthropic 的 Claude、Google 的 Gemini 等只需在设置中配置相应的 API 基地址和密钥即可。注意选择哪种后端取决于你的核心需求。如果追求最强的生成效果和便捷性且不介意费用和隐私考量OpenAI 是最佳选择。如果处理的是敏感笔记或希望零成本无限使用那么投入时间搭建本地环境是值得的。2.3 提示词模板引擎功能可定制的灵魂如果说后端连接是插件的“身体”那么提示词模板就是它的“灵魂”。Text Generator 允许你创建、编辑和调用自定义的提示词模板Prompts Templates。这是一个革命性的功能它让你能将复杂的 AI 交互逻辑固化下来一键复用。例如你可以创建一个名为“论文大纲生成器”的模板其内容可能是请基于以下主题生成一份学术论文的详细大纲要求包含摘要、引言、文献综述、研究方法、预期结果、讨论与结论等部分。 主题{{topic}}在这里{{topic}}是一个变量。当你在笔记中选中“机器学习在医疗诊断中的应用”这段文字然后调用这个模板时插件会自动用选中的内容替换{{topic}}并将完整的提示词发送给 AI。插件内置了一些常用模板如“总结”、“扩写”、“润色”等但真正的威力在于自定义。你可以为任何重复性的写作任务创建模板写邮件、生成周报、头脑风暴、写读书笔记、甚至将杂乱笔记整理成表格。模板文件以.tg.md为后缀存储在 Obsidian 库的指定文件夹中管理起来非常方便。3. 从零开始详细配置与核心功能实操3.1 环境准备与插件安装首先确保你已经在电脑上安装了 Obsidian。Text Generator 插件的安装非常标准打开 Obsidian进入“设置” - “社区插件”。确保“限制模式”已关闭然后点击“浏览”。在搜索框中输入“Text Generator”找到由 “nhaouari” 开发的插件点击“安装”。安装完成后返回插件列表找到 “Text Generator”将其开关拨到开启状态。此时你会在左侧边栏看到一个大脑形状的图标这就是 Text Generator 的主界面入口。同时在设置中也会出现对应的配置项。3.2 核心配置详解连接你的AI大脑安装只是第一步配置才是关键。点击插件图标或进入设置你会看到几个核心配置区域1. 基础设置API 提供商下拉选择如 OpenAI、Ollama、Google AI Studio 等。API 密钥如果你选择 OpenAI 或 Google需要在此处填入你的密钥。对于 Ollama此项留空。API 基地址这是最重要的设置之一。对于 OpenAI通常是https://api.openai.com/v1。对于本地 Ollama则是http://localhost:11434/api。务必确保地址正确结尾的/v1或/api不能遗漏或错误这是很多连接失败的根源。默认模型选择你希望默认使用的模型如gpt-3.5-turbo、llama3:8bOllama等。2. 高级设置温度控制生成文本的随机性。值越高接近1.0输出越创造性、越不可预测值越低接近0输出越确定、越保守。对于总结、润色等任务建议设低一些如0.2-0.5对于头脑风暴、创意写作可以设高一些0.7-0.9。最大令牌数限制单次生成的最大长度。需根据模型上下文窗口和你的需求设置。GPT-3.5-Turbo 通常是 4096但实际生成时会预留一部分给输入。一般设为 1000-2000 足够应对多数笔记场景。上下文大小插件能从当前笔记中提取多少内容作为背景发送给 AI。设置得越大AI 对上下文的理解越充分但也会消耗更多令牌增加成本和延迟。通常 1500-2000 是个平衡点。3. 测试连接配置完成后务必使用设置页面底部的“测试连接”按钮。如果成功你会看到模型返回的简单问候。如果失败请依次检查网络连接、API 密钥是否正确、API 基地址格式是否正确、本地模型服务如 Ollama是否已启动。3.3 五大核心功能实战演示配置妥当后让我们在笔记中实际体验它的核心功能。假设我正在写一篇关于“远程工作效率”的笔记。功能一文本生成在笔记中新建一行输入“提高远程工作效率的十个方法”。将光标放在冒号后按下CtrlP(CmdP on Mac) 打开命令面板。输入“Text Generator”并选择“Generate text”命令。稍等片刻AI 就会续写出一个包含十个方法的列表。这完美解决了“开头难”的问题。功能二总结与提炼我有一段长达三段的关于“时间阻塞法”的阅读摘录。用鼠标选中这三段文字。右键点击选中区域在右键菜单中选择“Text Generator: Summarize”。AI 会生成一段简洁的摘要概括核心要点。这对于处理长文献或会议记录极其有用。功能三扩写与润色我写了一句干巴巴的话“会议纪要需要及时整理。”选中这句话通过命令面板或右键菜单选择“Expand”或“Improve Writing”。“Expand”可能会将其扩写为一段关于会议纪要重要性和方法的描述。“Improve Writing”则会优化其表达可能改为“为确保信息不遗漏并便于后续追溯会议结束后应立即对纪要进行系统化整理。”功能四基于上下文的智能问答这是我最喜欢的功能之一它让你的笔记库变成了一个可以对话的知识库。假设我的笔记库中有多篇关于“项目管理”、“敏捷开发”和“团队协作”的笔记。我在一篇新笔记中提问“根据我笔记库中关于敏捷开发的内容Scrum 和 Kanban 的主要区别是什么”在提问时我使用命令“Generate text with context”。插件会自动检索相关笔记的内容将其作为上下文连同我的问题一起发送给 AI。AI 返回的答案是基于我个人笔记库的更具针对性。这相当于为你的知识库配备了一个私人顾问。功能五自定义模板调用这才是发挥插件全部潜力的方式。假设我创建了一个“将要点转化为待办清单”的模板todo_from_points.tg.md请将以下要点转化为清晰、可执行的待办事项清单每项以“- [ ]”开头。 要点 {{input}}我在笔记中写下了“调研Markdown编辑器比较Obsidian和Logseq写一份报告。”选中这段文字打开命令面板选择“Text Generator: Templates: todo_from_points”。瞬间我就得到了- [ ] 调研Obsidian的核心功能、插件生态和优缺点。 - [ ] 调研Logseq的核心功能、块引用特点和优缺点。 - [ ] 从功能、易用性、社区支持等维度制作对比表格。 - [ ] 根据调研结果撰写一份详细的对比分析报告。这极大地提升了从想法到行动的转化效率。4. 高级玩法与自定义模板创作指南4.1 设计高效提示词模板的黄金法则仅仅会调用模板还不够能创作出高效的模板才是高手。一个好的提示词模板是清晰指令、充足上下文和恰当约束的结合体。法则一角色扮演给 AI 设定一个明确的角色能显著提升输出质量。例如在“润色邮件”模板开头加上“你是一位专业、礼貌的商务沟通专家请帮我润色以下邮件草稿使其语气更得体、表达更清晰。”法则二结构化输出明确告诉 AI 你想要的格式。这对于后续信息处理至关重要。例如“请用 Markdown 表格形式输出包含‘方法’、‘优点’、‘缺点’三列。”法则三分步思考对于复杂任务可以引导 AI 逐步完成。例如“首先总结这段话的核心论点。其次找出支持该论点的三个关键证据。最后用一句话评价其说服力。”法则四利用变量Text Generator 支持多种变量让模板动态化。{{title}}当前笔记的标题。{{content}}或{{input}}选中的文本或当前光标所在段落。{{selection}}选中的文本。{{frontmatter}}当前笔记的 Front-matter 元数据。你甚至可以定义自定义变量在调用时手动输入。4.2 实战模板案例剖析下面分享几个我自用的、经过反复优化的模板并解释其设计思路。案例一读书笔记生成器# 角色 你是一位资深的书评人和知识管理教练。 # 任务 请基于以下我从书籍《{{book_title}}》中摘录的片段和我的随想生成一份结构化的读书笔记。 # 输入 **摘录与随想** {{selection}} # 输出要求 1. **核心观点提炼**用一两句话概括本章/本书的核心思想。 2. **关键概念解析**列出2-4个关键新概念并给出你的解释。 3. **与我何干**这部分内容如何与我的既有知识假设我的领域是{{my_field}}产生联系能解决我工作/生活中的什么具体问题 4. **行动灵感**基于此内容列出1-3项我可以立即开始尝试的行动项。 请使用清晰的二级标题##来组织以上内容。设计思路这个模板将零散的摘录转化为有组织的知识资产。它通过角色设定提升了输出的专业性通过结构化要求确保了笔记的实用性特别是“与我何干”和“行动灵感”部分将被动阅读转化为主动学习。案例二会议录音要点提炼# 背景 以下是一段会议录音的自动转文字稿内容可能冗长、重复、口语化。 # 任务 你的任务是扮演一位高效的行政助理从文字稿中提炼出精华。 # 输入文稿 {{content}} # 输出要求 请按以下结构组织输出 ## 会议决议 - 明确列出会议上做出的所有决定、拍板的事项。 ## 待办事项 - 列出所有分配给具体人请用[姓名]指代的任务及其截止时间如有。 ## 关键讨论点 - 概括讨论的核心分歧、重要观点或未决问题。 ## 后续步骤 - 明确会议后需要立即进行的跟进动作。 请务必忠于原文不要添加原文中没有的信息。使用简洁的列表格式。设计思路直接针对“会议纪要”这一高频痛点。它引导 AI 不是简单总结而是进行信息分类提取直接产出可执行的行动清单和待追踪的决议极大提升了会议记录的实用价值。案例三碎片想法串联成文你是一位写作教练。我收集了一些关于“{{topic}}”的碎片化想法和笔记片段。它们逻辑上相关但表达散乱。请帮我将这些碎片整合、梳理形成一篇逻辑连贯、段落分明的短文草稿。 **我的碎片想法** {{selection}} **请你** 1. 识别这些碎片中的核心主题和子话题。 2. 按照“引入主题 - 展开论述 - 举例说明 - 总结升华”的基本结构重新组织语言。 3. 确保段落之间有自然的过渡句。 4. 输出时在需要我补充细节或数据的地方用“【待补充】”标出。 最终输出应是一篇读起来顺畅的草稿而不是要点列表。设计思路这个模板解决了“有料但无序”的写作初期困境。它赋予 AI“写作教练”的角色不仅要求重组还要求构建文章结构和处理过渡最后用“【待补充】”的协作方式明确了 AI 与人的分工让生成的内容成为可继续加工的优质半成品。4.3 模板的管理与分享创建好的模板保存在库的.obsidian/plugins/obsidian-textgenerator-plugin/templates目录下或你在设置中指定的自定义文件夹。你可以用任何 Markdown 编辑器管理它们。备份定期备份这个 templates 文件夹你的所有创作智慧就得以保存。分享直接将.tg.md文件分享给他人他们放入自己的模板目录即可使用。社区资源GitHub 和 Obsidian 论坛上有大量用户分享的优质模板是学习和获取灵感的宝库。5. 性能优化、隐私考量与成本控制5.1 响应速度与稳定性优化使用云端 API 时响应速度主要受网络和 OpenAI 服务器状态影响。使用本地模型时则取决于你的硬件。以下是一些优化技巧精简上下文在设置中合理设置“上下文大小”。不是越大越好。对于续写、润色等操作通常当前段落或前几段就够了。过大的上下文会拖慢速度、增加成本。使用流式输出在插件高级设置中开启“流式响应”。这样文字会逐词出现而不是等待全部生成完毕才显示。虽然总时间可能差不多但即时反馈的体验好很多尤其在生成长文本时。模型选择如果对生成质量要求不是极致gpt-3.5-turbo在速度和成本上远优于gpt-4且对多数笔记任务来说已完全够用。本地模型方面参数量更小的模型如 7B 参数响应更快。超时设置在网络不稳定时适当增加“请求超时”时间避免频繁因超时失败。5.2 隐私与数据安全策略这是使用任何 AI 工具都必须严肃考虑的问题。云端模型的隐私风险当你使用 OpenAI、Google 等 API 时你发送的提示词和接收的生成内容都会经过他们的服务器。尽管主流提供商都有严格的数据使用政策如 OpenAI 承诺不用于训练模型但从绝对隐私角度看数据离开了你的设备。应对策略脱敏处理在发送给云端 API 前手动或通过其他插件将笔记中的真实人名、公司名、地址、特定项目代号等敏感信息替换为泛化标签如[人物A]、[某公司]。任务隔离仅将不敏感的内容创作、语言润色、通用知识问答等任务交给云端模型。涉及个人日记、机密工作记录、未公开创意的思考坚决使用本地模型。本地模型是终极方案对于隐私要求极高的场景投资搭建本地 Ollama 环境是唯一选择。所有数据都在本地循环彻底杜绝泄露风险。你需要权衡的是硬件成本、部署时间和模型能力。5.3 云端API成本控制实战如果你主要使用 OpenAI API成本控制至关重要。GPT-4 的成本是 GPT-3.5 的 15-30 倍。监控用量养成定期登录 OpenAI 账户查看使用情况和成本的习惯。OpenAI 提供了按天细分的用量图表。设置预算与限额在 OpenAI 平台你可以为 API 密钥设置软限额达到后发送邮件警告和硬限额达到后直接停止服务。这是防止意外“天价账单”最有效的保险丝。优化提示词提示词越长消耗的令牌越多费用越高。练习编写简洁、精准的提示词既能得到好结果又能省钱。避免在提示词中堆砌不必要的背景信息。善用“上下文大小”限制如前所述这个设置直接决定了每次请求会发送多少令牌的上下文。根据任务需要调低它。默认使用 GPT-3.5-Turbo将其设为默认模型。仅在需要深度推理、复杂创意或处理非常棘手的任务时手动切换到 GPT-4。你可以在模板中指定模型为不同任务固定不同模型。6. 常见问题排查与深度使用技巧6.1 连接与报错问题速查问题现象可能原因排查步骤与解决方案测试连接失败1. API 密钥错误或失效。2. API 基地址错误。3. 网络问题代理/防火墙。4. 本地服务未启动Ollama。1. 检查密钥是否复制完整无多余空格是否在对应平台仍有效。2. 逐字核对 API 基地址特别是http/https端口号以及结尾的/v1或/api。3. 尝试在浏览器中直接访问 API 地址本地或检查代理设置。4. 对于 Ollama在终端运行ollama serve并确保其持续运行然后运行ollama list确认模型已下载。生成时提示“未选择文本”某些命令如总结、扩写需要预先选中文本。在使用“Summarize”、“Expand”等命令前先用鼠标或键盘选中目标文本段落。生成内容完全无关或混乱1. 提示词不清晰。2. 温度Temperature设置过高。3. 上下文包含矛盾或干扰信息。1. 优化你的提示词给出更明确的指令和角色设定。2. 将温度调低至 0.3-0.7 范围再试。3. 检查“上下文大小”是否包含了无关内容尝试调小或手动提供更干净的上下文。Ollama 本地模型响应慢1. 模型参数过大硬件跟不上。2. 未使用 GPU 加速。1. 尝试更小的模型如 7B 参数版本。2. 确保 Ollama 正确识别并使用了你的 GPU可通过ollama ps查看。在 Ollama 运行前设置环境变量如OLLAMA_HOST0.0.0.0有时有帮助。6.2 提升使用效率的独家技巧快捷键绑定为最常用的命令如“Generate”、“Summarize”设置 Obsidian 快捷键。在 Obsidian 设置 - 快捷键 - 搜索“Text Generator”即可绑定。这将你的操作从“打开命令面板 - 输入 - 选择”简化为一次按键。与“快速添加”插件联动我常用“QuickAdd”插件来捕获闪念。我可以设置一个 QuickAdd 选择在捕获想法后自动调用 Text Generator 的“Expand”模板对其进行初步扩展一气呵成。模板变量进阶使用除了内置变量你可以在提示词中使用{{date}}、{{time}}等获取系统时间用于生成带时间戳的日志或日报。你还可以探索通过其他插件如 Dataview获取更复杂的变量。批量处理虽然插件主要面向交互式操作但你可以通过一些“笨办法”进行半批量处理。例如将需要总结的多个段落用特定符号分隔然后一次性选中使用一个自定义的“批量分段落总结”模板让 AI 分别处理并格式化输出。结果后处理AI 生成的内容并非完美。将其视为“初稿”。生成后务必进行人工审阅、修正和整合。特别是事实性内容必须核实。Text Generator 是一个强大的“协作者”而非“替代者”。6.3 思维模式的转变从记录到对话使用 Text Generator 一段时间后我最大的收获不是效率提升而是思维模式的改变。我的 Obsidian 库从一个静态的档案库变成了一个可以与之“对话”的动态知识体。当我读到一个复杂概念时我会选中它然后问“用比喻向我解释这个概念。”当我写文章卡住时我会让 AI 基于我已有的草稿提供三个不同的续写方向。当我面对一堆杂乱的研究笔记时我会让 AI 帮我提炼出可能的研究论文结构。这个插件将 AI 从“黑箱”变成了一个集成在写作流中的、触手可及的“思考伙伴”。关键在于你要学会向它提出好问题设计好提示词并学会批判性地评估和利用它的输出。它不会让你变懒而是让你能更专注于更高层次的思考、创意和决策将机械性的文字组织、信息提炼工作交给这位不知疲倦的助手。开始尝试与你的笔记对话吧你会发现你的知识管理过程变得更加主动和富有创造性。
Obsidian Text Generator插件:AI赋能笔记创作与知识管理实战指南
1. 项目概述一个能帮你“写”笔记的 Obsidian 插件如果你和我一样重度依赖 Obsidian 来构建和管理自己的知识库那你一定遇到过这样的场景面对一个刚创建的空笔记脑子里有无数想法但就是不知道从何下笔或者你整理了一堆零散的笔记片段却苦于无法将它们串联成一篇逻辑通顺的文章。这种“写作阻塞”的感觉相信每个内容创作者和知识工作者都深有体会。今天要聊的这个 Obsidian 插件——Text Generator就是专门为解决这类痛点而生的。它的核心功能简单来说就是利用人工智能模型在你的笔记环境中直接帮你生成、续写、总结和润色文本。它不是要取代你的思考而是作为一个强大的“写作副驾驶”在你思路卡壳时提供灵感在你需要提炼时提供摘要在你词穷时提供表达。这个由开发者 nhaouari 创建的开源项目已经成为了 Obsidian 社区中最受欢迎的 AI 增强工具之一它巧妙地将前沿的生成式 AI 能力无缝集成到了我们熟悉的笔记工作流中。无论你是学生需要整理课堂笔记、写论文提纲还是研究者需要归纳文献要点或是创作者需要构思文章草稿、润色文案Text Generator 都能提供实质性的帮助。它支持多种主流的大语言模型后端如 OpenAI 的 GPT 系列、Google 的 Gemini以及本地部署的 Ollama、LM Studio 等让你可以根据自己的需求、预算和对隐私的要求灵活选择。接下来我将带你深入拆解这个插件的核心设计、详细配置方法、实战应用场景并分享我在深度使用过程中积累的一系列实操技巧和避坑指南。2. 插件核心架构与设计思路拆解2.1 核心定位作为笔记流程的“智能增强层”Text Generator 的设计哲学非常清晰它不是一个独立的 AI 写作工具而是 Obsidian 这个“第二大脑”的智能扩展。这意味着它的所有功能都紧密围绕“笔记”这个核心场景展开。开发者 nhaouari 没有试图做一个大而全的 AI 套件而是聚焦于几个与笔记创作和管理高度相关的核心任务生成、续写、总结、扩写、改写、翻译以及基于上下文的问答。这种定位决定了它的交互设计是“非侵入式”的。你不需要离开 Obsidian 的编辑界面去某个网页或应用里操作。所有的 AI 功能都通过命令面板、右键菜单、快捷键或者自定义的按钮来触发生成的内容直接插入到你当前光标所在的位置。这种流畅的体验让你感觉 AI 能力就像是 Obsidian 原生功能的一部分极大地减少了工作流的中断。2.2 模块化后端支持连接AI模型的桥梁插件的强大之处在于其出色的模块化设计。它自身并不包含 AI 模型而是作为一个“中间件”或“客户端”去连接各种不同的 AI 服务提供商。这种设计带来了极大的灵活性云端模型最常用的是 OpenAI 的 API。你只需要在插件设置中填入自己的 API Key就能调用 GPT-3.5-Turbo、GPT-4 等模型。优点是效果稳定、能力强缺点是会产生持续的费用并且你的提示词和生成内容会发送到 OpenAI 的服务器。本地模型这是对隐私要求高的用户的福音。插件支持通过Ollama或LM Studio这类工具本地运行开源大模型如 Llama 3、Mistral、Qwen 等。你需要在电脑上先运行 Ollama 服务然后在插件设置中将 API 端点指向本地地址如http://localhost:11434。优点是数据完全本地无需联网无使用成本缺点是对电脑硬件尤其是 GPU 内存有一定要求且模型效果可能略逊于顶尖的云端模型。其他云端服务插件也支持 Anthropic 的 Claude、Google 的 Gemini 等只需在设置中配置相应的 API 基地址和密钥即可。注意选择哪种后端取决于你的核心需求。如果追求最强的生成效果和便捷性且不介意费用和隐私考量OpenAI 是最佳选择。如果处理的是敏感笔记或希望零成本无限使用那么投入时间搭建本地环境是值得的。2.3 提示词模板引擎功能可定制的灵魂如果说后端连接是插件的“身体”那么提示词模板就是它的“灵魂”。Text Generator 允许你创建、编辑和调用自定义的提示词模板Prompts Templates。这是一个革命性的功能它让你能将复杂的 AI 交互逻辑固化下来一键复用。例如你可以创建一个名为“论文大纲生成器”的模板其内容可能是请基于以下主题生成一份学术论文的详细大纲要求包含摘要、引言、文献综述、研究方法、预期结果、讨论与结论等部分。 主题{{topic}}在这里{{topic}}是一个变量。当你在笔记中选中“机器学习在医疗诊断中的应用”这段文字然后调用这个模板时插件会自动用选中的内容替换{{topic}}并将完整的提示词发送给 AI。插件内置了一些常用模板如“总结”、“扩写”、“润色”等但真正的威力在于自定义。你可以为任何重复性的写作任务创建模板写邮件、生成周报、头脑风暴、写读书笔记、甚至将杂乱笔记整理成表格。模板文件以.tg.md为后缀存储在 Obsidian 库的指定文件夹中管理起来非常方便。3. 从零开始详细配置与核心功能实操3.1 环境准备与插件安装首先确保你已经在电脑上安装了 Obsidian。Text Generator 插件的安装非常标准打开 Obsidian进入“设置” - “社区插件”。确保“限制模式”已关闭然后点击“浏览”。在搜索框中输入“Text Generator”找到由 “nhaouari” 开发的插件点击“安装”。安装完成后返回插件列表找到 “Text Generator”将其开关拨到开启状态。此时你会在左侧边栏看到一个大脑形状的图标这就是 Text Generator 的主界面入口。同时在设置中也会出现对应的配置项。3.2 核心配置详解连接你的AI大脑安装只是第一步配置才是关键。点击插件图标或进入设置你会看到几个核心配置区域1. 基础设置API 提供商下拉选择如 OpenAI、Ollama、Google AI Studio 等。API 密钥如果你选择 OpenAI 或 Google需要在此处填入你的密钥。对于 Ollama此项留空。API 基地址这是最重要的设置之一。对于 OpenAI通常是https://api.openai.com/v1。对于本地 Ollama则是http://localhost:11434/api。务必确保地址正确结尾的/v1或/api不能遗漏或错误这是很多连接失败的根源。默认模型选择你希望默认使用的模型如gpt-3.5-turbo、llama3:8bOllama等。2. 高级设置温度控制生成文本的随机性。值越高接近1.0输出越创造性、越不可预测值越低接近0输出越确定、越保守。对于总结、润色等任务建议设低一些如0.2-0.5对于头脑风暴、创意写作可以设高一些0.7-0.9。最大令牌数限制单次生成的最大长度。需根据模型上下文窗口和你的需求设置。GPT-3.5-Turbo 通常是 4096但实际生成时会预留一部分给输入。一般设为 1000-2000 足够应对多数笔记场景。上下文大小插件能从当前笔记中提取多少内容作为背景发送给 AI。设置得越大AI 对上下文的理解越充分但也会消耗更多令牌增加成本和延迟。通常 1500-2000 是个平衡点。3. 测试连接配置完成后务必使用设置页面底部的“测试连接”按钮。如果成功你会看到模型返回的简单问候。如果失败请依次检查网络连接、API 密钥是否正确、API 基地址格式是否正确、本地模型服务如 Ollama是否已启动。3.3 五大核心功能实战演示配置妥当后让我们在笔记中实际体验它的核心功能。假设我正在写一篇关于“远程工作效率”的笔记。功能一文本生成在笔记中新建一行输入“提高远程工作效率的十个方法”。将光标放在冒号后按下CtrlP(CmdP on Mac) 打开命令面板。输入“Text Generator”并选择“Generate text”命令。稍等片刻AI 就会续写出一个包含十个方法的列表。这完美解决了“开头难”的问题。功能二总结与提炼我有一段长达三段的关于“时间阻塞法”的阅读摘录。用鼠标选中这三段文字。右键点击选中区域在右键菜单中选择“Text Generator: Summarize”。AI 会生成一段简洁的摘要概括核心要点。这对于处理长文献或会议记录极其有用。功能三扩写与润色我写了一句干巴巴的话“会议纪要需要及时整理。”选中这句话通过命令面板或右键菜单选择“Expand”或“Improve Writing”。“Expand”可能会将其扩写为一段关于会议纪要重要性和方法的描述。“Improve Writing”则会优化其表达可能改为“为确保信息不遗漏并便于后续追溯会议结束后应立即对纪要进行系统化整理。”功能四基于上下文的智能问答这是我最喜欢的功能之一它让你的笔记库变成了一个可以对话的知识库。假设我的笔记库中有多篇关于“项目管理”、“敏捷开发”和“团队协作”的笔记。我在一篇新笔记中提问“根据我笔记库中关于敏捷开发的内容Scrum 和 Kanban 的主要区别是什么”在提问时我使用命令“Generate text with context”。插件会自动检索相关笔记的内容将其作为上下文连同我的问题一起发送给 AI。AI 返回的答案是基于我个人笔记库的更具针对性。这相当于为你的知识库配备了一个私人顾问。功能五自定义模板调用这才是发挥插件全部潜力的方式。假设我创建了一个“将要点转化为待办清单”的模板todo_from_points.tg.md请将以下要点转化为清晰、可执行的待办事项清单每项以“- [ ]”开头。 要点 {{input}}我在笔记中写下了“调研Markdown编辑器比较Obsidian和Logseq写一份报告。”选中这段文字打开命令面板选择“Text Generator: Templates: todo_from_points”。瞬间我就得到了- [ ] 调研Obsidian的核心功能、插件生态和优缺点。 - [ ] 调研Logseq的核心功能、块引用特点和优缺点。 - [ ] 从功能、易用性、社区支持等维度制作对比表格。 - [ ] 根据调研结果撰写一份详细的对比分析报告。这极大地提升了从想法到行动的转化效率。4. 高级玩法与自定义模板创作指南4.1 设计高效提示词模板的黄金法则仅仅会调用模板还不够能创作出高效的模板才是高手。一个好的提示词模板是清晰指令、充足上下文和恰当约束的结合体。法则一角色扮演给 AI 设定一个明确的角色能显著提升输出质量。例如在“润色邮件”模板开头加上“你是一位专业、礼貌的商务沟通专家请帮我润色以下邮件草稿使其语气更得体、表达更清晰。”法则二结构化输出明确告诉 AI 你想要的格式。这对于后续信息处理至关重要。例如“请用 Markdown 表格形式输出包含‘方法’、‘优点’、‘缺点’三列。”法则三分步思考对于复杂任务可以引导 AI 逐步完成。例如“首先总结这段话的核心论点。其次找出支持该论点的三个关键证据。最后用一句话评价其说服力。”法则四利用变量Text Generator 支持多种变量让模板动态化。{{title}}当前笔记的标题。{{content}}或{{input}}选中的文本或当前光标所在段落。{{selection}}选中的文本。{{frontmatter}}当前笔记的 Front-matter 元数据。你甚至可以定义自定义变量在调用时手动输入。4.2 实战模板案例剖析下面分享几个我自用的、经过反复优化的模板并解释其设计思路。案例一读书笔记生成器# 角色 你是一位资深的书评人和知识管理教练。 # 任务 请基于以下我从书籍《{{book_title}}》中摘录的片段和我的随想生成一份结构化的读书笔记。 # 输入 **摘录与随想** {{selection}} # 输出要求 1. **核心观点提炼**用一两句话概括本章/本书的核心思想。 2. **关键概念解析**列出2-4个关键新概念并给出你的解释。 3. **与我何干**这部分内容如何与我的既有知识假设我的领域是{{my_field}}产生联系能解决我工作/生活中的什么具体问题 4. **行动灵感**基于此内容列出1-3项我可以立即开始尝试的行动项。 请使用清晰的二级标题##来组织以上内容。设计思路这个模板将零散的摘录转化为有组织的知识资产。它通过角色设定提升了输出的专业性通过结构化要求确保了笔记的实用性特别是“与我何干”和“行动灵感”部分将被动阅读转化为主动学习。案例二会议录音要点提炼# 背景 以下是一段会议录音的自动转文字稿内容可能冗长、重复、口语化。 # 任务 你的任务是扮演一位高效的行政助理从文字稿中提炼出精华。 # 输入文稿 {{content}} # 输出要求 请按以下结构组织输出 ## 会议决议 - 明确列出会议上做出的所有决定、拍板的事项。 ## 待办事项 - 列出所有分配给具体人请用[姓名]指代的任务及其截止时间如有。 ## 关键讨论点 - 概括讨论的核心分歧、重要观点或未决问题。 ## 后续步骤 - 明确会议后需要立即进行的跟进动作。 请务必忠于原文不要添加原文中没有的信息。使用简洁的列表格式。设计思路直接针对“会议纪要”这一高频痛点。它引导 AI 不是简单总结而是进行信息分类提取直接产出可执行的行动清单和待追踪的决议极大提升了会议记录的实用价值。案例三碎片想法串联成文你是一位写作教练。我收集了一些关于“{{topic}}”的碎片化想法和笔记片段。它们逻辑上相关但表达散乱。请帮我将这些碎片整合、梳理形成一篇逻辑连贯、段落分明的短文草稿。 **我的碎片想法** {{selection}} **请你** 1. 识别这些碎片中的核心主题和子话题。 2. 按照“引入主题 - 展开论述 - 举例说明 - 总结升华”的基本结构重新组织语言。 3. 确保段落之间有自然的过渡句。 4. 输出时在需要我补充细节或数据的地方用“【待补充】”标出。 最终输出应是一篇读起来顺畅的草稿而不是要点列表。设计思路这个模板解决了“有料但无序”的写作初期困境。它赋予 AI“写作教练”的角色不仅要求重组还要求构建文章结构和处理过渡最后用“【待补充】”的协作方式明确了 AI 与人的分工让生成的内容成为可继续加工的优质半成品。4.3 模板的管理与分享创建好的模板保存在库的.obsidian/plugins/obsidian-textgenerator-plugin/templates目录下或你在设置中指定的自定义文件夹。你可以用任何 Markdown 编辑器管理它们。备份定期备份这个 templates 文件夹你的所有创作智慧就得以保存。分享直接将.tg.md文件分享给他人他们放入自己的模板目录即可使用。社区资源GitHub 和 Obsidian 论坛上有大量用户分享的优质模板是学习和获取灵感的宝库。5. 性能优化、隐私考量与成本控制5.1 响应速度与稳定性优化使用云端 API 时响应速度主要受网络和 OpenAI 服务器状态影响。使用本地模型时则取决于你的硬件。以下是一些优化技巧精简上下文在设置中合理设置“上下文大小”。不是越大越好。对于续写、润色等操作通常当前段落或前几段就够了。过大的上下文会拖慢速度、增加成本。使用流式输出在插件高级设置中开启“流式响应”。这样文字会逐词出现而不是等待全部生成完毕才显示。虽然总时间可能差不多但即时反馈的体验好很多尤其在生成长文本时。模型选择如果对生成质量要求不是极致gpt-3.5-turbo在速度和成本上远优于gpt-4且对多数笔记任务来说已完全够用。本地模型方面参数量更小的模型如 7B 参数响应更快。超时设置在网络不稳定时适当增加“请求超时”时间避免频繁因超时失败。5.2 隐私与数据安全策略这是使用任何 AI 工具都必须严肃考虑的问题。云端模型的隐私风险当你使用 OpenAI、Google 等 API 时你发送的提示词和接收的生成内容都会经过他们的服务器。尽管主流提供商都有严格的数据使用政策如 OpenAI 承诺不用于训练模型但从绝对隐私角度看数据离开了你的设备。应对策略脱敏处理在发送给云端 API 前手动或通过其他插件将笔记中的真实人名、公司名、地址、特定项目代号等敏感信息替换为泛化标签如[人物A]、[某公司]。任务隔离仅将不敏感的内容创作、语言润色、通用知识问答等任务交给云端模型。涉及个人日记、机密工作记录、未公开创意的思考坚决使用本地模型。本地模型是终极方案对于隐私要求极高的场景投资搭建本地 Ollama 环境是唯一选择。所有数据都在本地循环彻底杜绝泄露风险。你需要权衡的是硬件成本、部署时间和模型能力。5.3 云端API成本控制实战如果你主要使用 OpenAI API成本控制至关重要。GPT-4 的成本是 GPT-3.5 的 15-30 倍。监控用量养成定期登录 OpenAI 账户查看使用情况和成本的习惯。OpenAI 提供了按天细分的用量图表。设置预算与限额在 OpenAI 平台你可以为 API 密钥设置软限额达到后发送邮件警告和硬限额达到后直接停止服务。这是防止意外“天价账单”最有效的保险丝。优化提示词提示词越长消耗的令牌越多费用越高。练习编写简洁、精准的提示词既能得到好结果又能省钱。避免在提示词中堆砌不必要的背景信息。善用“上下文大小”限制如前所述这个设置直接决定了每次请求会发送多少令牌的上下文。根据任务需要调低它。默认使用 GPT-3.5-Turbo将其设为默认模型。仅在需要深度推理、复杂创意或处理非常棘手的任务时手动切换到 GPT-4。你可以在模板中指定模型为不同任务固定不同模型。6. 常见问题排查与深度使用技巧6.1 连接与报错问题速查问题现象可能原因排查步骤与解决方案测试连接失败1. API 密钥错误或失效。2. API 基地址错误。3. 网络问题代理/防火墙。4. 本地服务未启动Ollama。1. 检查密钥是否复制完整无多余空格是否在对应平台仍有效。2. 逐字核对 API 基地址特别是http/https端口号以及结尾的/v1或/api。3. 尝试在浏览器中直接访问 API 地址本地或检查代理设置。4. 对于 Ollama在终端运行ollama serve并确保其持续运行然后运行ollama list确认模型已下载。生成时提示“未选择文本”某些命令如总结、扩写需要预先选中文本。在使用“Summarize”、“Expand”等命令前先用鼠标或键盘选中目标文本段落。生成内容完全无关或混乱1. 提示词不清晰。2. 温度Temperature设置过高。3. 上下文包含矛盾或干扰信息。1. 优化你的提示词给出更明确的指令和角色设定。2. 将温度调低至 0.3-0.7 范围再试。3. 检查“上下文大小”是否包含了无关内容尝试调小或手动提供更干净的上下文。Ollama 本地模型响应慢1. 模型参数过大硬件跟不上。2. 未使用 GPU 加速。1. 尝试更小的模型如 7B 参数版本。2. 确保 Ollama 正确识别并使用了你的 GPU可通过ollama ps查看。在 Ollama 运行前设置环境变量如OLLAMA_HOST0.0.0.0有时有帮助。6.2 提升使用效率的独家技巧快捷键绑定为最常用的命令如“Generate”、“Summarize”设置 Obsidian 快捷键。在 Obsidian 设置 - 快捷键 - 搜索“Text Generator”即可绑定。这将你的操作从“打开命令面板 - 输入 - 选择”简化为一次按键。与“快速添加”插件联动我常用“QuickAdd”插件来捕获闪念。我可以设置一个 QuickAdd 选择在捕获想法后自动调用 Text Generator 的“Expand”模板对其进行初步扩展一气呵成。模板变量进阶使用除了内置变量你可以在提示词中使用{{date}}、{{time}}等获取系统时间用于生成带时间戳的日志或日报。你还可以探索通过其他插件如 Dataview获取更复杂的变量。批量处理虽然插件主要面向交互式操作但你可以通过一些“笨办法”进行半批量处理。例如将需要总结的多个段落用特定符号分隔然后一次性选中使用一个自定义的“批量分段落总结”模板让 AI 分别处理并格式化输出。结果后处理AI 生成的内容并非完美。将其视为“初稿”。生成后务必进行人工审阅、修正和整合。特别是事实性内容必须核实。Text Generator 是一个强大的“协作者”而非“替代者”。6.3 思维模式的转变从记录到对话使用 Text Generator 一段时间后我最大的收获不是效率提升而是思维模式的改变。我的 Obsidian 库从一个静态的档案库变成了一个可以与之“对话”的动态知识体。当我读到一个复杂概念时我会选中它然后问“用比喻向我解释这个概念。”当我写文章卡住时我会让 AI 基于我已有的草稿提供三个不同的续写方向。当我面对一堆杂乱的研究笔记时我会让 AI 帮我提炼出可能的研究论文结构。这个插件将 AI 从“黑箱”变成了一个集成在写作流中的、触手可及的“思考伙伴”。关键在于你要学会向它提出好问题设计好提示词并学会批判性地评估和利用它的输出。它不会让你变懒而是让你能更专注于更高层次的思考、创意和决策将机械性的文字组织、信息提炼工作交给这位不知疲倦的助手。开始尝试与你的笔记对话吧你会发现你的知识管理过程变得更加主动和富有创造性。