news 2026/5/7 10:34:48

基于AI与自由标签的智能错题管理系统设计与实践

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
基于AI与自由标签的智能错题管理系统设计与实践

1. 项目概述:一个为备考者量身定制的智能错题管家

如果你正在准备GRE、雅思、考研,或者任何需要大量刷题、反复总结的考试,那你一定对“错题本”这个概念不陌生。从学生时代起,老师就告诉我们整理错题的重要性,但真正坚持下来的人寥寥无几。问题出在哪?过程太繁琐了。你需要手动抄题(或剪贴)、分析错误原因、归类知识点、还要定期回顾——这本身就是一项浩大的工程,消耗的精力甚至超过了学习本身。

今天要聊的这个项目,拾遗·通用考试备考追踪,就是为了彻底解决这个痛点而生的。它不是一个简单的笔记软件,而是一个深度集成在OpenClaw平台上的“AI学习伙伴”。它的核心逻辑很简单:你只管学习、做题、犯错,剩下的归档、分析、提醒、复习,全部交给它自动化处理。无论是你随手拍下的一道数学错题截图,还是对一道阅读题错误选项的几句语音吐槽,它都能理解你的意图,自动提取关键信息,并为你构建一个持续进化的、专属于你的知识薄弱点图谱。

我最初接触这个项目,是因为自己备考时深受错题整理之苦。试过各种笔记软件,要么分类太死板,要么回顾功能太弱。而“拾遗”最吸引我的,是它的“无感化”学习和“自由标签”体系。你不用事先设定复杂的文件夹结构,AI会根据你备考的考试类型,自动理解并生成恰到好处的标签粒度。对于GRE考生,它能精确到“Text Completion双空逻辑”或“Argument Essay因果假设攻击”;对于考研数学,它能识别出“换元积分法”或“特征值求解”;对于期末考,它甚至能关联到具体的课程章节。这种动态的、基于语义的理解能力,让错题管理从一项负担,变成了一个自然而然的学习副产品。

2. 核心设计思路:如何让错题管理“无感”且“智能”

2.1 从“朱批录”到“拾遗”:专用与通用的哲学演变

要理解“拾遗”,最好先看看它的前身—— 朱批录 。朱批录是一个专门为公务员考试(行测、申论)设计的错题追踪工具。它的设计非常“专”:科目固定为言语理解、数量关系、判断推理、资料分析和申论,识别逻辑也深度优化了行测题干的特征和选项规律。这对于考公用户来说非常高效,因为场景高度聚焦。

但这也带来了局限性:一个考研党或者留学生,用朱批录来管理GRE错题就显得格格不入。难道要为每一种考试都开发一个专用工具吗?这显然不现实。“拾遗”正是在这个背景下诞生的通用解决方案。它的核心设计哲学是:剥离固定的科目结构,将识别和分类的能力交给一个可配置、可学习的AI引擎,同时提供一个极度自由、可积累的标签系统。

核心差异点就在于“自由标签”。朱批录的标签是预设的、结构化的树状目录。而拾遗的标签是动态生成的、扁平化的关键词集合。当你第一次告诉拾遗你在备考“GRE”时,它会加载针对GRE考试的背景知识提示词(Prompt),这些提示词会指导AI在分析你的错题时,应该关注哪些维度(比如,对于Verbal,要区分是Text Completion还是Reading Comprehension;对于Quant,要区分是Algebra还是Geometry)。AI根据这些指导,从你的输入中提取出最相关的标签,如“Text Completion-双空逻辑-词汇量不足”。这个标签会被存入一个专属于“GRE”考试的标签词库。

下一次,当你再录入一道GRE的错题时,AI不仅会参考背景知识,还会优先从已有的标签词库里寻找相似或相关的标签进行推荐或直接复用。这意味着,随着你使用时间的增长,这个标签体系会越来越贴合你的个人知识盲区,形成一个越用越聪明的“个性化错题分类法”。不同考试之间的标签库是完全隔离的,互不干扰,保证了系统的纯净性。

2.2 工作流设计:闭环的“输入-处理-输出-回顾”

一个优秀工具的生命力在于其能否无缝嵌入用户现有的工作流。拾遗的设计紧紧围绕备考者的自然学习过程,构建了一个完整的闭环。

  1. 输入阶段(极简):用户无需打开特定App或进行复杂操作。在OpenClaw的对话界面(如飞书、微信机器人),你可以:

    • 发送错题截图:这是最常用的方式。拍下练习册、iPad笔记或模拟软件上的错题,直接发送。
    • 发送文字描述:比如“今天做了一套阅读,第三篇关于生物多样性的主旨题错了,错因是细节定位偏差”。
    • 快捷录入:甚至可以直接发送“微积分-极限计算-洛必达法则使用条件不清”这样的结构化文本,系统会直接解析并归档。
  2. 处理阶段(智能)

    • 考试上下文识别:系统首先确认你当前处于哪种考试的备考模式下(例如GRE)。这个上下文至关重要,它决定了AI调用哪一套分析逻辑。
    • 多模态理解:如果是图片,会通过OCR提取文字,并结合视觉信息理解题目结构(如选择题选项、数学公式等)。
    • AI解析与打标:核心步骤。AI根据当前考试的背景提示词,分析题目内容、你的错误答案(或你描述的错误原因),自动生成或匹配出“题型”、“知识点”、“错误原因”等多个维度的标签。
    • 结构化存储:将题目原文(或图片链接)、你的笔记、AI生成的标签、以及时间戳,以结构化的JSON格式存入本地数据库。
  3. 输出阶段(可操作)

    • 即时反馈:处理完成后,AI会回复一条消息,总结它识别到的关键信息,并询问你是否需要补充或修正。这既是一种确认,也是一次微调的机会。
    • 定期总结:通过配置的定时任务(如每晚21点),系统会自动生成当日的学习报告,例如“今日新增错题5道,其中‘长难句分析’相关3道,建议重点回顾”。
    • 按需导出:你可以随时通过“导出GRE的错题”这样的指令,触发系统生成一个Excel文件。这个文件会按时间、标签等多个维度整理所有错题,方便打印或进一步分析。
  4. 回顾阶段(自动化)

    • 间隔重复提醒:这是将工具价值最大化的关键。系统会根据艾宾浩斯遗忘曲线的原理(虽然实现上做了简化),定期(如每隔一天)通过机器人向你推送“二刷提醒”,随机或按标签抽取之前记录的错误题目。
    • 自评反馈循环:你只需要对提醒中的题目回复“记得”或“不记得”。如果连续两次对同一道题回复“记得”,系统会自动将其标记为“已掌握”,后续减少或停止推送。如果回复“不记得”,则该题目会重新进入高频复习队列。

这个闭环的设计,使得错题管理从“需要主动维护的任务”变成了“被动接收服务的过程”,极大地降低了用户的坚持成本。

2.3 技术架构选型:轻量、本地优先与可扩展性

作为一个运行在OpenClaw技能框架下的项目,拾遗在技术选型上充分考虑了轻量、隐私和可扩展性。

  • 运行环境:基于Node.js (≥18),这使得它能够轻松运行在个人电脑、服务器甚至一些容器环境中。选择Node.js生态,也便于利用丰富的NPM包来处理文件、生成Excel等。
  • 数据存储:采用纯粹的本地文件系统存储(JSON文件)。所有你的错题数据、标签库、配置都保存在你本地机器的~/.openclaw/skills/shiyi/data/目录下。这意味着你的所有学习数据完全私有,不会上传到任何第三方服务器,对于注重隐私的用户来说至关重要。同时,项目设计了简单的自动备份机制,保留最近10份数据快照,防止误操作。
  • AI能力集成:其智能核心依赖于OpenClaw平台背后连接的AI大模型能力(如GPT、Claude等)。项目本身不包含模型,而是通过精心设计的提示词(Prompt)来引导大模型完成解析和打标任务。这种设计将复杂的模型训练和维护成本转移到了平台层,让技能开发者可以专注于业务逻辑和交互设计。
  • 技能化架构:作为OpenClaw的一个Skill,它天然具备了与各种消息平台(飞书、钉钉、微信等)集成的能力,以及定时任务(Cron Job)调度能力。这使得“每日总结”和“二刷提醒”这样的自动化功能可以非常优雅地实现。

这种架构使得拾遗既保持了核心功能的强大和智能,又具备了极低的部署和使用门槛,用户无需关心复杂的AI模型部署,只需一个能运行OpenClaw的环境即可。

3. 核心功能模块深度解析

3.1 智能解析引擎:如何让AI“读懂”你的错题

这是拾遗最核心的“黑科技”部分。它如何从一张模糊的截图或一段随意的文字中,提取出结构化的信息?关键在于assets/exam_prompts.js这个文件和背后的提示工程技术。

1. 考试背景提示词(Exam Prompt):这个文件里预置了各种考试的“背景知识”。它本质上是一段给AI模型的“说明书”。例如,GRE的提示词可能会这样写:

你是一个GRE备考专家。用户会发送GRE考试中做错的题目,可能是Verbal(语文)或Quant(数学)部分。 请分析题目,并提取以下信息: 1. 题目原文(如果图片模糊,描述核心内容)。 2. 题型:如 Text Completion, Sentence Equivalence, Reading Comprehension (主旨/细节/推断), Quantitative Comparison, Problem Solving 等。 3. 知识点:尽可能具体,如“词汇-形近词辨析”、“代数-一元二次方程求根”、“逻辑-因果假设漏洞”。 4. 错误原因:如“词汇量不足”、“长难句理解偏差”、“计算粗心”、“公式记忆错误”、“解题思路错误”。 请用中文输出,并以JSON格式组织。

当用户设定备考GRE后,系统在分析任何输入时,都会将这段提示词作为系统指令的一部分发送给AI,从而将AI的“角色”和“分析框架”锁定在GRE的语境下。这确保了分析的专业性和准确性。

2. 多模态输入处理:

  • 图片处理:通过OpenClaw平台或集成OCR服务,先将图片转为文字。这里有一个关键细节:单纯的OCR可能丢失格式信息。对于数学公式、化学式或特定排版的选择题,需要提示AI结合图片的上下文进行理解。例如,提示词中会加入“题目可能包含数学公式,请予以关注并正确解读”。
  • 文字处理:相对直接。但对于“快捷录入”模式(用户直接输入“题型-知识点-错因”),系统有专门的解析逻辑,会尝试按分隔符拆分,并直接使用用户提供的标签,而非再次调用AI分析。这给了高级用户完全的控制权。

3. 标签的生成与匹配:解析完成后,系统会得到一组初步的标签(如[“Text Completion”, “双空逻辑”, “词汇量不足”])。接下来,它会查询本地tag_library.json中当前考试下的历史标签库。

  • 模糊匹配:系统会计算新标签与历史标签的相似度(例如,通过词向量或简单的分词交集)。如果发现高度相似的标签(如“词汇量不足”和“词汇量不够”),则会优先使用已有的标签,以保证数据的一致性。
  • 新标签入库:如果没有匹配到,新标签会被加入到标签库中。这样,标签库就像一个不断生长的“知识图谱”种子,越来越丰富。

实操心得:AI解析的准确性高度依赖于提示词的质量。在项目初期,我发现对于某些专业领域(如法律条文、医学术语),通用提示词效果不佳。后来在exam_prompts.js中为“司法考试”增加了更具体的指令,如“请关注法条编号和司法解释的具体适用情形”,解析精度大幅提升。给你的建议是:如果你备考的领域非常垂直,不妨参考现有格式,为你自己的考试定制一段更详细的提示词,这能极大提升使用体验。

3.2 自由标签系统:动态生长的个人知识图谱

与传统的固定分类法(如“数学/代数/函数”)不同,拾遗的标签系统是扁平、动态且可积累的。这是它“通用性”的基石。

  • 扁平化存储:所有标签都以字符串形式存储在一个数组中,没有层级关系。例如[“考研英语”, “阅读理解”, “细节题”, “同义替换”, “2024-真题”]。这种结构虽然牺牲了严格的层级,但带来了极大的灵活性,允许任意维度的交叉组合。
  • 自动积累:如前所述,每一个被AI识别或用户手动添加的新标签,都会进入词库。词库文件 (tag_library.json) 的结构大致如下:
    { "GRE": ["Text Completion", "双空逻辑", "词汇量不足", "长难句分析", "Quantitative Comparison", "几何-三角形性质"], "考研数学": ["高等数学", "极限", "洛必达法则", "一元函数微分学", "泰勒公式应用", "2023年真题"], "驾照科目一": ["交通信号灯", "违章扣分", "高速公路规定"] }
  • 智能推荐与复用:当你输入新错题时,系统不仅从提示词中获取分析方向,还会将这个标签库作为上下文提供给AI,暗示它:“在过去,用户常用这些标签来描述类似问题。”这能引导AI生成更一致、更符合用户个人习惯的标签。
  • 隔离性:不同考试的标签库完全独立。这避免了“GRE词汇”和“考研英语词汇”标签混在一起造成的混乱,保持了每个备考领域的纯净性。

这种设计的优势在于:它完美适配了“从混乱到有序”的个人学习过程。初期,标签可能比较散乱;但随着记录增多,高频出现的标签会自然浮现,勾勒出你个人的薄弱环节分布图。你可以通过导出数据,轻松统计出“词汇量不足”这个标签出现了多少次,从而量化你的进步。

3.3 间隔重复与二刷机制:对抗遗忘的科学设计

记录错题不是目的,通过复习掌握它才是。拾遗内置了一个简化但实用的间隔重复系统。

  • 机制:系统为每道错题记录了两个关键状态:last_reviewed(上次复习时间)和mastered(是否已掌握)。未掌握的题目会进入复习池。
  • 触发:通过配置的Cron Job(如0 20 1-31/2 * *代表每隔一天晚上8点),scripts/review_reminder.js脚本会被触发。这个脚本会:
    1. 筛选出所有mastered: false的题目。
    2. 根据一定的策略(如按错误次数排序、按标签分组随机抽取等)选择若干道题目。
    3. 通过OpenClaw的消息通道(如飞书)向你发送这些题目,并附上简单的上下文(如原标签)。
  • 交互:你只需要回复“记得”或“不记得”(甚至可以用表情符号如✅/❌)。脚本update_daily.js会处理你的回复:
    • “记得”:更新该题的last_reviewed日期。如果系统检测到这是对该题连续第二次回复“记得”,则自动将mastered标记为true,后续不再提醒。
    • “不记得”:重置“连续记得”计数器,并将该题目的“错误次数”加一,使其在后续抽样中被选中的概率更高。

注意事项:这个二刷机制是“通知驱动”的,而非“应用内打卡”。这意味着复习动作发生在你常用的聊天工具里,无需打开额外应用,阻力极小。但这也要求你最好保持通知畅通,并及时处理这些提醒。如果积压太多,复习效果会打折扣。我的经验是,将提醒时间设定在每天固定的、比较放松的时段(比如晚饭后),养成习惯。

3.4 数据导出与可视化:从数据到洞察

所有的本地存储,最终都是为了能够被灵活地使用。拾遗提供了便捷的数据导出功能。

运行scripts/export_xlsx.js脚本(或通过发送“导出”指令触发),系统会读取wrong_questions.json,并利用xlsx这类库生成一个结构清晰的Excel文件。通常,这个表格会包含以下列:

  • 日期:错题记录日期。
  • 题目摘要/图片链接:题目原文或存储图片的本地路径/链接。
  • 我的笔记:用户当时输入的备注。
  • 题型知识点错误原因:AI解析出的多个标签维度。
  • 掌握状态:是否已标记为掌握。
  • 最后复习日期

有了这个Excel文件,你可以:

  • 打印复习:筛选出某一知识点的所有错题,打印出来集中攻克。
  • 统计分析:使用Excel的数据透视表功能,快速分析哪个“错误原因”出现最多,哪个“知识点”是你的重灾区。这种量化的反馈,比模糊的感觉要直观得多。
  • 长期追踪:对比不同时间段的错题分布,清晰看到自己的进步轨迹,哪些弱点已经被攻克,哪些依然顽固。

4. 完整部署与配置实操指南

4.1 环境准备与基础部署

假设你已经有一个正常运行的OpenClaw环境(如果没有,需要先参考OpenClaw官方文档进行安装),部署“拾遗”技能只需几步。

1. 获取技能代码:打开终端,进入OpenClaw的技能目录。通常技能都安装在~/.openclaw/skills/下。

# 进入技能目录 cd ~/.openclaw/skills # 克隆拾遗项目仓库 git clone https://github.com/KaguraNanaga/shiyi-study-tracker # 进入项目目录 cd shiyi-study-tracker # 安装项目依赖(主要是处理Excel等需要的npm包) npm install

npm install这一步很关键,它会根据package.json文件安装所有必要的第三方库,如xlsx用于生成Excel,dayjs用于处理时间等。如果网络环境不佳,可以考虑配置国内镜像源。

2. 启用技能:技能克隆下来后,需要在OpenClaw的主配置文件workspace.yaml中声明启用它。用文本编辑器打开这个文件(通常位于~/.openclaw/目录下)。

# 在 skills 部分添加 shiyi-study-tracker skills: - shiyi-study-tracker # 确保这里的名字和目录名一致 # 在 cron_jobs 部分添加定时任务(这是实现自动总结和提醒的关键) cron_jobs: - name: "每日学习总结" schedule: "0 21 * * *" # 每天21:00执行 action: type: run_script script: skills/shiyi-study-tracker/scripts/daily_summary.js channel: feishu # 指定发送到飞书,可以是 feishu, dingtalk, wechat等 - name: "错题二刷提醒" schedule: "0 20 1-31/2 * *" # 每隔一天20:00执行 (每月1,3,5,...日) action: type: run_script script: skills/shiyi-study-tracker/scripts/review_reminder.js channel: feishu

注意script路径一定要写对,指向你克隆目录下的具体js文件。channel根据你实际使用的机器人通道修改。

3. 重启OpenClaw服务:修改完配置后,需要重启OpenClaw服务使配置生效。具体重启命令取决于你的部署方式,如果是通过PM2管理的,通常是:

pm2 restart openclaw

或者如果你是在开发模式下直接运行,则可能需要终止进程后重新启动。

4.2 首次使用与考试配置

部署完成后,在你的机器人对话窗口(如飞书群)中,@机器人或直接发送任意消息,拾遗技能就会被触发。

1. 初始化引导:由于你是第一次使用,系统在data/config.json中没有找到你的考试配置,因此会触发scripts/onboarding.js脚本。它会向你发送一条引导消息,例如:

“欢迎使用拾遗备考追踪!看起来你还没有设置备考的考试类型。请告诉我你正在准备什么考试?(例如:GRE、考研数学、司法考试等)”

2. 设置考试类型:你只需要回复考试名称,如“GRE”。系统会做两件事:

  • config.json中记录{“exam_key”: “GRE”, “exam_name”: “GRE”}
  • assets/exam_prompts.js中查找“GRE”对应的背景提示词。如果找到,就加载它作为后续AI分析的上下文;如果没找到(比如你输入了一个未预置的考试),系统会使用“通用”提示词,并提示AI根据题目内容自行判断标签粒度。

一句话,配置完成。从此以后,在这个对话上下文里,所有你的输入都会被默认为是在备考GRE。

3. 开始记录错题:现在你可以直接扔一道错题给它了。

  • 发送一张截图:最好是题目和你的错误答案都清晰可见。稍等片刻,AI会回复解析结果,例如:

    “已识别为一道GRE Verbal Text Completion题目。知识点:双空逻辑与词汇辨析。错误原因:对‘ambivalent’和‘ambiguous’这对形近词的词义区分不清。已为你归档。需要补充笔记吗?”

  • 发送文字描述:你也可以用文字描述错题,比如:“今天做数学,一道关于概率的条件概率题错了,公式用错了。” AI同样会解析并打标。
  • 快捷录入:如果你自己已经分析清楚了,可以直接发送结构化文本:“概率论-条件概率-贝叶斯公式应用错误”。系统会直接按这个信息归档,不再调用AI分析。

4.3 高级功能配置与自定义

1. 自定义考试类型:如果你备考的考试不在预置列表中(比如“CFA一级”、“事业单位考试”),完全可以自己添加。

  • 打开assets/exam_prompts.js文件。
  • EXAM_PROMPTS对象里新增一条,例如:
    'CFA一级': ` CFA一级考试涵盖道德、量化方法、经济学、财务报表分析、公司金融、权益投资、固定收益、衍生品、另类投资和投资组合管理。 请重点关注财务比率计算、经济学模型假设、道德条款的具体应用。 标 knowledge_point 时请具体到科目和知识点,如“财务报表分析-存货计价方法LIFO vs FIFO”。 `,
  • 同时,在EXAM_ALIASES对象里可以添加别名,方便识别,例如‘cfa’: ‘CFA一级’, ‘特许金融分析师’: ‘CFA一级’
  • 保存文件。下次当你设置考试为“CFA一级”或“cfa”时,系统就会调用你自定义的提示词了。

2. 调整定时任务:workspace.yaml中,你可以修改cron_jobsschedule字段来调整提醒时间。

  • “0 21 * * *”: 每天21点。“0 8,20 * * *”: 每天早晚8点。
  • “0 20 1-31/2 * *”: 每隔一天20点。如果你想改成每天提醒,可以设为“0 20 * * *”
  • 修改后记得重启OpenClaw服务。

3. 数据备份与迁移:所有数据都在~/.openclaw/skills/shiyi-study-tracker/data/目录下。定期备份这个目录即可。如果你想换电脑,只需将整个shiyi-study-tracker文件夹复制到新机器的相同位置,并确保workspace.yaml配置正确,你的所有学习记录就能无缝恢复。

5. 常见问题与排查技巧实录

在实际使用中,你可能会遇到一些问题。以下是我在长期使用和社区交流中总结的一些常见情况及解决方法。

5.1 AI解析不准确或标签混乱

这是最常见的问题,根本原因通常是提示词(Prompt)与具体题目不匹配,或者AI的“理解”出现了偏差。

  • 症状1:题型识别错误。比如把“阅读理解细节题”识别成“主旨题”。

    • 排查:检查exam_prompts.js中对应考试的提示词。是否明确定义了该考试有哪些题型?描述是否清晰?例如,对于考研英语,可以细化:“阅读理解题型包括:主旨题、细节题、推断题、词义题、态度题”。
    • 解决:优化提示词。在提示词中更详细地描述各类题型的特征。或者,对于识别错误的题目,使用“快捷录入”功能手动输入正确标签,系统会学习你的纠正。
  • 症状2:知识点标签过于宽泛。比如总是标“高等数学”,而不是具体的“微分中值定理”。

    • 排查:提示词中是否要求了“尽可能具体”?对于数学类考试,可以举例说明:“知识点请具体到定理、方法或概念,例如‘拉格朗日中值定理’、‘换元积分法’、‘矩阵的秩’”。
    • 解决:强化提示词中的具体要求。同时,前几次使用时,可以主动用更具体的语言描述错题,AI会参考你的表述风格。
  • 症状3:针对图片中的数学公式或特殊符号识别差

    • 排查:OCR对于印刷体公式识别尚可,但对于手写体或复杂排版容易出错。
    • 解决:这是多模态理解的通用难题。可以采取两种策略:一是尽量发送清晰、印刷体的题目截图;二是在发送图片后,补充一句文字说明,点明核心公式或难点,如“主要错在第二步的这个积分变换:∫ e^(x^2) dx”。AI会结合图片OCR结果和你的文字提示进行综合判断。

实操心得把AI当作一个需要训练的助手。初期它的表现可能不尽如人意,但通过你不断的“快捷录入”(即手动输入精确标签)和偶尔的纠正,它会逐渐学习到你习惯的标签体系,表现会越来越好。标签库的积累过程,也是AI为你个人服务“调优”的过程。

5.2 定时任务(每日总结/二刷提醒)未执行

自动化功能失效,通常问题出在Cron Job配置或OpenClaw服务状态上。

  • 症状:到了设定时间,没有收到飞书/微信的提醒消息。
  • 排查步骤
    1. 检查配置文件:确认workspace.yamlcron_jobsscript路径绝对正确,且channel是你正在使用的机器人通道。
    2. 检查服务状态:运行pm2 list(如果使用PM2)或查看OpenClaw进程是否正常运行。可能服务意外停止了。
    3. 检查日志:查看OpenClaw的运行日志,通常能找到Cron Job执行时的错误信息。日志位置取决于你的部署方式,可能在~/.pm2/logs/下或OpenClaw的输出中。
    4. 检查机器人权限:确认OpenClaw的机器人已经在对应的群聊中,并且有发送消息的权限。
    5. 手动测试脚本:在终端中,切换到技能目录,手动运行一下脚本看是否报错。例如:
      cd ~/.openclaw/skills/shiyi-study-tracker node scripts/review_reminder.js
      观察控制台输出,是否有明显的错误(如找不到模块、文件读写权限问题等)。

5.3 数据相关问题

  • 症状1:历史错题不见了

    • 排查:首先检查data/wrong_questions.json文件是否存在且内容正常。可能是文件损坏或误删。
    • 解决:查看data/backups/目录,里面有最近10次的自动备份,可以复制一份最新的备份文件替换损坏的当前文件。
  • 症状2:导出Excel失败或文件内容为空

    • 排查:首先确认wrong_questions.json中有数据。然后检查是否安装了xlsx依赖(运行npm list xlsx)。
    • 解决:如果依赖缺失,在技能目录下重新运行npm install。如果数据量很大,检查脚本是否有内存或处理上的限制。
  • 症状3:想清空某个考试的标签库重新开始

    • 操作:直接编辑data/tag_library.json,找到对应的考试键名(如“GRE”),将其值设置为空数组[]即可。注意:此操作不可逆,建议先备份。

5.4 性能与使用技巧

  • 图片识别慢:如果发送图片后响应很慢,可能是OCR服务或AI大模型响应延迟。可以尝试发送清晰度更高、裁剪掉无关部分的图片,减少需要处理的文本量。
  • 批量录入:如果一天积累了多道错题,可以一次性发送多条消息。系统会按顺序处理。但建议不要一次性超过10条,以免消息队列堵塞。
  • 标签整理:定期通过“导出Excel”功能,在电脑上浏览你的错题和标签。你可能会发现一些同义不同名的标签(如“粗心”和“计算失误”),可以在Excel中统一修改后,考虑未来录入时使用更一致的表述,让标签库更整洁。
  • 多考试同时备考:拾遗一次只支持一个考试上下文。如果你同时在备考GRE和考研数学,建议在物理上分开——例如,为两个考试创建不同的飞书群,在每个群里分别部署一个拾遗技能实例,并配置不同的考试类型。这样数据完全隔离,互不干扰。

这个项目本质上是一个将AI能力与个人知识管理相结合的实践性工具。它不追求大而全的功能,而是聚焦于“错题管理”这一个垂直场景,通过巧妙的自动化设计,实实在在地降低了一个高频、刚需、但极其繁琐的学习动作的阻力。从我的使用体验来看,它的价值不在于用了多炫酷的技术,而在于它真的能被用起来,并且坚持用下去。当你备考结束时,导出的那份错题集,不仅是你奋斗的见证,更是一份由AI辅助生成的、高度个性化的“弱点地图”,其价值远超一个简单的题目合集。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/7 10:34:45

炉石传说佣兵战记自动化脚本终极指南:5步告别重复操作

炉石传说佣兵战记自动化脚本终极指南:5步告别重复操作 【免费下载链接】lushi_script This script is to save your time from Mercenaries mode of Hearthstone 项目地址: https://gitcode.com/gh_mirrors/lu/lushi_script lushi_script是一款专为《炉石传说…

作者头像 李华
网站建设 2026/5/7 10:34:44

云原生轻量级控制面板ClawPanel:简化Docker容器管理

1. 项目概述:一个面向云原生环境的轻量级控制面板最近在折腾个人服务器和容器化应用时,发现很多现成的管理面板要么太重,要么功能太杂,要么就是配置起来极其繁琐。对于一个追求效率和简洁的开发者或运维来说,这显然不够…

作者头像 李华
网站建设 2026/5/7 10:34:25

深入解析trpc-agent-go:构建高性能Go微服务通信平面

1. 项目概述与核心价值最近在折腾微服务架构下的RPC调用,尤其是在处理一些需要服务端主动推送、长连接管理的场景时,传统的HTTP/1.1和gRPC在某些方面总觉得不够“顺手”。直到我深度体验了trpc-group/trpc-agent-go这个项目,才算是找到了一个…

作者头像 李华
网站建设 2026/5/7 10:33:45

nomic-embed-text-v2-moe实战教程:使用FastAPI封装Gradio服务供生产调用

nomic-embed-text-v2-moe实战教程:使用FastAPI封装Gradio服务供生产调用 1. 环境准备与模型部署 在开始之前,我们需要先准备好运行环境并部署模型。这个部分会带你一步步完成基础环境的搭建。 1.1 系统要求与依赖安装 首先确保你的系统满足以下基本要…

作者头像 李华
网站建设 2026/5/7 10:33:45

基于MCP协议为AI智能体构建安全系统操作工具服务器

1. 项目概述:一个为AI智能体提供“爪子”的工具服务器最近在折腾AI智能体(Agent)的落地应用时,我一直在思考一个问题:如何让一个只会“思考”和“说话”的大语言模型(LLM)真正地“动手”去操作现…

作者头像 李华