最近研究了一下个人知识库的搭建。一方面,确实觉得该把自己手头的资料系统整理一下;另一方面,网上正好有人在讨论 Karpathy 的知识库搭建理论,看起来很实用。于是我就想,能不能构建一个属于自己的知识库,方便以后喂给模型,让模型在解决我的问题时,能更准确地理解我的需求。
起初这个想法很简单,但真正动手之后,我逐渐发现事情并没有想象中那么直接,也冒出了不少之前没有预料到的问题。这里就把目前的思考和进展做一个汇报。
首先,我必须先回答一个根本问题:我为什么要搭建个人知识库?这个问题如果想不清楚,后面的工作就很容易失去方向;只有先把这件事对自己讲明白,后面的建设才有意义。
思来想去,我目前能确认的一个核心原因是:
我手头有几十个项目的资料,总量达到几百 G。未来我需要从这些资料中提炼出不同的重要信息,再交给模型,让模型结合最真实的一手材料,产出我真正需要的内容。比如,总述我在国防大学期间参与过的所有项目,或者从多个项目中抽取功能点,重新组合成另一个项目的方案内容。
如果目标是做到这一点,那么我真正需要构建的,其实不是一个泛泛的“知识库”,而是一套项目资料管理和预处理体系。原始资料在进入知识库之前,至少要经过分类、摘要和内容标准化处理。尤其是方案类文档,不能只做一个粗略摘要,而是要进一步切分为更明确的结构,例如:建设背景、建设目标、需求描述、系统架构、系统功能、开发及运行环境等。
原因也很直接:如果不做这种精细切分,只是简单提取摘要,那么后面在使用大模型整理某个方案的功能点时,依然需要把整份方案材料都交给模型。只有先把文档切分准确,后续才能精准命中要喂给模型的内容,减少上下文长度和干扰信息,让模型的注意力更聚焦,最终得到更好的输出效果。
但问题也随之出现。要做到上面这一步,就需要先建立一套文档预处理机制,而且这套机制很可能是高度定制化的,例如“软件行业项目建设实施方案 Word 文档处理机制”。它的局限性也非常明显:可能只适用于软件行业,甚至只适用于某一家公司的技术方案文档。一旦换了行业,或者只是换了一家公司,这套处理机制大概率就需要重写。
更麻烦的是,这还只是一个行业、一个文档类型的处理机制。如果面对多个行业、多个文档类型,就意味着还要分别设计多套处理机制。仅从这一点看,这种知识库建设方法就很难具备普遍性。
那有没有可能换一种思路?比如通过构建知识图谱,让程序自己去发现文档之间的内在联系,完成文档数据存储、段落内容分类,以及某一类问题的深度检索,例如挖掘“近三年来所有项目的模块”。
但继续往下想,会发现这个思路依然绕不开一个前提:在构建知识图谱时,还是需要先标记文档中每一部分到底是什么内容,例如它属于功能描述、架构设计,还是其他类别;同时,还要给这些内容设置尽可能准确的节点归类信息。否则,当你真正想查找某一类信息时,图谱本身也无法可靠地把结果找出来。
也就是说,前期对文档的分类,以及对单个文档内容的标记,其实是不可避免的。
由此基本可以推断出,主流的知识库构建技术,例如 RAG、图知识库,以及最近比较流行的 graphify,本质上都只是技术手段。真正要解决自己的实际需求,仍然只能根据自己的目标、材料和使用场景,定制一套适合自己的知识库管理规则。也正因为如此,Karpathy 更多给出的是知识库维护思路,而不是一套可以直接照搬的具体实现。
换句话说,通用的也许只是“知识库技术”,而不是“通用知识库”。知识库的构建,归根到底还是要服务于具体业务目标。
那么再回到我最初的目标:在后期写文档时,能够精准地喂给模型最直接、最真实、最纯粹的信息。要实现这一点,我还需要把目标再往下拆一层。
首先要回答的问题是:我未来到底要写什么文档?这个问题会直接决定,我一开始应该怎样对原始资料进行分类。因为只有先明确未来文档的类型和内容结构,才能进一步判断,生成这些文档分别需要哪些材料作为支撑;而只有把支撑材料界定清楚,文档分类工作才真正有办法开始。
想到这里,我突然有些慌了。因为随着公司方向调整,我发现自己原本设想中未来要写的很多文档,很可能都不会再写了。比如军工行业项目方案、需求规格说明书、项目计划、项目报告、专利等。这意味着,我手头那几十个项目、几百 G 的项目资料,未必还能继续支撑我未来的核心工作。
如果真是这样,那么我之前设想中的这套项目型知识库,价值就要重新评估了。它未必完全没有意义,但至少已经不再像最初想象的那样,能直接服务于未来工作。这样一来,搭建知识库这件事,对我来说可能更多只剩下两个价值:一是帮助我理解知识库到底该怎么建,二是提升一些个人技术能力。
想到这里,心里确实有些失落。
但再往下想,问题也可以换个角度问:如果围绕“知识库”这件事继续做下去,还有没有别的、更长期、更稳定的方向?
后来我想到,自己其实还收集了不少国学经典,主要包括儒、释、道三家以及宋明新儒学等著作。那是否可以换一个对象,把这些经典作为原料,去构建另一种知识库?这样做看起来反而更有意义。
原因大致有三点:
1. 项目资料有明确的生命周期,而经典文本具有更长期的价值。
2. 项目资料通常只对特定的人或组织有意义,而经典面对的是更广泛的人群。
3. 项目资料类型繁杂、结构复杂,往往需要一个团队长期维护;相比之下,经典文本主题更集中,主要围绕人生与思想问题展开,结构相对清晰,维护成本也更低。
总的来说,如果一个围绕经典构建的知识库能够真正成形,它的使用场景会更持久,服务对象也会更广,而且具备持续维护的可能性。基于这个判断,我接下来的几天,开始尝试构建这样一个有关经典的知识库。
同样地,在正式开始之前,还是要先把目标想清楚。
我接下来还要先想清楚一个问题:我希望模型通过这个知识库,最终给我提供什么样的内容。这个问题会直接决定,我应该怎样整理手头的资源,又应该怎样拆解其中的内容。也正是在思考这一点的过程中,我逐渐意识到,经典知识库的构建远比我最初想象的复杂。
首先,经典所承载的,严格来说并不只是“知识”,而更接近“智慧”。不然也不会有“转识成智”这样的说法。书本和文字本身只是载体,它们记录的是一些试图启迪人心的表达,但这些表达并不是最终目的,真正的目的仍然是智慧本身。用佛教的话来说,文字如同佛像一样,都只是“行方便”的工具;如果反过来执着于文字或佛像本身,就成了佛学里所谓的“着相”。
但现实的问题在于,眼下我能处理的,仍然只有这些文字材料。我只能先基于文字去构建知识库,并尝试通过更合理的组织、连接和重组方式,让人更简洁、更高效地接近文字背后的智慧。也正因为如此,我越来越觉得,这不会是一项短期就能定型的工作,而更可能是一项长期、反复推翻、反复重建的工程。因为我要不断尝试不同的方法,也可能要不断更换不同的模型,看看模型与知识库的结合,究竟能在多大程度上辅助对国学经典中智慧的领悟。
进一步想下去,我发现中国文化经典与科学技术类文献之间,存在一种本质差异,而这个差异会直接影响知识库的构建方式。
先看科学技术类文献,它们大致有几个典型特点:
1. 概念通常比较明确,一个术语往往对应着较稳定的定义和应用场景。
2. 逻辑关系通常比较清晰,很多内容都可以用因果链条来展开。
3. 研究对象大多是外在的、可描述的实体或系统,基本属于主客体关系的范畴。
而经典文化恰恰不同:
1. 很多核心内容并不能被压缩成一个清晰的“概念定义”。例如孔子的“仁”,孔子并没有给出一个现代意义上的严格定义,更多是通过语境和例子来呈现。
2. 它不完全遵循现代知识体系那种严密的逻辑和经验结构,很多内容指向的是人的生命情感、精神活动和内在体会。
3. 它关注的重点不是外在对象,而是“人”本身,因此更偏向向内的体认,而不是向外的分析。
也正是因为这种差异,还没真正开始做,我就先遇到了一个很现实的困难:模型本质上更像是知识的组织和调用系统,而不是智慧本身。智能和智慧并不是一回事。智慧往往与人的苦难经验、生命感悟和长期体认有关,而这些东西,并不是模型天然能够“领悟”的。
例如,我很难说模型真的理解了孔子的“仁”。如果它并不真正理解“仁”,那么它在《论语》《孟子》这些文本中,对“仁”的识别、归类和关联,就很难做到真正准确,至少很难做到我理想中的那种精确程度。沿着这个问题再往下推,我就会发现,Karpathy 对 wiki 的那套设想,在这里会遇到明显阻力。比如他提到:“wiki 可以由 LLM 生成一组 Markdown 页面,包括摘要页、实体页、概念页、比较页、概述页和综合页”,“这套方法可以应用在“阅读书籍”场景里”。这里他指的“阅读书籍”显然不包括中国的经典文化书籍,因为他并不了解中国的文化,这一点到不用苛责他、毕竟文化不同。但我也开始怀疑,没有“实体”和“概念”体系的中国经典文化内容,套用 Karpathy 的这套理论是否可行。
想到这里,我突然有些明白,中西方思想在这个问题上的差异,可能比我原先意识到的还要大。很多诞生于西方思想背景下的方法论,本身就带有西方思想的基本特征,例如理性、逻辑、概念化;而中国思想的很多核心特征,则更接近生命情感、整体体认和天人合一。也就是说,矛盾可能不是出在某一个具体操作步骤上,而是出在文化上的冲突。想到这里,我隐隐感觉,这件事情成功的概率也许并没有那么高。
但即便如此,既然已经研究到这一步,不亲自试一试,也很难真正知道效果到底会怎样。更何况,很多真正有价值的发现,本来就是在尝试过程中才慢慢出现的。因此,我最后还是决定,先按照 Karpathy 的思路,动手搭建一个属于自己的国学知识库。
当然,在真正动手的时候,我做了一个带有试验性质的前提假设:暂时假设模型能够在一定程度上理解国学中的一些核心思想,例如“仁”“心之本体”“缘分”“心心相印”“天理”等。也就是说,我先不去彻底解决“模型能否真正领会智慧”这个问题,而是先基于这些思想单位,尝试构建一个 wiki,再看它最终能走到什么程度。
按照 Karpathy 的推荐,我选择了 `Obsidian + Codex` 这一套组合,并在 Obsidian 中安装了 Codex 插件。接下来就正式进入按理论落地的阶段。
我先构建了一个 `raw` 文件夹,用来存放原始资料,并按照儒、释、道以及宋明新儒学对文献进行初步分类,把已有原始文件先整理进去。
![[图片]](http://i0.hdslb.com/bfs/new_dyn/0c2d4d5f872d625475e41d30cdc91787383742465.png)
构建了一个wiki目录,用于存放大模型生成的索引、日志,同时构建了三个文件夹、存放“概念”(暂且这么叫吧)、”实体“(同样暂且这么叫)、源。
![[图片]](http://i0.hdslb.com/bfs/new_dyn/ca51eaabea8a39580e7b7b96cd7d74ef383742465.png)
我用的是codex,所以使用codex初始化了整个工作目录,在工作目录下有个AGENT.md的文件,但是这个文件需要修改,应为要使用钩子触发SKILL操作,完成将资料加入wiki、查询wiki、及巡检的操作。同时在AGENT.md中要增加约束,防止AGENT修改我们的原始资料,并告诉AGENT的工作流程。
接下来就是编写SKILL,同样按照karpathy的理论,我需要编写三个SKILL,对应karpathy理论的三个方面:ingest(导入)、qurey(查询)和lint(巡检)。
ingest这个SKILL的主要工作是:
1、它不是让系统在用户提问时临时去 raw/ 目录里翻原文拼答案,而是要求把 raw/ 里的原始资料,持续加工、沉淀、编译进 wiki/ 目录,形成一个可长期积累、可交叉引用、可反复修订的 LLM Wiki。它强调的不是“检索”,而是“知识入库”和“结构化沉淀”。
2、它的核心原则很明确:`raw/` 是不可变的原始真相来源,绝对只读;`wiki/` 是持续维护的知识成果区,所有写操作只能发生在这里。每次 ingest 之后,不只是新增某个页面,还必须同步维护 `wiki/index.md` 和 `wiki/log.md`,保证知识库既有索引,也有变更记录。并且所有页面都必须使用简体中文,文件名、标题、内容都尽量中文化,除非对象本身就是稳定英文名。
3、这个 SKILL 主要处理的是思想类材料,尤其适合中国儒释道、阳明心学这类内容。它要求摄入时优先抽取高价值知识单元,比如人物、经典、宗派、义理命题、修行工夫、境界层次、历史背景、争议异说,而不是把材料机械切成一堆抽象定义。换句话说,它反对“概念词典式”的僵硬处理,强调保留思想材料原有的语境、生命体验、修行意味和不同传统之间的细微差异。
4、它规定了明确的目录分工。`wiki/sources/` 用来写来源摘要页,说明这份原始材料讲了什么、有哪些关键摘录、能回写哪些知识点;`wiki/entities/` 用来写人物、经典、宗派、机构、地点这类稳定对象;`wiki/concepts/` 用来写义理命题、工夫路径、境界范畴、核心术语。也就是说,它要求把一份材料拆解成“来源依据 + 实体知识 + 概念知识”三层,而不是只留一篇读书笔记。
5、它的工作流也很完整。先读取源文件,扫描 `raw/` 中待处理资料,忽略归档目录,但绝不移动文件。然后判断材料类型,看它是原典、注疏、论文、讲义、还是个人感悟。不同材料处理重点不同:原典要保留原话和修行语境,论文要提炼解释框架和争议点,随笔则更重视作者立场和能否反哺既有页面。接着再提炼核心主旨、人物、经典、宗派、术语、可独立成页的概念,以及能补充现有页面的增量信息。
qurey这个SKILL的主要工作是:
1、这个 skill 的主要工作,是把 `wiki/` 当成已经沉淀好的本地知识体系,在此基础上回答用户问题,而不是每次重新从原始资料做一次检索和拼接。它要求先读 `wiki/index.md` 找入口,再深读相关页面,然后基于这些现有页面组织答案。也就是说,它本质上是一个“面向本地知识库的推理与综合回答器”。
2、它的第一项核心工作,是严格依赖本地 wiki 作答。不能直接凭模型记忆回答“我的笔记里怎么说”“过去我怎么理解某个问题”这类问题,必须先从索引定位,再去读相关的 source、entity、concept、synthesis 页面。回答时还必须用 `[[页面名]]` 这种 wikilink 形式标明依据来自哪些页面,确保答案可追溯,而不是空口断言。
3、它的第二项核心工作,是把分散知识重新组织成有结构的回答。比如问人物,就要结合人物页、相关经典页和综合页;问术语,就要看术语页以及它是否在不同传统中意义不同;问比较或思想脉络,就不能只看单页,而要跨页面综合。尤其面对儒释道、阳明心学这类问题,它强调不要给出简单现代定义,而要交代“是谁的说法、出自哪条传统、在解决什么问题、对应什么工夫路径、与别家有何异同”。
4、它的第三项核心工作,是识别知识库缺口并如实说明。如果 wiki 里没有相关内容,或者内容不足以支撑明确判断,就必须明确说“本地知识库中未找到”或者“本地知识库材料不足”,必要时才补充通用知识。也就是说,这个 skill 不允许装懂,更不允许把知识库里没有的内容伪装成“过去笔记里的结论”。
5、它的第四项核心工作,是把高价值问答再反哺回 wiki。只要这次回答做出了有效综合,比如澄清了一个长期混淆的术语,串起了“人物—经典—命题—工夫”这条链,或者明确了某个知识冲突,就应该考虑把这些新综合写回知识库,新增 `wiki/syntheses/` 页面,或补充已有页面中的“相关异说”“修行/工夫意义”“知识冲突”等内容。只有真正发生新增或更新时,才去写 `wiki/log.md`。
lint这个skill的主要工作是:
1、这个 skill 的主要工作,是给 `wiki/` 做“健康体检”和“可维护性巡检”。它不是单纯查死链,而是检查整个知识库是否还保持为一个可持续演化的 LLM Wiki:能积累、能修订、能追溯、能交叉理解,而不是慢慢退化成一堆彼此脱节的摘要文件。
2、它的第一项核心工作,是检查结构健康。也就是看 `wiki/index.md` 和实际页面是否一致,是否存在索引里登记了但文件不存在的页面,或者文件已经存在却没有登记进索引的页面;再检查页面里的双链是否失效,哪些页面缺少 `## 关联连接`,哪些页面是孤儿页,完全没有被其他页面引用。这一层解决的是“知识库还能不能正常导航和引用”的问题。
3、它的第二项核心工作,是检查“编译质量”有没有退化。这个 skill 会判断 wiki 是否只是不断新增摘要页,而没有把知识真正回写、整合进现有结构。比如 source 页很多,但 entity 和 concept 页没有得到同步补充;很多页面只有定义和摘要,没有和其他页面建立关系;新材料来了只会新增页面,不会丰富旧页面;或者同一主题被切得过碎,导致知识分散,无法沉淀。这部分查的是知识库是否还在“生长”,而不是“堆积”。
4、它的第三项核心工作,是检查中国思想类知识的语义质量,尤其针对儒释道和阳明心学这种材料。它会重点找几类问题:有没有把“工夫、境界、体认”写成僵硬的现代概念定义;有没有只写结论、不交代语境;有没有把不同传统里的同名术语混在一起,比如“心”“性”“理”“空”“无”;有没有本来存在异说和争议,却没写 `## 知识冲突` 或“相关异说”;有没有只剩现代转述,经典原话丢失;有没有只讲义理、不讲如何修、如何体会。这部分实际上是在防止知识库变成“去语境化、去实践化”的空壳。
5、它的第四项核心工作,是检查证据链和来源可靠性。它会看页面 frontmatter 里的 `sources` 是否为空或失真,新写进去的判断能不能追溯到 source 页,source 页本身是不是只有标题、没有实质内容。因为一个不能追溯来源的知识库,看起来像体系,实际上只是堆断言。
准备好这三个skill并保证在codex中能够正常使用这三个skill以后,我们就可以尝试构建这个国学知识库了。步骤也很简单,
1、导入并构建wiki。就是使用`$ingest`命令,导入所有源到wiki中,需要注意的是这里是非常消化token的,我执行`$ingest`命令不一会触发了coedex plus会员的5小时使用额度的限制。
2、查询,使用`$query`命令查询你想查询的问题,例如下面的问题,你发现它遵循了skill的原则,查询了wiki,但是质量现在还不好说。
![[图片]](http://i0.hdslb.com/bfs/new_dyn/f1a7bca29c04e13ed759081c2fe65241383742465.png)
![[图片]](http://i0.hdslb.com/bfs/new_dyn/f66010029fde3c2aed2eed2c962adcce383742465.png)
至此最主要的操作就算完成了,这也是初步按照karpathy的思想进行的一次尝试。通过这次尝试其实能够给我们一些启示:
第一,知识库建设从来不是一个单纯的“技术问题”,而首先是一个“目标定义问题”。很多时候,人们一谈知识库,就很容易把注意力放在 RAG、向量数据库、知识图谱、Graphify 这类技术名词上,仿佛只要把这些工具接起来,知识库就自然成立了。但实际做下来才会发现,真正决定知识库质量的,不是技术栈本身,而是你到底想让它替你完成什么工作。你是想让它辅助写项目方案,还是帮助整理人生思想,还是让它成为某个长期演化的研究载体。目标不同,资料分类方式不同,预处理方式不同,甚至连“什么才算有价值的信息”这个标准都会完全不同。也就是说,知识库不是先有技术,再有用途;恰恰相反,是先有用途,再反过来决定技术如何落地。
第二,原始资料并不等于可直接使用的知识。真正有价值的,不是把材料堆进去,而是把材料整理到模型能有效调用的程度。这个过程中最核心的工作,不是“存储”,而是“预处理”。对于项目资料来说,要做分类、摘要、切分、标准化;对于国学经典文本来说,要做语境还原、义理辨析、异说区分、关联建立。换句话说,知识库真正困难的地方,从来不在“把东西放进去”,而在“怎样把材料加工成后续推理可用的知识单元”。谁忽视了这一步,谁最后得到的大概率都不是知识库,而只是一个看上去很大的资料仓库。
第三,所谓“通用知识库”在现实中往往是一个幻觉,真正有效的,往往都是面向具体场景定制出来的知识组织系统。技术可以有共性,方法论也可以有共性,但一旦落到真实业务,落到真实材料,知识库就一定会带上非常强的场景属性。软件项目方案有软件项目方案的处理方式,国学经典有国学经典的处理方式,二者几乎不可能共用同一套精细规则。这说明一个事实:通用的只是工具,不是答案。任何宣称“拿来即用、放之四海而皆准”的知识库方案,本质上都在回避最难、也最关键的那一层工作——即如何根据自己的材料和目的,重建一套适合自己的知识组织逻辑。
第四,面对中国经典时,知识库建设会暴露出一个更深层的问题:模型擅长处理“知识”,却未必能够真正触及“智慧”。科学技术类文本天然适合今天的大模型,因为它们概念相对明确、逻辑相对清晰、对象相对稳定,适合被分解、归类、检索和重组。但中国传统思想中的很多核心内容,恰恰不属于这种结构。它们不是为了给人下定义,而是为了引导人去体会、去领悟、去实践。像“仁”“理”“心”“空”“性”这类词,本来就不是单纯的概念标签,而是与人的生命体验、修养路径、境界体认紧密相连的。也正因为如此,当我们试图把这类内容机械地纳入一套现代知识库框架时,天然会遇到抵抗。这个抵抗不是偶然的技术障碍,而是对象本身对方法提出的限制。它提醒我,有些东西可以被整理,有些东西可以被辅助理解,但有些东西终究不能被简化成一个检索系统里的稳定条目。
第五,这也意味着,构建经典知识库这件事,本质上不应被理解为“让模型代替人领悟”,而更应理解为“借助模型帮助人更有效地接近经典”。如果一开始就把目标设定为“让模型输出比经典更能启迪人生的内容”,这个目标当然有它的理想性,但也必须承认,其中有很强的风险和不确定性。因为真正改变人的,从来不只是文字组合得是否漂亮,而是这些文字能否和一个人的生命经验发生真实碰撞。模型可以帮助我们做索引、做梳理、做比较、做提炼,甚至做某种程度上的启发,但它未必能真正替代人去经历、去痛苦、去反思、去体认。所以更稳妥的认识应该是:知识库和模型,最多只是一个“助缘”,不是最终答案。它们能让人靠近智慧,但不能凭空制造智慧。
第六,这次尝试还让我更清楚地看到,知识库建设的本质,不是一锤子买卖,而是一种长期维护工程。它不是做完一次导入就结束,而是要不断修订、不断推翻、不断重建。因为材料会增加,目标会变化,自己的理解也会变化,模型的能力同样会变化。今天认为合理的切分方式,过段时间可能就会显得粗糙;今天建立的页面体系,未来也可能因为新材料的进入而需要重构。知识库如果想真正有生命力,就必须被当成一个“持续演化的系统”来对待,而不是一个一次性成品。说到底,它更像是在养一棵树,而不是在堆一堵墙。
第七,从更现实的角度看,这次尝试也提醒我,搭建知识库之前,必须反复审视“资料与未来之间的关系”。资料再多,如果未来不用,那它的现实价值就会迅速下降。过去积累的几十个项目、几百 G 的材料,在某个阶段也许非常重要,但如果未来的工作重心已经转移,那么继续围绕它们投入大量精力做知识库,收益就未必如预期。这不是资料没有价值,而是“资料价值”必须放到“未来任务”中重新衡量。这一点很残酷,但必须承认。否则,人就很容易沉迷于整理旧世界,却忽略了自己正在进入一个新世界。
第八,也正因为如此,个人知识库真正值得长期建设的方向,往往不是那些生命周期短、强依附于某一时段工作的材料,而是那些能够跨越阶段、持续反哺自身的内容。从这个意义上说,转向儒释道、宋明心学等经典文本,也许反而是一种更长期的选择。因为这些内容不只服务一项工作,不只服务一个项目,而是可能持续影响一个人的理解方式、表达方式、判断方式,甚至影响一个人如何面对现实、面对自己、面对世界。这样的知识库,一旦构建起来,它未必最容易变现,也未必最容易看到短期成果,但它可能更接近“值得做一辈子的事”。
总的来说,这次尝试让我越来越清楚地意识到:知识库真正要建设的,不只是一个供模型调用的外部系统,更是一个人整理自己材料、整理自己经验、整理自己思想方式的过程。技术只是手段,分类只是手段,索引、摘要、图谱、wiki 也都只是手段。最后真正被建设出来的,也许不是知识库本身,而是一个人面对材料时的判断力,面对复杂问题时的拆解能力,以及面对自己未来时重新选择方向的能力。若从这个角度看,这次尝试即使最终没有构建出一个完美的知识库,也依然不是白费。因为它至少逼着我把一个原本模糊的想法,推到了更接近真实的位置。
这个案例中用到的所有资料,包括国学资料,codex的初始化AGENT.md文件,以及案例中用的三个skill信息已经上传了到github,地址是:https://github.com/frogchou/llm-wiki。欢迎大家尝试。