2026年1月1日,95岁的沃伦·巴菲特正式卸任CEO。
60年,6.1万倍回报,人类投资史上最伟大的复利传奇,落幕了。
接班人格雷格·阿贝尔在首封股东信里写道:"我不可能像沃伦那样担任60年首席执行官。但我希望,二十年后,各位或你们的后代,能为伯克希尔变得更加强大而感到自豪。"
巴菲特留下了什么?3733亿美元现金储备、1760亿美元保险浮存金、189家子公司,以及散落在60年股东信、数百场演讲、无数次访谈中的决策框架和投资哲学。
问题是:谁能读完这一切?
答案是:AI可以。它可以帮你把这些碎片化的智慧,编译成一个会自我进化的知识库。
Karpathy的新发现:知识库比代码更值钱
4月3日,前OpenAI联合创始人、前特斯拉AI总监Andrej Karpathy在社交媒体上分享了一个引发广泛讨论的工作方式:
他描述的方法并不复杂:
第一步,把原始资料(文章、论文、代码库、数据集、图片)收集到一个目录里。
第二步,用大模型把这些原始数据增量"编译"成一个wiki,一组相互链接的markdown文件。wiki包含所有数据的摘要、反向链接,并自动按概念分类、撰写文章、建立链接。
第三步,当wiki足够大时(Karpathy的一个研究主题已达~100篇文章、~40万字),你可以向AI提出各种复杂问题,它会自主研究并给出答案。
为什么你需要一个本地知识库?超越RAG
如果你用过ChatGPT的文件上传功能、NotebookLM、或者任何企业级AI知识工具,你大概率用的是RAG(检索增强生成)。
简单说,RAG的工作方式是:你问一个问题,系统从文档库里检索相关段落,AI基于这些段落生成答案。
听起来合理。但Karpathy指出了一个根本性缺陷:
RAG不积累知识,也不会真正形成对知识的连续理解。 每次提问都从头检索,每次问答都是一次性的。
如果一个问题需要综合5份文档的信息,RAG会为这一次回答拉取组合。明天问同样的问题,它重复整个过程。
更关键的是,它很难连接跨时间的信息,比如把巴菲特1999年的判断和2024年的行为关联起来。
用大模型本地知识库的模式,你的知识库会自我进化:
新信息进来时,自动更新多个页面 自动维护概念之间的链接 自动检测和解决矛盾 自动改写章节以提升清晰度
你的角色从"手动组织知识"变成了"找到高质量输入+问有意义的问题"。剩下的结构和维护工作,AI全包了。
为什么巴菲特是最好的实验对象?
如果你要练习用AI构建知识库,巴菲特的数据集几乎是完美的训练素材:
第一,数据量刚好。 60年的股东信、数百场演讲和访谈,总量在50-80万字之间。这恰好在Karpathy说的"~40万字就能有效运作"的规模附近,不需要复杂的基础设施。
第二,信息结构丰富。 巴菲特的股东信不是碎片化的推文,每一封都有完整的逻辑链条:宏观判断,行业分析,具体投资决策,甚至还有事后复盘。
这种结构天然适合大模型建立概念之间的关联。
第三,有明确的"验证闭环"。 巴菲特在1999年说了什么,2008年做了什么,2025年的结果是什么?你可以用时间维度交叉验证AI知识库的理解是否正确。
第四,此刻最有价值。 阿贝尔刚刚接任CEO,在首封股东信中明确表示将亲自负责股票投资组合。他需要理解巴菲特的决策框架,市场也需要判断阿贝尔是否真正继承了这套方法论。
一个能随时回答"巴菲特在面对类似情况时是怎么想的?"的AI知识库,它的价值,前所未有。
你可以从知识库里问出什么?
构建完成后,你的"AI巴菲特"不是一个简单的搜索引擎,是一个能做复杂推理的知识系统。
一些真实可用的问法:
"巴菲特在利率上升周期通常如何调整持仓?列举历史上的具体案例和他当时的原话。" "对比巴菲特和阿贝尔在能源投资上的差异。哪些决策体现了阿贝尔的独立判断?" "巴菲特说过多少次'别人贪婪时恐惧'?每次说这句话时的市场背景分别是什么?他真的每次都做到了吗?" "从60年股东信中,提炼巴菲特评估保险公司的五个核心指标。" "阿贝尔在2026年首封信中说'不分红',巴菲特在过去60年中对分红政策的态度有没有变化过?"
这些问题,靠Google搜索,或者几本传记都难以回答,但一个被AI持续维护的、覆盖60年原始数据的知识库,可以给你答案。
不只巴菲特,跟Tina一起打造你的专属知识库
这个方法的真正价值不在于"做一个巴菲特知识库",它能帮你学会可以用在任何领域的方法:
把某个行业的研报、财报、分析师电话会议编译成知识库 把某个技术领域的论文、文档、开源代码编译成知识库 把自己的读书笔记、学习心得、工作复盘编译成知识库
巴菲特的股东信是入门级别的"训练数据",但你学到的方法论,是通用级别的"知识生产力工具"。
以上这些不是理论,今晚8:00,前哨AI小课将带你从零开始,亲手构建一个巴菲特AI知识库。