该图片可能由AI生成
llama.cpp创始人ggerganov在GitHub上留下了一条意味深长的评论:看着Ollama兄弟们把我们的bug原封不动复制到他们的“新引擎”里,还挺有意思的。让我们看看他们要多久才能发现。
这条评论迅速在本地大模型社区引发热议,也让Ollama长期以来的争议再次浮出水面。
事情的本质其实很简单。llama.cpp是一个凝聚了数万小时高质量开发工作的开源项目,是本地运行大模型的核心基础设施。Ollama则是在llama.cpp之上包装了一层,让模型切换变得更简单,凭借出色的易用性积累了大量用户。
问题出在哪里?Ollama在大约一年前开始转向商业化,推出了闭源桌面应用,并且fork了llama.cpp开始自己修改代码。他们曾宣称对某个新模型提供“首日支持”,结果实现得一塌糊涂。一周后,他们把llama.cpp的代码复制过来,却几乎不提这件事。
这在开源世界是大忌。虽然MIT许可证在法律上允许这样做,但违背了社区的基本规范。
更让人哭笑不得的是技术层面的问题。Ollama默认使用极小的上下文窗口,曾经只有2048,现在也才4096。当上下文超出限制时,它会静默截断而不是报错。于是用户开始抱怨RAG不工作、模型总是忘记之前说过的话,却不知道问题出在哪里。他们还把DeepSeek的精简版直接标注为DeepSeek,让用户对一个优秀模型产生了错误印象。
社区里有人一针见血地指出:Ollama本质上是一个99%靠营销、0.09%靠编码的产品,而那0.09%的编码大多还是错的、过时的。
好消息是,llama.cpp现在已经内置了模型切换功能,加上新的fit选项和路由后端,易用性大幅提升。你不再需要手动计算上下文长度和GPU层数,基本实现了即插即用。LM Studio、KoboldCpp等替代方案也都比Ollama更透明、更可靠。
有人问:作为普通用户,我为什么要关心这些开源圈的恩怨?
答案很现实:Ollama迟早要赚钱,要么向用户收费,要么出售用户数据。当一个产品的核心价值几乎完全来自它包装的开源项目,而它又不愿意承认这一点,你就该警惕它未来会怎么对待用户了。
开源软件的价值不仅在于代码免费,更在于透明和信任。当这层信任被打破,用户最终会用脚投票。
reddit.com/r/LocalLLaMA/comments/1qvq0xe/bashing_ollama_isnt_just_a_pleasure_its_a_duty