要说2025年震惊科技圈的事件要数DeepSeek这个国产AI的横空出世,用小说体来讲就是在一众大佬们都在吹嘘自己的AI多牛的时候,国产小弟一跃龙门横扫一切,原来AI也不是那么贵。DeepSeek让英伟达1月28日的股价暴跌17%,直接蒸发5890亿美元。终于有人整治一下资本市场了。
今天是大年初一,我们在新的一年支持一下国产,秉承白嫖的风格,把DeepSeek部署到本地机,非网络环境也能愉快的使用。当然,如果你了解过AI,这种大模型所用的算力越多,参数越多,得到的结果就会越好,所以本地化部署只是一个自娱自乐的操作,真正体现AI大模型能力还是需要更多的参数,更多的算力。
一、 先安装AI大模型运行的基本环境
大模型并不是一个exe可执行程序,需要对大模型的运行环境进行配置,这类工具有很多开源好用的,比较出名的是Ollama,它的安装比较简单,到官网下载对应系统的程序安装即可。https://www.ollama.com/
Ollama只是一个运行AI大模型的环境,所以我们要想运行DeepSeek是需要再在Ollama环境的基础上再安装DeepSeek的。
Ollama官网提供了多种可以运行的AI大模型,目前最火的就是DeepSeek:r1,所以不用再去寻找,直接在Ollama官网进行安装DeepSeek即可。
我这里选择的是默认的7b个参数版本,通过Windows的命令行工具或者PowerShell运行对应的安装命令即可。
ollama run deepseek-r1
安装其他参数量的版本就在上面的命令后面加上:以及对应的参数量即可,比如:
ollama run deepseek-r1: 671b
不过在这里还需要进行进一步的配置来让DeepSeek正常工作,在第二项RAG设置中,选择我们安装好的DeepSeek:R1大模型,其他几个参数用默认的就可以。
至此,本地运行DeepSeek:R1大模型的安装与配置就结束了,我们就可以愉快地使用这个大模型了。
在对话框中输入需要提问的问题,就可以得到对应的结果,至于效果什么的,本篇不过多赘述,大家可以体验了再说。目前DeepSeek主推的能力强的是R3版本,有环境的试试?
当然,也可以直接登录DeepSeek网页端进行体验。
大年初一,不想出去和亲戚们啰嗦,和DeepSeek聊聊吧,或许能有意想不到的收获。
或者把亲戚们的聊天输入到DeepSeek中,让它帮你聊也未尝不可,我可真是个小机灵鬼。