客户端
游戏
无障碍

34

评论

154

167

手机看

微信扫一扫,随时随地看

离线免费用 Deepseek本地傻瓜式安装部署流程

图片

新年快乐!

这几天虽然过年,但deepseek在科技圈的热度显然超过了春节啊!目前手机端app虽然能用,但网络和服务端过载,用起来还是很吃力的,况且在线版的还会有很多限制,在高强度使用时肯定是不如本地部署的离线版的。所以我就在自己的独显电脑上搞定了deepseek,而且非常简单!

图片

这个流程我会假设你对编程和命令行操作有一点点了解,虽然很简单,但我也会尽量详细解释每一步。

安装大语言运行框架

图片

Ollama是一个开源的AI工具,支持本地运行各种模型,包括GPT-4、deepseek等。我们要用deepseek就必须要安装运行框架

图片

打开Ollama的官网:ollama点com,或者去github下载(开源的项目),如果你是Windows的话,就下载Windows的版本并安装。

克隆代码仓库 部署大模型

接着,我们可以在Ollama的官网直接打开deepseek大模型的拉取链接,在models里选择deepseek-r1即可。

图片

这时候,我们要根据显卡来选择大小不同的模型,如果你的显卡显存很大,可以选择更大一些。我的显卡是4080,显存是16GB,官方推荐用32b大小的deepseek模型。

图片

复制ollama run deepseek-r1:32b,在cmd中粘贴并enter:

图片

我选的32b大小的deepseek模型,文件大小是19GB,克隆/下载速度还是很快的。

图片

完成后,就环境和大模型就算搭建好了。我们在cmd里可以直接输入ollama run deepseek-r1:32b命令来使用deepseek。

用chatbox搭建界面

但对于大多数没有编程基础的玩家来说,命令行用起来繁琐不够直观,接下来可以通过搭建用户界面来运行。

图片

我选的是开源的chatbox ai工具

图片

去他们官网chatboxai点app/zh或github上下载安装所需的版本。

图片

打开后,模型提供方选择OLLAMA API,模型选择deepseek-r1:32b,完成!

图片

接下来就是愉快的使用过程了。还挺爽!

以上的工具其实都很傻瓜,用起来就是这么简单,对于大多数普通人来说也已经足够使用了。

图片

现在这个时代,关于“AI是否能替代我们”这样事情,其实大可不必惊恐,面对AI唯有为我所用才能让自己立于有利位置,毕竟AI也是人做出来的,不是吗?

免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
举报
评论 0文明上网理性发言,请遵守《新闻评论服务协议》
请先登录后发表评论~
查看全部0条评论
首页
刷新
反馈
顶部