说明:正常普通人用AI产品的话,都不需要部署在本地,基本上APP或者网页版就足够使用了。因为大部分人的实际需求其实就是改个文案,梳理一下思路之类的。完全没有必要做本地部署。
本地部署适合以下情况:
① 电脑配置较高,有独立显卡。② 有私密的数据需要处理,担心泄密。③需要和本地工作流结合,处理高频任务或复杂任务。④ 日常使用量大,调用API需要收费,本地部署能省钱。⑤ 想要在开源模型基础上,做个性化的定制版本。
我们正好收集到一份DeepSeek免费部署方案,直接分享给有需要的同学。
1. 首先在浏览器搜索ollama,会出现ollama官网,点击进入下载安装。
如果桌面出现了ollama图标,说明软件安装成功。图标就是下图的羊驼。
特别说明:最好安装在C盘,安装在其它盘,需要重新配置环境变量。
5. 还是在刚刚的ollama官网,点击右上角红框的位置。
6. 在弹出的界面,点击红框的“Models”选项
这里的数字越大,参数越多,性能越强,1.5b代表模型具备15亿参数。
选择1.5b参数后,复制红框中的命令“ollama run deepseek-r1:1.5b”。
在弹出的窗口中,输入cmd,点击确定,打开命令行,就像下面这样。
在打开的命令行里,输入上面复制的命令“ollama run deepseek-r1:1.5b”。
此时大模型安装在你的电脑上,就算断网也可以继续用,也不用担心数据泄露。
当你关闭电脑,下次想要继续使用的时候,需要先启动ollama。
同时按下键盘上的Win和R键,在弹出的窗口里输入cmd,点击确定打开命令行。在命令行界面,输入刚刚的命令“ollama run deepseek-r1:1.5b”。因为你之前已经下载过,这次无需下载,可以直接和模型聊天。
原创文章,作者:爱运营,如若转载,请注明出处:https://www.iyunying.org/news/347557.html