最近爆火的国产AI模型DeepSeek,号称“能写代码、写小说、做PPT,还能秒回你的奇葩问题”!但官方服务器天天被挤爆,等得人心急?别慌!今天教你用两个神器Ollama和ChatBox,在本地电脑上部署DeepSeek,从此告别卡顿,还能保护隐私!全程傻瓜式操作,小白也能10分钟搞定!
一、准备工作:你的电脑能跑动吗?
- 硬件要求:
- 最低配置:8GB内存 + 4GB显存(核显也行,速度会慢点)。
- 推荐配置:16GB内存 + 8GB显存(比如RTX 3060显卡),跑7B模型流畅如飞。
- 系统:Windows 10/11、macOS、Linux都支持!
- 软件工具:
- Ollama:一个“AI模型管家”,帮你轻松管理本地大模型。
- ChatBox:颜值超高的AI对话工具,界面像微信一样简单。
二、安装Ollama:一键搞定AI管家
步骤1:下载安装Ollama
![图片[1]-零门槛!手把手教你用Ollama+ChatBox打造私人AI助手,本地畅玩DeepSeek-](http://wukonghudong.oss-cn-shenzhen.aliyuncs.com/uploads/2025/02/ollma.jpg)
- Windows/macOS用户:直接去官网(//ollama.com)下载安装包,双击安装即可。
- Linux用户:复制下面这行代码到终端,回车搞定!
curl -fsSL //ollama.com/install.sh | sudo bash
(安装完记得重启终端!)
步骤2:验证安装
打开命令行(Windows按Win+R
输入cmd
,macOS/Linux直接开终端),输入:
ollama --version
如果显示版本号(比如0.5.7
),恭喜你成功啦!
三、部署DeepSeek模型:选对版本很重要!
步骤1:选择适合你电脑的模型
DeepSeek有多个版本,按显存选:
- 4GB显存:选
deepseek-r1:7b
(基础版,速度够快)。 - 8GB显存以上:选
deepseek-r1:14b
(进阶版,智商更高)。
步骤2:一键下载模型
在命令行输入(以7B为例):
ollama run deepseek-r1:7b
等待下载完成(速度取决于网络,建议挂加速器)。下载完成后,你会看到Send a message
的提示,说明模型已加载成功!
步骤3:测试模型
输入问题试试看!比如:
请用Python写一个快速排序算法
如果看到完整代码输出,说明模型运行正常!
四、配置ChatBox:打造专属聊天界面
步骤1:下载安装ChatBox
![图片[2]-零门槛!手把手教你用Ollama+ChatBox打造私人AI助手,本地畅玩DeepSeek-](http://wukonghudong.oss-cn-shenzhen.aliyuncs.com/uploads/2025/02/chabox.jpg)
- 访问ChatBox官网(//chatboxai.app),下载对应系统的安装包,安装即可。
步骤2:连接本地模型
- 打开ChatBox,点击右下角设置(齿轮图标)。
- 选择Ollama API,填写以下信息:
- API Endpoint:
//localhost:11434
- Model Name:
deepseek-r1:7b
(和Ollama里选的模型一致)
- 保存设置,返回主界面!
步骤3:开始对话!
输入你想问的内容,比如:
写一个关于“穿越唐朝”的短视频脚本,要求包含反转剧情!
等待几秒,AI就会生成创意满满的脚本!
五、常见问题&优化技巧
- 模型下载卡住?
- 关掉命令行重新运行命令,或换网络环境。
- 想用GPU加速?
- 安装NVIDIA驱动和CUDA,运行命令加
--gpu
参数:bash ollama run deepseek-r1:7b --gpu
- 内存不够怎么办?
- 换更小的模型(如
1.5b
),或使用量化版(如7b-q4_0
)。
六、高级玩法:让AI更懂你!
- 定制Prompt:在问题前加指令,比如“用李白的风格写诗”“生成带emoji的周报”。
- 接入hth华体会最新登录入口:用Dify工具上传私人文档,让AI基于你的资料回答。
- 批量任务:写脚本调用API,自动处理Excel、翻译文档(参考网页7的代码示例)!
结语
本地部署DeepSeek,就像在家养了一只“赛博诸葛”,写代码、编故事、做策划信手拈来!赶紧跟着教程试试,评论区等你晒成果!
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END
暂无评论内容