关于本地化部署DeepSeek

2025-02-12点滴生活35
作者: yangsir    时间: 前天 08:39
各位大佬,求教!本地化部署deepseek怎么部署?硬件资源需要啥配置?有没有啥指南呀
作者: Hakkinen    时间: 前天 08:40
解铃还须系铃人,直接把问题抛给DS问问
作者: 江湖混混    时间: 前天 08:42
不想搞瑟瑟就用在线的好了
作者: njsphinx    时间: 前天 08:46
刚问了Deepseek,16G的低配版Mac mini m4也是可以部署7b或8b版本的,下次试试。
作者: 希利    时间: 前天 09:06
直接ds问,通过docker来部署,网速快30分钟就搞定。
作者: SleeXP    时间: 前天 09:48
据说按照单5080的算力,一秒钟给你蹦4个汉字出来
作者: njalin    时间: 前天 09:49
本地部署,关键需求是可以自己喂知识
作者: 肚子上的肉    时间: 前天 09:49
gpu起码8GB,内存越大越好,要不慢的尼玛不要不要的
作者: huanghuangzym    时间: 前天 12:00
关键是gpu资源
作者: jumpfrog    时间: 前天 12:16
SleeXP 发表于 2025-2-10 09:48
据说按照单5080的算力,一秒钟给你蹦4个汉字出来
我一台2021年京东4000块的集显笔记本,跑8B的模型,一秒钟有5.9token
作者: njegooh    时间: 前天 12:19
用的4070S显卡(12G显存),内存64G,CPU 4核垃圾级,用的LM Studio软件,用的模型版本是14b,解析速度还行
作者: jumpfrog    时间: 前天 12:29
自己在家玩就是炼丹,我周围不少老杆子都在玩。我觉得冬天玩也蛮好,比较不像钓鱼那么冷,一个小时也就是几块钱电费,而且机器开起来热风吹的空调也不用开了。

我认为炼丹分为两大流派,一个是硬派,主要是尝试各种不同的配置跑不同的模型。比较省钱的玩法就是搞二手洋垃圾服务器+二手洋垃圾计算卡。内存越大越好,显卡显存越大越好。去年P40好像是650块吧,现在要2400,不值得了。现在性价比比较高的是V100 16G,950左右,或者2080Ti 魔改22G的,那个2400左右。另外一个是软派,主要是探索模型的微调,以及语料和提示词对各个模型的输出影响。

个人也玩了10来天了,体验如下
1、小模型效果欠佳,其中参数的重要性大于精度的重要性。
2、显卡加入运算可以大幅提高炼丹炉的性能,但是集显也能简单体验。
3、本地模型要联网才能有比较好的体验,比如你问唐探1900票房多少,它会告诉你这个片子还没有,联网版的就比较准确。
4、语料库用上以后,写1000字左右的材料比较好了。
5、ollama和lmstudio,我用lmstudio。因为ollama自动加载显卡,我是集成显卡,所以在ollama下面完全使用cpu,lmstudio可以配置使用gpu+cpu。
作者: pub    时间: 前天 12:48
win10 ,8G ,ollama ,chatbox ,按顺序可以基本使用。
Mac OS也是一样,2012年的电脑一样跑的很好。
作者: liuhua2007    时间: 前天 12:59
网上有一键安装包,微信公众号搜索:glen 就好
作者: MCGA    时间: 前天 13:36
ollama+anythingLLM
作者: yangzy    时间: 前天 13:53
给你一个 参考,我电脑  32G 内存  3070 8G ,运行 8B 流畅,14B 缓慢,接近人类打字速度。  32B 卡成狗。Q5能正常输出,  Q8 直接输出乱码,然后记得 内存也要吃够,32B 的一起来32G 内存就吃满了,,
作者: seusz    时间: 前天 14:24
E5洋垃圾,128G内存,12G的魔改2060,14B输出超过我的阅读速度,但基本是胡说八道,32B每秒2-3个汉字,条理和逻辑好得多。
作者: 怪盗一枝梅    时间: 前天 15:01
macmini m4可以本地部署,但是呢怎么说呢,这玩意智障的很,玩玩可以,生产力就算了
英语文书写出来的贴到fakeai网站上检查全是黄标,语法逻辑我自己都看不下去,等于要我自己重写,那我要你ai有毛用。跟gpt出来的真是天壤之别,老老实实每个月继续交20刀
作者: 8849    时间: 前天 15:08
本地部署满血版,需要最新服务器,内存加到24组32GB条子,总计768GB内存,不需显卡运算就能跑。几万块钱。
作者: gisjie    时间: 前天 15:09
本地部署好了,32B,怎么知道卡不卡?
对话很流畅。微信图片_20250210150827.jpg(66.04 KB, 下载次数: 0)下载附件前天 15:08 上传
作者: njsphinx    时间: 前天 17:08
刚在MAC mini上装了一个7b版本,很流畅,还行,先玩玩再说。
作者: 唐伯虾    时间: 前天 17:15
搭了能铮钱?
作者: njsphinx    时间: 前天 17:19
唐伯虾 发表于 2025-2-10 17:15
搭了能铮钱?
随便玩玩,主要官方APP太恶心了,动不动就服务器太忙。
作者: liuhua2007    时间: 前天 17:35
8849 发表于 2025-2-10 15:08
本地部署满血版,需要最新服务器,内存加到24组32GB条子,总计768GB内存,不需显卡运算就能跑。几万块钱。 ...
县城撕裂者
作者: yanxin    时间: 前天 17:58
8849 发表于 2025-2-10 15:08
本地部署满血版,需要最新服务器,内存加到24组32GB条子,总计768GB内存,不需显卡运算就能跑。几万块钱。 ...
才看到一篇文章,老外最低花2000美元硬件部署671b模型,配置512G内存,纯CPU跑
作者: yanxin    时间: 前天 18:00
jumpfrog 发表于 2025-2-10 12:29
自己在家玩就是炼丹,我周围不少老杆子都在玩。我觉得冬天玩也蛮好,比较不像钓鱼那么冷,一个小时也就是几 ...
2080ti 22G的普遍涨价了
作者: jumpfrog    时间: 前天 18:17
MCGA 发表于 2025-2-10 13:36
ollama+anythingLLM
anythingLLM自己都可以下载模型跑。不讲究的话,就这一个软件也就能玩了。
作者: jumpfrog    时间: 前天 18:20
seusz 发表于 2025-2-10 14:24
E5洋垃圾,128G内存,12G的魔改2060,14B输出超过我的阅读速度,但基本是胡说八道,32B每秒2-3个汉字,条理 ...
32B比14B好多了,普通人也就到这个模型了。
作者: 飘落云边的雨    时间: 前天 18:25
个人玩本地没意思。


除非你是公司部署对隐私有要求
作者: oceanjack    时间: 前天 18:29

ollama+chatbox

本文转载于9090社区,帖子链接:https://www.kk9090.top/thread-564482-1-1.html

“关于本地化部署DeepSeek ” 的相关文章

发达国家门槛又提高了,5个倒霉蛋被踢出发达国家行列!

作者: 铜锣湾打工仔    时间: 前天 09:29标题: 发达国家门槛又提高了,5个倒霉蛋被踢出发达国家行列!bd6184d4f9b694096917a0fcb5d80cc.jpg (251.36...

小红书上外国难民潮来势汹汹

作者: 半支烟2003    时间: 前天 18:33不得了,快一半了Screenshot_20250115_183055_com.xingin.xhs.jpg(944.87 KB, 下载次数: 0)...

"卷"的力量太厉害,不管你有钱没钱都疯狂想给孩子卷起来

作者: 大肉面    时间: 7 小时前这个游戏设计的的很厉害,想不卷很难,孩子成绩差了学校老师找你,亲戚朋友同事知道了也会讽刺你,家长也会觉得丢面子,最后压力都到了大人这边,再加上很多人经济条件本来...

超市扫码,价格是怎么来的?

作者: Stamp    时间: 前天 08:00好多小超市老板,电脑都不会,条码的价格,是他录入的?店里那么多商品,他一个个录入,动作磨磨唧唧,要弄到猴年马月啊。大超市商品更多了,条码重复了怎么办呢...

"卷"的力量太厉害,不管你有钱没钱都疯狂想给孩子卷起来

作者: 大肉面    时间: 昨天 15:51这个游戏设计的的很厉害,想不卷很难,孩子成绩差了学校老师找你,亲戚朋友同事知道了也会讽刺你,家长也会觉得丢面子,最后压力都到了大人这边,再加上很多人经济条...