关于本地化部署DeepSeek

2025-02-12点滴生活176

本文转载于9090社区,帖子链接:https://yy9090.top/thread-564482-1-1.html

作者: yangsir    时间: 前天 08:39
各位大佬,求教!本地化部署deepseek怎么部署?硬件资源需要啥配置?有没有啥指南呀
作者: Hakkinen    时间: 前天 08:40
解铃还须系铃人,直接把问题抛给DS问问
作者: 江湖混混    时间: 前天 08:42
不想搞瑟瑟就用在线的好了
作者: njsphinx    时间: 前天 08:46
刚问了Deepseek,16G的低配版Mac mini m4也是可以部署7b或8b版本的,下次试试。
作者: 希利    时间: 前天 09:06
直接ds问,通过docker来部署,网速快30分钟就搞定。
作者: SleeXP    时间: 前天 09:48
据说按照单5080的算力,一秒钟给你蹦4个汉字出来
作者: njalin    时间: 前天 09:49
本地部署,关键需求是可以自己喂知识
作者: 肚子上的肉    时间: 前天 09:49
gpu起码8GB,内存越大越好,要不慢的尼玛不要不要的
作者: huanghuangzym    时间: 前天 12:00
关键是gpu资源
作者: jumpfrog    时间: 前天 12:16
SleeXP 发表于 2025-2-10 09:48
据说按照单5080的算力,一秒钟给你蹦4个汉字出来
我一台2021年京东4000块的集显笔记本,跑8B的模型,一秒钟有5.9token
作者: njegooh    时间: 前天 12:19
用的4070S显卡(12G显存),内存64G,CPU 4核垃圾级,用的LM Studio软件,用的模型版本是14b,解析速度还行
作者: jumpfrog    时间: 前天 12:29
自己在家玩就是炼丹,我周围不少老杆子都在玩。我觉得冬天玩也蛮好,比较不像钓鱼那么冷,一个小时也就是几块钱电费,而且机器开起来热风吹的空调也不用开了。

我认为炼丹分为两大流派,一个是硬派,主要是尝试各种不同的配置跑不同的模型。比较省钱的玩法就是搞二手洋垃圾服务器+二手洋垃圾计算卡。内存越大越好,显卡显存越大越好。去年P40好像是650块吧,现在要2400,不值得了。现在性价比比较高的是V100 16G,950左右,或者2080Ti 魔改22G的,那个2400左右。另外一个是软派,主要是探索模型的微调,以及语料和提示词对各个模型的输出影响。

个人也玩了10来天了,体验如下
1、小模型效果欠佳,其中参数的重要性大于精度的重要性。
2、显卡加入运算可以大幅提高炼丹炉的性能,但是集显也能简单体验。
3、本地模型要联网才能有比较好的体验,比如你问唐探1900票房多少,它会告诉你这个片子还没有,联网版的就比较准确。
4、语料库用上以后,写1000字左右的材料比较好了。
5、ollama和lmstudio,我用lmstudio。因为ollama自动加载显卡,我是集成显卡,所以在ollama下面完全使用cpu,lmstudio可以配置使用gpu+cpu。
作者: pub    时间: 前天 12:48
win10 ,8G ,ollama ,chatbox ,按顺序可以基本使用。
Mac OS也是一样,2012年的电脑一样跑的很好。
作者: liuhua2007    时间: 前天 12:59
网上有一键安装包,微信公众号搜索:glen 就好
作者: MCGA    时间: 前天 13:36
ollama+anythingLLM
作者: yangzy    时间: 前天 13:53
给你一个 参考,我电脑  32G 内存  3070 8G ,运行 8B 流畅,14B 缓慢,接近人类打字速度。  32B 卡成狗。Q5能正常输出,  Q8 直接输出乱码,然后记得 内存也要吃够,32B 的一起来32G 内存就吃满了,,
作者: seusz    时间: 前天 14:24
E5洋垃圾,128G内存,12G的魔改2060,14B输出超过我的阅读速度,但基本是胡说八道,32B每秒2-3个汉字,条理和逻辑好得多。
作者: 怪盗一枝梅    时间: 前天 15:01
macmini m4可以本地部署,但是呢怎么说呢,这玩意智障的很,玩玩可以,生产力就算了
英语文书写出来的贴到fakeai网站上检查全是黄标,语法逻辑我自己都看不下去,等于要我自己重写,那我要你ai有毛用。跟gpt出来的真是天壤之别,老老实实每个月继续交20刀
作者: 8849    时间: 前天 15:08
本地部署满血版,需要最新服务器,内存加到24组32GB条子,总计768GB内存,不需显卡运算就能跑。几万块钱。
作者: gisjie    时间: 前天 15:09
本地部署好了,32B,怎么知道卡不卡?
对话很流畅。微信图片_20250210150827.jpg(66.04 KB, 下载次数: 0)下载附件前天 15:08 上传
作者: njsphinx    时间: 前天 17:08
刚在MAC mini上装了一个7b版本,很流畅,还行,先玩玩再说。
作者: 唐伯虾    时间: 前天 17:15
搭了能铮钱?
作者: njsphinx    时间: 前天 17:19
唐伯虾 发表于 2025-2-10 17:15
搭了能铮钱?
随便玩玩,主要官方APP太恶心了,动不动就服务器太忙。
作者: liuhua2007    时间: 前天 17:35
8849 发表于 2025-2-10 15:08
本地部署满血版,需要最新服务器,内存加到24组32GB条子,总计768GB内存,不需显卡运算就能跑。几万块钱。 ...
县城撕裂者
作者: yanxin    时间: 前天 17:58
8849 发表于 2025-2-10 15:08
本地部署满血版,需要最新服务器,内存加到24组32GB条子,总计768GB内存,不需显卡运算就能跑。几万块钱。 ...
才看到一篇文章,老外最低花2000美元硬件部署671b模型,配置512G内存,纯CPU跑
作者: yanxin    时间: 前天 18:00
jumpfrog 发表于 2025-2-10 12:29
自己在家玩就是炼丹,我周围不少老杆子都在玩。我觉得冬天玩也蛮好,比较不像钓鱼那么冷,一个小时也就是几 ...
2080ti 22G的普遍涨价了
作者: jumpfrog    时间: 前天 18:17
MCGA 发表于 2025-2-10 13:36
ollama+anythingLLM
anythingLLM自己都可以下载模型跑。不讲究的话,就这一个软件也就能玩了。
作者: jumpfrog    时间: 前天 18:20
seusz 发表于 2025-2-10 14:24
E5洋垃圾,128G内存,12G的魔改2060,14B输出超过我的阅读速度,但基本是胡说八道,32B每秒2-3个汉字,条理 ...
32B比14B好多了,普通人也就到这个模型了。
作者: 飘落云边的雨    时间: 前天 18:25
个人玩本地没意思。


除非你是公司部署对隐私有要求
作者: oceanjack    时间: 前天 18:29

ollama+chatbox

本文转载于9090社区,帖子链接:https://yy9090.top/thread-564482-1-1.html

“关于本地化部署DeepSeek ” 的相关文章

过年了,装逼一下

作者: 南京装修    时间: 前天 08:11谁有BBA借我回家装逼一下,过年了作者: 北京时间    时间: 前天 08:35你还要把入门款 排除作者: fjmdj1127    时间: 前天 0...

体制内涨工资就是好呀

作者: 1069    时间: 3 天前IMG_4675.jpeg (285.56 KB, 下载次数: 0)下载附件3 天前 上传IMG_4676.jpeg (770.02 KB, 下载次数: 0)下...

请问安徽买烟花

作者: 城南浮云    时间: 3 天前谁能给个导航地点啊,明天准备去传说中的天长去买烟花,感谢作者: 铜锣湾打工仔    时间: 3 天前于洼 导航作者: dadaie100    时间: 3 天前...

单身狗的终极遗憾。独身女子去世叔舅姑姨争数百万遗产

作者: 弱电门禁    时间: 前天 13:54女子去世,叔舅姑姨都来争遗产?北京的赵女士因病去世,留下了几百万遗产。由于赵女士生前没立遗嘱,也没有法定继承人。于是,赵女士的叔叔姑姑和舅舅姨姨都要求分...

2月 1开始南京的景点人流就爆发了吧?

作者: 八个鸭卤    时间: 前天 12:21挤不动咯作者: 风林火山    时间: 前天 12:35元宵灯会,可能又要搜集我们去当志愿者作者: 草头huang    时间: 前天 12:46还有待...