关于本地化部署DeepSeek

2025-02-12点滴生活129

本文转载于9090社区,帖子链接:https://www.kk9090.top/thread-564482-1-1.html

作者: yangsir    时间: 前天 08:39
各位大佬,求教!本地化部署deepseek怎么部署?硬件资源需要啥配置?有没有啥指南呀
作者: Hakkinen    时间: 前天 08:40
解铃还须系铃人,直接把问题抛给DS问问
作者: 江湖混混    时间: 前天 08:42
不想搞瑟瑟就用在线的好了
作者: njsphinx    时间: 前天 08:46
刚问了Deepseek,16G的低配版Mac mini m4也是可以部署7b或8b版本的,下次试试。
作者: 希利    时间: 前天 09:06
直接ds问,通过docker来部署,网速快30分钟就搞定。
作者: SleeXP    时间: 前天 09:48
据说按照单5080的算力,一秒钟给你蹦4个汉字出来
作者: njalin    时间: 前天 09:49
本地部署,关键需求是可以自己喂知识
作者: 肚子上的肉    时间: 前天 09:49
gpu起码8GB,内存越大越好,要不慢的尼玛不要不要的
作者: huanghuangzym    时间: 前天 12:00
关键是gpu资源
作者: jumpfrog    时间: 前天 12:16
SleeXP 发表于 2025-2-10 09:48
据说按照单5080的算力,一秒钟给你蹦4个汉字出来
我一台2021年京东4000块的集显笔记本,跑8B的模型,一秒钟有5.9token
作者: njegooh    时间: 前天 12:19
用的4070S显卡(12G显存),内存64G,CPU 4核垃圾级,用的LM Studio软件,用的模型版本是14b,解析速度还行
作者: jumpfrog    时间: 前天 12:29
自己在家玩就是炼丹,我周围不少老杆子都在玩。我觉得冬天玩也蛮好,比较不像钓鱼那么冷,一个小时也就是几块钱电费,而且机器开起来热风吹的空调也不用开了。

我认为炼丹分为两大流派,一个是硬派,主要是尝试各种不同的配置跑不同的模型。比较省钱的玩法就是搞二手洋垃圾服务器+二手洋垃圾计算卡。内存越大越好,显卡显存越大越好。去年P40好像是650块吧,现在要2400,不值得了。现在性价比比较高的是V100 16G,950左右,或者2080Ti 魔改22G的,那个2400左右。另外一个是软派,主要是探索模型的微调,以及语料和提示词对各个模型的输出影响。

个人也玩了10来天了,体验如下
1、小模型效果欠佳,其中参数的重要性大于精度的重要性。
2、显卡加入运算可以大幅提高炼丹炉的性能,但是集显也能简单体验。
3、本地模型要联网才能有比较好的体验,比如你问唐探1900票房多少,它会告诉你这个片子还没有,联网版的就比较准确。
4、语料库用上以后,写1000字左右的材料比较好了。
5、ollama和lmstudio,我用lmstudio。因为ollama自动加载显卡,我是集成显卡,所以在ollama下面完全使用cpu,lmstudio可以配置使用gpu+cpu。
作者: pub    时间: 前天 12:48
win10 ,8G ,ollama ,chatbox ,按顺序可以基本使用。
Mac OS也是一样,2012年的电脑一样跑的很好。
作者: liuhua2007    时间: 前天 12:59
网上有一键安装包,微信公众号搜索:glen 就好
作者: MCGA    时间: 前天 13:36
ollama+anythingLLM
作者: yangzy    时间: 前天 13:53
给你一个 参考,我电脑  32G 内存  3070 8G ,运行 8B 流畅,14B 缓慢,接近人类打字速度。  32B 卡成狗。Q5能正常输出,  Q8 直接输出乱码,然后记得 内存也要吃够,32B 的一起来32G 内存就吃满了,,
作者: seusz    时间: 前天 14:24
E5洋垃圾,128G内存,12G的魔改2060,14B输出超过我的阅读速度,但基本是胡说八道,32B每秒2-3个汉字,条理和逻辑好得多。
作者: 怪盗一枝梅    时间: 前天 15:01
macmini m4可以本地部署,但是呢怎么说呢,这玩意智障的很,玩玩可以,生产力就算了
英语文书写出来的贴到fakeai网站上检查全是黄标,语法逻辑我自己都看不下去,等于要我自己重写,那我要你ai有毛用。跟gpt出来的真是天壤之别,老老实实每个月继续交20刀
作者: 8849    时间: 前天 15:08
本地部署满血版,需要最新服务器,内存加到24组32GB条子,总计768GB内存,不需显卡运算就能跑。几万块钱。
作者: gisjie    时间: 前天 15:09
本地部署好了,32B,怎么知道卡不卡?
对话很流畅。微信图片_20250210150827.jpg(66.04 KB, 下载次数: 0)下载附件前天 15:08 上传
作者: njsphinx    时间: 前天 17:08
刚在MAC mini上装了一个7b版本,很流畅,还行,先玩玩再说。
作者: 唐伯虾    时间: 前天 17:15
搭了能铮钱?
作者: njsphinx    时间: 前天 17:19
唐伯虾 发表于 2025-2-10 17:15
搭了能铮钱?
随便玩玩,主要官方APP太恶心了,动不动就服务器太忙。
作者: liuhua2007    时间: 前天 17:35
8849 发表于 2025-2-10 15:08
本地部署满血版,需要最新服务器,内存加到24组32GB条子,总计768GB内存,不需显卡运算就能跑。几万块钱。 ...
县城撕裂者
作者: yanxin    时间: 前天 17:58
8849 发表于 2025-2-10 15:08
本地部署满血版,需要最新服务器,内存加到24组32GB条子,总计768GB内存,不需显卡运算就能跑。几万块钱。 ...
才看到一篇文章,老外最低花2000美元硬件部署671b模型,配置512G内存,纯CPU跑
作者: yanxin    时间: 前天 18:00
jumpfrog 发表于 2025-2-10 12:29
自己在家玩就是炼丹,我周围不少老杆子都在玩。我觉得冬天玩也蛮好,比较不像钓鱼那么冷,一个小时也就是几 ...
2080ti 22G的普遍涨价了
作者: jumpfrog    时间: 前天 18:17
MCGA 发表于 2025-2-10 13:36
ollama+anythingLLM
anythingLLM自己都可以下载模型跑。不讲究的话,就这一个软件也就能玩了。
作者: jumpfrog    时间: 前天 18:20
seusz 发表于 2025-2-10 14:24
E5洋垃圾,128G内存,12G的魔改2060,14B输出超过我的阅读速度,但基本是胡说八道,32B每秒2-3个汉字,条理 ...
32B比14B好多了,普通人也就到这个模型了。
作者: 飘落云边的雨    时间: 前天 18:25
个人玩本地没意思。


除非你是公司部署对隐私有要求
作者: oceanjack    时间: 前天 18:29

ollama+chatbox

本文转载于9090社区,帖子链接:https://www.kk9090.top/thread-564482-1-1.html

“关于本地化部署DeepSeek ” 的相关文章

龙潭过江大桥通车也有日子了,还有人走过啊?来聊聊呗

作者: garfiled    时间: 4 天前标题: 龙潭过江大桥通车也有日子了,还有人走过啊?来聊聊呗感受如何?通行状况咋样,车子还多?听说小车通行费是40块一次??作者: zhizunbaofe...

最近在追剧《驻站》不错,推荐

作者: 野兽良民    时间: 前天 14:32基层民警的故事,没有流量明星,推荐p2902107322.jpg (532.5 KB, 下载次数: 0)下载附件前天 14:31 上传作者: 数码爱好者...

最近支付宝碰一碰减1.28活动大家都天天参加吧

作者: 八个鸭卤    时间: 前天 13:36啥时候结束?作者: pwrln    时间: 前天 13:56哪有1.28,你第一次吧,一般都是两三毛作者: 八个鸭卤    时间: 前天 14:31p...

以房化债

作者: 银蛇    时间: 3 天前       2016年以后,中国各地在土地拍卖的时候,都会加入“竞拍保障房”的条款,也就是地价拍到一定高度之后就封顶,开发商转而竞争保障房面积,这部分的保障房在建...

南京过年的年夜饭冷盘一般摆哪些菜?

作者: 一叶知秋叶原    时间: 3 天前就是传统的在家大家庭聚餐的那种年夜饭冷盘一般有什么?作者: 动态清您    时间: 3 天前有钱的,天天过年,摆80碗也不爱吃;没钱的,在思考明年的工作保得...