关于本地化部署DeepSeek

2025-02-12点滴生活302

本文转载于9090社区,帖子链接:https://yy9090.top/thread-564482-1-1.html

作者: yangsir    时间: 前天 08:39
各位大佬,求教!本地化部署deepseek怎么部署?硬件资源需要啥配置?有没有啥指南呀
作者: Hakkinen    时间: 前天 08:40
解铃还须系铃人,直接把问题抛给DS问问
作者: 江湖混混    时间: 前天 08:42
不想搞瑟瑟就用在线的好了
作者: njsphinx    时间: 前天 08:46
刚问了Deepseek,16G的低配版Mac mini m4也是可以部署7b或8b版本的,下次试试。
作者: 希利    时间: 前天 09:06
直接ds问,通过docker来部署,网速快30分钟就搞定。
作者: SleeXP    时间: 前天 09:48
据说按照单5080的算力,一秒钟给你蹦4个汉字出来
作者: njalin    时间: 前天 09:49
本地部署,关键需求是可以自己喂知识
作者: 肚子上的肉    时间: 前天 09:49
gpu起码8GB,内存越大越好,要不慢的尼玛不要不要的
作者: huanghuangzym    时间: 前天 12:00
关键是gpu资源
作者: jumpfrog    时间: 前天 12:16
SleeXP 发表于 2025-2-10 09:48
据说按照单5080的算力,一秒钟给你蹦4个汉字出来
我一台2021年京东4000块的集显笔记本,跑8B的模型,一秒钟有5.9token
作者: njegooh    时间: 前天 12:19
用的4070S显卡(12G显存),内存64G,CPU 4核垃圾级,用的LM Studio软件,用的模型版本是14b,解析速度还行
作者: jumpfrog    时间: 前天 12:29
自己在家玩就是炼丹,我周围不少老杆子都在玩。我觉得冬天玩也蛮好,比较不像钓鱼那么冷,一个小时也就是几块钱电费,而且机器开起来热风吹的空调也不用开了。

我认为炼丹分为两大流派,一个是硬派,主要是尝试各种不同的配置跑不同的模型。比较省钱的玩法就是搞二手洋垃圾服务器+二手洋垃圾计算卡。内存越大越好,显卡显存越大越好。去年P40好像是650块吧,现在要2400,不值得了。现在性价比比较高的是V100 16G,950左右,或者2080Ti 魔改22G的,那个2400左右。另外一个是软派,主要是探索模型的微调,以及语料和提示词对各个模型的输出影响。

个人也玩了10来天了,体验如下
1、小模型效果欠佳,其中参数的重要性大于精度的重要性。
2、显卡加入运算可以大幅提高炼丹炉的性能,但是集显也能简单体验。
3、本地模型要联网才能有比较好的体验,比如你问唐探1900票房多少,它会告诉你这个片子还没有,联网版的就比较准确。
4、语料库用上以后,写1000字左右的材料比较好了。
5、ollama和lmstudio,我用lmstudio。因为ollama自动加载显卡,我是集成显卡,所以在ollama下面完全使用cpu,lmstudio可以配置使用gpu+cpu。
作者: pub    时间: 前天 12:48
win10 ,8G ,ollama ,chatbox ,按顺序可以基本使用。
Mac OS也是一样,2012年的电脑一样跑的很好。
作者: liuhua2007    时间: 前天 12:59
网上有一键安装包,微信公众号搜索:glen 就好
作者: MCGA    时间: 前天 13:36
ollama+anythingLLM
作者: yangzy    时间: 前天 13:53
给你一个 参考,我电脑  32G 内存  3070 8G ,运行 8B 流畅,14B 缓慢,接近人类打字速度。  32B 卡成狗。Q5能正常输出,  Q8 直接输出乱码,然后记得 内存也要吃够,32B 的一起来32G 内存就吃满了,,
作者: seusz    时间: 前天 14:24
E5洋垃圾,128G内存,12G的魔改2060,14B输出超过我的阅读速度,但基本是胡说八道,32B每秒2-3个汉字,条理和逻辑好得多。
作者: 怪盗一枝梅    时间: 前天 15:01
macmini m4可以本地部署,但是呢怎么说呢,这玩意智障的很,玩玩可以,生产力就算了
英语文书写出来的贴到fakeai网站上检查全是黄标,语法逻辑我自己都看不下去,等于要我自己重写,那我要你ai有毛用。跟gpt出来的真是天壤之别,老老实实每个月继续交20刀
作者: 8849    时间: 前天 15:08
本地部署满血版,需要最新服务器,内存加到24组32GB条子,总计768GB内存,不需显卡运算就能跑。几万块钱。
作者: gisjie    时间: 前天 15:09
本地部署好了,32B,怎么知道卡不卡?
对话很流畅。微信图片_20250210150827.jpg(66.04 KB, 下载次数: 0)下载附件前天 15:08 上传
作者: njsphinx    时间: 前天 17:08
刚在MAC mini上装了一个7b版本,很流畅,还行,先玩玩再说。
作者: 唐伯虾    时间: 前天 17:15
搭了能铮钱?
作者: njsphinx    时间: 前天 17:19
唐伯虾 发表于 2025-2-10 17:15
搭了能铮钱?
随便玩玩,主要官方APP太恶心了,动不动就服务器太忙。
作者: liuhua2007    时间: 前天 17:35
8849 发表于 2025-2-10 15:08
本地部署满血版,需要最新服务器,内存加到24组32GB条子,总计768GB内存,不需显卡运算就能跑。几万块钱。 ...
县城撕裂者
作者: yanxin    时间: 前天 17:58
8849 发表于 2025-2-10 15:08
本地部署满血版,需要最新服务器,内存加到24组32GB条子,总计768GB内存,不需显卡运算就能跑。几万块钱。 ...
才看到一篇文章,老外最低花2000美元硬件部署671b模型,配置512G内存,纯CPU跑
作者: yanxin    时间: 前天 18:00
jumpfrog 发表于 2025-2-10 12:29
自己在家玩就是炼丹,我周围不少老杆子都在玩。我觉得冬天玩也蛮好,比较不像钓鱼那么冷,一个小时也就是几 ...
2080ti 22G的普遍涨价了
作者: jumpfrog    时间: 前天 18:17
MCGA 发表于 2025-2-10 13:36
ollama+anythingLLM
anythingLLM自己都可以下载模型跑。不讲究的话,就这一个软件也就能玩了。
作者: jumpfrog    时间: 前天 18:20
seusz 发表于 2025-2-10 14:24
E5洋垃圾,128G内存,12G的魔改2060,14B输出超过我的阅读速度,但基本是胡说八道,32B每秒2-3个汉字,条理 ...
32B比14B好多了,普通人也就到这个模型了。
作者: 飘落云边的雨    时间: 前天 18:25
个人玩本地没意思。


除非你是公司部署对隐私有要求
作者: oceanjack    时间: 前天 18:29

ollama+chatbox

本文转载于9090社区,帖子链接:https://yy9090.top/thread-564482-1-1.html

“关于本地化部署DeepSeek ” 的相关文章

超市扫码,价格是怎么来的?

作者: Stamp    时间: 前天 08:00好多小超市老板,电脑都不会,条码的价格,是他录入的?店里那么多商品,他一个个录入,动作磨磨唧唧,要弄到猴年马月啊。大超市商品更多了,条码重复了怎么办呢...

七十年代还是八十年代的南京街景?

作者: 321321    时间: 3 天前鼓楼吗?IMG_20250114_205711.jpg(273.17 KB, 下载次数: 1)下载附件3 天前 上传作者: 极速射区    时间: 3 天前...

南京哪里有放胶片的影院?

作者: fifly    时间: 4 天前 本帖最后由 fifly 于 2025-1-16 14:09 编辑 虽然数字放映机早已是主流了,怀念胶片电影。特别是音响的差别,胶片电影是模拟式音轨,差不多就...

转发:固态锂电池正式投产,有望成为年末大妖

作者: 三两碎银    时间: 2024-12-20 11:18固态锂电池正式投产,有望成为年末大妖!笑哈哈的扶嘉36小时前关注来自:江西从北京传来重大新闻!我国第一条全固态电池量产线现已投入生产。全...

win10电脑,在哪里下载apple music

作者: cavaliercc    时间: 前天 11:02  微软商店进不去,也没在那里下过软件,想问apple music去哪里下载,现在偶尔能听听音乐作者: 搞搞    时间: 前天 11:04...