外设堂

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
外设堂 首页 官方评测 存储 查看内容

金士顿KC3000 4TB SSD实战Deepseek部署测试

2025-2-28 17:06| 发布者: 大胖鸟| 查看: 16609| 评论: 11|原作者: 大胖鸟|来自: 外设堂

摘要: 开篇   Deepseek本地化部署在这个月已经被玩疯了,“个人AI实验室”、“Deepseek接入本地知识库”、“利用Deepseek训练私人AI助手”,相信很多用户都开始着手甚至已经都打造完毕了,虽然蒸馏版和量化模型对于满 ...
Deepseek部署



  我们通过LM Studio和Ollama两个平台进行了部署,这里的建议就是如果你不需要联网,那么LM Studio更友好,并且可以配合AnythingLLM实现本地知识库, 简单易上手,如果部署后供多人建立本地知识库就更推荐Ollama+Page Assist+RAG Flow的组合,但后者相对部署更麻烦一点,win环境下需要通过WSL安装Doker来实现。

屏幕截图-2025-02-21-204705.jpg
本地部署量力而行 个人玩家单卡的话推荐14B和32B的蒸馏模型

  这里我们分别以两个平台为例进行简单测试,部署的模型为DeepSeek-14B的Qwen蒸馏模型,量化程度为Q4,模型文件和模型框架全部丢在KC3000 4TB SSD上,同时对比全部丢在4TB机械硬盘的情况(Win系统不在机械硬盘)。

1.jpg
LM Studio安装的部分模型容量

2.jpg
Ollama Studio安装的部分模型容量

ollama.jpg
左:KC3000 4TB   右:酷狼4TB

ollama14b.jpg
左:KC3000 4TB   右:酷狼4TB

  能看到还是模型框架平台如果也在不同的硬盘上多少还是会带来一定的差异,尽管模型是Loading到内存,但对于通过Doker环境挂载知识库的情况很容易出现本地内存不足,特别是设置CPU负载占比较高的时候,需要调用硬盘的虚拟内存来作为缓存,此时平台的存储载体如果性能差异较大还是会带来输出令牌效率的差距,这个差距如果量化到GPU上来弥补,那可能成本就要远超过一张SSD的价格了。另外,在AI模型加载的时候也会有很明显的速度区别,对于频繁需要切换AI模型的用户来说SSD绝对是标配。



发表评论

最新评论

引用 半自働 2025-2-28 21:57
好东西
引用 大树在生长 2025-3-1 03:01
再搞个48G魔改4090
引用 黛丢丶 2025-3-1 23:47
真不错。
引用 zhqy 2025-3-1 23:52
固态都4T啦
引用 mrzzzzzz 2025-3-2 00:57
4T很性感
引用 Kuriboh 2025-3-2 20:53
真不错
引用 W.L.Troy 2025-3-3 15:45
容量又大,速度又猛。
引用 woohyukwzf 2025-3-4 09:14
现在这固态强啊
引用 月关的北极熊 2025-3-6 12:53
性能不错
引用 long74528 2025-3-12 12:39
kc3000身边有朋友用 温度控制在有缓存的盘中真的挺好
引用 wewalk 2025-3-13 14:32
4T大容量是真香

查看全部评论(11)

手机版|外设堂 ( 辽ICP备13014379号 )辽公网安备 21010202000549号

GMT+8, 2025-3-15 13:37 , Processed in 0.061157 second(s), 24 queries , Gzip On.

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

返回顶部