需要说明的是 token/s 计算是存在一定误差的,这里对比了同样 GPU 模式下零刻 SER9 Pro HX370 和 H365 的成绩,相对规格稍低的 SER9 Pro AI 9 H365 生成速度比 HX370 更高,这部分差距应该就是测试误差造成的。不过反过来也说明 SER9 Pro AI 9 H365 的性能和规格稍高的 SER9 Pro HX370 基本是属于同一水准。
另外由于 AI 9 系列 CPU 性能很强,在 DeepSeek-R1-Distill-Qwen-14B-Q2 测试里,无论是 AI 9 HX370 还是 H365,CPU 生成速度都是略快于 GPU 的。如果你使用 Q2 之类的模型,或者是 7B-Q8,那么纯 CPU 模式效果会更好。
Ollama 部署 DeepSeek-R1
Ollama 和 LM Studio 都是比较方便的部署工具,不过对于初学者个人更推荐 Ollama,虽然使用 Ollama 要输入命令行。但是以实际体验来说,Ollama 的网络访问更通畅,无需换源或是对网络有额外的要求(这部分不是能说的)。软件安装也非常简单,直接官网下载后,一路下一步确认即可完成安装。
模型部分可以直接在顶部搜索栏搜索,也可以在下方主页点击模型名称进行跳转。
Windows 系统下有两个工具自带工具可以使用 Ollama,分别是传统的 CMD 和更新一些的 PowerShell,方法如下:
Win 键,输入 CMD,打开 CMD/命令提示符Win 键,输入 PowerShell,打开 Windows PowerShell