本地安装deepseek大模型性能实测,win11和wsl2容器,哪个更快?

本地安装deepseek大模型性能实测,win11和wsl2容器,哪个更快?近期 deepseek 不仅在互联网上非常火爆 单位 个人进行本地部署也非常火爆 本人的笔记本虽然配置很差 也想部署一个来学习一下 但由于 ollama 可以部署在 win11 宿主机 也可以部署在 wsl2 的 docker 中 两者性能差距如何 显卡使用

欢迎大家来到IT世界,在知识的湖畔探索吧!

近期,deepseek不仅在互联网上非常火爆,单位/个人进行本地部署也非常火爆。本人的笔记本虽然配置很差,也想部署一个来学习一下。但由于ollama可以部署在win11宿主机,也可以部署在wsl2的docker中。两者性能差距如何?显卡使用如何?没有经过实践测试无法得出结论。 同时,由于windows和wsl2可以跨文件系统访问,也想测试一下跨文件系统访问是否会有性能损失。

本地安装deepseek大模型性能实测,win11和wsl2容器,哪个更快?



欢迎大家来到IT世界,在知识的湖畔探索吧!

下面是测试环境和样例:

1、测试环境

硬件环境:自有笔记本

  • CPU:intel酷睿I5-1135G7;
  • 内存: 40G DDR4 3200MHz;
  • 显卡:nvidia mx450,2G专用显存;
  • 硬盘:512G SSD;

软件环境

  • OS:win11 家庭版;
  • cuda:v12.8 目前最新版;
  • wsl2分发版:ubuntu(当前为Ubuntu 24.04.2 LTS)
  • 容器:docker v28.0.0

2、测试实例

在安装好ollma以及配置好gpu加速后进行2次提问测试:

  • Q1:我是一个中小企业,我改如何使用deepseek落地本地知识库?(此语句中的“改”,是故意敲错给大模型的)
  • Q2:我是一个IT工程师,如何用ollama+anythingllm来部署实现本地知识库?

3、win11宿主机的性能测试

一、部署软件:

  • ollama:win11宿主机部署ollama很简单,只需要在ollama官网下载程序安装即可。
  • cuda:安装最新的显卡驱动,并安装对应的cuda版本,我的笔记本安装了最新12.8.同时,按照官方教程配置环境变量。
  • 强制GPU加速:配置以下环境变量:
OLLAMA_GPU_LAYER:cuda CUDA_VISIBLE_DEVICES:显卡id

欢迎大家来到IT世界,在知识的湖畔探索吧!

二、运行ollama测试:

  • 拉取模型:在windows终端中输入以下命令拉取模型
欢迎大家来到IT世界,在知识的湖畔探索吧!ollama pull deepseek-r1:7b
  • 运行模型:在windows终端中输入以下命令运行模型
ollama run deepseek-r1:7b --verbose

三、测试结果

测试结果

Q1

Q2

CPU

85-95%

85-95%

GPU

11-16%

11-16%

内存

13.6/39.8G

13.6/39.8G

专用显存

0.9/2.0G

1.0G/2.0G

共享GPU内存

4/19.9G

4/19.9G

total duration

5m19.s

8m43.0s

load duration

30.3408ms

20.6889ms

prompt eval count

18 token(s)

1257 token(s)

prompt eval duration

1.455s

17.098s

prompt eval rate

12.37 tokens/s

73.52 tokens/s

eval count

1218 token(s)

1811 token(s)

eval duration

5m17.875s

8m25.671s

eval rate

3.83 tokens/s

3.58 tokens/s

4、win11+wsl2+docker测试

一、部署软件

  • wsl2安装:控制面板》程序和功能》添加“虚拟机平台、hyper-v、linux子系统”安装即可;
  • 分发版安装:运行以下命令安装
欢迎大家来到IT世界,在知识的湖畔探索吧!PS C:\Users\user1> wsl --list --online 以下是可安装的有效分发的列表。 使用 'wsl.exe --install 
  
    ' 安装。 NAME FRIENDLY NAME Ubuntu Ubuntu Debian Debian GNU/Linux kali-linux Kali Linux Rolling Ubuntu-18.04 Ubuntu 18.04 LTS Ubuntu-20.04 Ubuntu 20.04 LTS Ubuntu-22.04 Ubuntu 22.04 LTS Ubuntu-24.04 Ubuntu 24.04 LTS OracleLinux_7_9 Oracle Linux 7.9 OracleLinux_8_7 Oracle Linux 8.7 OracleLinux_9_1 Oracle Linux 9.1 openSUSE-Leap-15.6 openSUSE Leap 15.6 SUSE-Linux-Enterprise-15-SP5 SUSE Linux Enterprise 15 SP5 SUSE-Linux-Enterprise-15-SP6 SUSE Linux Enterprise 15 SP6 openSUSE-Tumbleweed openSUSE Tumbleweed PS C:\Users\user1> wsl --install ubuntu 正在安装: Ubuntu 已安装 Ubuntu。 正在启动 Ubuntu... Installing, this may take a few minutes... Please create a default UNIX user account. The username does not need to match your Windows username. For more information visit: https://aka.ms/wslusers Enter new UNIX username: 
  
  • docker安装:运行以下命令安装
apt update apt install docker-ce
  • gpu加速:参照developer.nvidia.com上的说明安装wsl下的cuda。然后按照英伟达说明安装nvidia-docker2

二、运行ollama测试

  • 进入wsl2:在windows终端输入wsl 进入默认的发行版,也就是ubuntu。如果你安装有有多个发行版,那就用 wsl -d ubuntu命令。
  • 创建容器:建议使用docker compose文件来启动ollama,注意需要加GPU配置选项支持。
  • 运行容器:用docker-comopse up -d 来启动容器。容器启动后,ollama自动进入serve状态。
  • 运行ollama:采用以下命令进入并运行
欢迎大家来到IT世界,在知识的湖畔探索吧!#wsl2中运行 docker exec -it ollama /bin/bash #容器内运行 ollama run deepseek-r1:7b --verbose

三、测试结果

测试结果

Q1

Q2

CPU

60-62%

60-62%

GPU

13%

14%

内存

20.7/39.8G

19.9/39.8G

专用显存

0.9/2.0G

0.9/2.0G

共享GPU内存

0.1/19.9G

0.1/19.9G

total duration

4m51.s

7m7.s

load duration

14.ms

15.75587ms

prompt eval count

18 token(s)

1264 token(s)

prompt eval duration

1.847s

4.791s

prompt eval rate

9.75 tokens/s

263.83 tokens/s

eval count

1225 token(s)

1706 token(s)

eval duration

4m49.446s

7m2.257s

eval rate

4.23 tokens/s

4.04 tokens/s

5、测试结论

经过测试数据对比,可以得出以下结论:

  • 在windows下部署ollama的总体性能不如wsl2+docker下部署;由此推测在linux下直接部署docker性能会更佳;

注意:

wsl2+docker如果将模型文件放置在windows文件系统下,加载模型进内存的过程会慢非常多(测试过程忽略)。 强烈建议不要跨文件系统的访问!!!

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://itzsg.com/113165.html

(0)
上一篇 26分钟前
下一篇 16分钟前

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们YX

mu99908888

在线咨询: 微信交谈

邮件:itzsgw@126.com

工作时间:时刻准备着!

关注微信