10年世界杯冠军_梅西2018年世界杯 - kefulq.com

我的电脑究竟可以本地跑什么版本的 DeepSeek-R1?一篇文章讲清楚!

美国篮球世界杯 2025-06-19 05:41:46

推荐语

国产开源大模型DeepSeek-R1本地部署全攻略,带你轻松判断电脑配置是否达标。

核心内容:

1. 判断电脑操作系统,Windows与Mac硬件架构差异

2. Windows电脑:如何查看显卡显存及推荐配置

3. Mac电脑:统一内存概念及不同配置机型适用性

杨芳贤

53AI创始人/腾讯云(TVP)最具价值专家

最近,国产开源大模型 DeepSeek-R1 火了!

但面对着各种参数和配置要求,很多朋友都困惑:我的电脑到底能不能跑 DeepSeek-R1?能跑多大的模型?为什么手机都可以跑大模型?在安卓手机上部署和运行DeepSeek-R1

今天就让我们一起来解开这些疑惑。

一、先看看你的电脑配置—在开始前,需要先确认你使用的是什么操作系统,因为 Windows 电脑和 Mac 的硬件架构有很大不同。

Windows 电脑:看显卡显存对于 Windows 电脑,关键是看独立显卡的显存大小。目前市面上常见的显卡配置:

入门级显卡:

RTX 3060:12GB 显存RTX 3070:8GB 显存RTX 3070 Ti:8GB 显存中端显卡:

RTX 3080:10GB 显存RTX 3080 Ti:12GB 显存RTX 4070:12GB 显存高端显卡:

RTX 4080:16GB 显存RTX 4090:24GB 显存? 如何查看显存:

按 Win+R,输入"dxdiag"点击"显示"选项卡查看"显示内存"大小Windows电脑实际可用显存略小于标称值,需要预留部分显存给系统使用

Mac:看统一内存Mac(特别是搭载 Apple Silicon 的机型)使用统一内存架构,没有独立的显存概念。需要看整体的内存大小:

入门配置:

MacBook Air M1/M2:8GB 统一内存MacBook Pro M1/M2 (基础版):8GB 统一内存中端配置:

MacBook Air M2:16GB/24GB 统一内存MacBook Pro M2 Pro:16GB/32GB 统一内存高端配置:

MacBook Pro M2 Max:32GB/64GB/96GB 统一内存Mac Studio M2 Ultra:64GB/128GB/192GB 统一内存? 如何查看内存:

点击左上角苹果图标选择"关于本机"点击"更多信息"查看内存大小二、先聊聊模型"参数"是什么?—在开始选择模型前,让我们先用生活中的例子来理解大语言模型的"参数":

这就好比你在教一个小孩子认识世界,会使用卡片的形式,指着卡片教他:

教他认识"猫"需要记住:四条腿、有尾巴、会"喵喵"叫教他认识"狗"需要记住:四条腿、有尾巴、会"汪汪"叫教他认识"鸟"需要记住:两条腿、有翅膀、会飞这里的每个特征就像是模型的一个"参数"。人工智能模型也是这样学习的,只不过它需要记住的特征要多得多:

1.5B 的模型相当于记住了 15 亿个特征7B 的模型相当于记住了 70 亿个特征70B 的模型则记住了 700 亿个特征!参数越多,模型就越"聪明",但需要更多的显存空间来存储这些"知识"。你要学习的知识越多,需要的书本(内存)就越多。

三、DeepSeek-R1 都有哪些版本?—DeepSeek-R1 为了适应不同的硬件环境,提供了多个版本:

轻量版(1.5B - 14B):DeepSeek-R1-Distill-Qwen-1.5B:最小只需 0.7GB显存,DeepSeek-R1-Distill-Qwen-7B:需要 3.3GB,显存;DeepSeek-R1-Distill-Qwen-14B:需要 6.5GB 显存中量版(32B - 70B):DeepSeek-R1-Distill-Qwen-32B:需要 14.9GB 显存,DeepSeek-R1-Distill-Llama-70B:需要 32.7GB 显存完整版(也叫满血版):DeepSeek-R1:需要高达 1,342GB 显存(需要多卡方案)四、量化:让模型"减肥"—如果你觉得显存不够用,别担心!来看看"量化"这个神奇的技术是如何帮模型"减肥"的。

什么是量化?其实量化这个概念,我们在生活当中遇到了很多:

单反高清照片,它可能使用了上百万种颜色(甚至上亿的都有!)。如果我们把相近的颜色都归为一类(比如把所有的深蓝色都简化为同一个蓝色),图片的文件就会变小,但看起来差别不会太大。

mp3 压缩音乐:无损音乐文件很大,但压缩成 MP3 后,虽然丢失了一些细节,但普通人几乎听不出差别,文件却小了很多。

手机照片:拍照时选择"标准"而不是"高清"模式,照片占用的空间更少,但日常查看时很难发现明显的质量差异。

模型的量化也是类似的道理:

原始模型就像是一位艺术家,能分辨出数百种蓝色的细微差别量化后的模型像是一位普通画家,可能只使用十几种蓝色,但画出的画依然很美通过量化技术,我们可以显著减少模型对显存的需求:

以 7B 模型为例:

原始版本(FP16):需要约 13GB 显存8位量化(INT8):需要约 6.5GB 显存4位量化(INT4):仅需约 3.25GB 显存

说白了,就是把一个两居室的家具完美地塞进了一居室,而且基本保持了原有的生活品质!

五、到底选哪个版本?—可以先看看我的实际的部署演示案例:我本地使用的是一台4090,跑的是32B的模型,结合使用 cline:

Cline+DeepSeek-R1纯本地开发实战体验: 比德芙还丝滑!我的部署和使用全流程

根据你的显卡配置,win/mac 具体推荐如下:

8GB 显存显卡(如 RTX 3070):推荐:DeepSeek-R1-Distill-Qwen-7B(4位量化版本)可以流畅运行基础对话和代码生成任务12GB 显存显卡(如 RTX 3060):推荐:DeepSeek-R1-Distill-Qwen-14B(4位量化版本)能够处理更复杂的对话和编程任务24GB 显存显卡(如 RTX 4090):推荐:DeepSeek-R1-Distill-Qwen-32B可以运行更大的模型,获得接近完整版的体验六、实用部署建议—建议预留 20-30% 的显存空间,比如有 12GB 显存,最好选择需求不超过 8-9GB 的配置对话质量要求高的话:优先选择更大的模型,响应速度要求高:可以用量化版本的小模型 当然上面都是理论值,你完全可以从较小的模型开始根据实际效果逐步尝试更大的模型,遇到显存不足时,可以尝试量化版本!