Notebookcheck Logo

发现无需昂贵 GPU 即可运行 DeepSeek 671B 人工智能模型的方法

图片来源:Aristal, PixabayAristal, Pixabay
图片来源:Aristal, PixabayAristal, Pixabay
Hugging Face 工程师马修-卡里根(Matthew Carrigan)最近在 X 上透露了一种方法,可以在本地运行 DeepSeek 先进的 8 位量化 R1 模型,无需昂贵的 GPU,据说成本仅为 6000 美元。关键是什么?拥有大量内存,而不是庞大的计算能力储备。
AI Software

DeepSeek-R1于2025年1月20日发布,是一个671B参数的专家混合物(MoE)模型,每个令牌有37B活动参数。它专为高级推理而设计,支持 128K 令牌输入,最多可生成 32K 令牌。得益于其 MoE 架构,它在提供顶级性能的同时,使用的资源比传统的密集模型更少。

独立测试独立测试表明,R1 语言模型的性能可与 OpenAI 的 O1 相媲美,使其成为高风险人工智能应用中具有竞争力的替代方案。让我们了解一下本地运行所需的条件.

硬件

本次构建的核心是双 AMD Epyc CPU 和 768GB DDR5 内存,无需昂贵的 GPU。

软件和设置

组装完成后,Linux llama.cpphttps://linuxmint-installation-guide.readthedocs.io/en/latest/以运行模型。一个关键的 BIOS 调整是将 NUMA 组设置为 0,这样可以将内存效率提高一倍,从而获得更好的性能。可从下载完整的 700GB DeepSeek-R1 权重。 下载。

性能

这种设置每秒生成 6-8 个令牌--对于完全本地化的高端人工智能模型来说并不差。它完全跳过了 GPU,但这是有意为之。在 GPU 上运行 Q8 量化(高质量)需要 700GB 以上的 VRAM,成本超过 10 万美元。尽管原始功率很大,但整个系统的功耗不到 400 瓦,效率出奇地高。

对于那些希望完全控制前沿人工智能(无云、无限制)的人来说,这将改变游戏规则。它证明了高端人工智能可以在本地以完全开源的方式运行,同时优先考虑数据隐私,最大限度地减少漏洞,并消除对外部系统的依赖。

资料来源

Please share our article, every link counts!
Mail Logo
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2025 02 > 发现无需昂贵 GPU 即可运行 DeepSeek 671B 人工智能模型的方法
Daniel Miron, 2025-02- 5 (Update: 2025-02- 5)