本地 LLM 部署:硬件配置指南
作者:MayhemCode 译者:Carl Cui 今天这篇文章是搬运过来的,发表于 2025 年 12 月 17 日,那时候由 AI 引发的硬件通胀已经持续了几个月。到现在,2026 年 3 月底,消费级硬件的价格不仅没有回落,反而在全面涨价的基础上看不到回调的希望。虽然最近内存价格出现了小幅回调,但是相比 2025 年 9 月,现在的内存价格依然处于历史极高水平:2025 年 9 月份,一根 16G 的 DDR5 台式机内存价格大概在 200 ~ 390 元,现在大约需要 1100 ~ 1600 元。OpenClaw 的火爆,进一步推动了本地部署 LLM 的需求,对于“不想交数据、不想交钱,或者不想等网络”的那群人,本地部署 LLM 永远是一个绕不开的话题。 1. 为什么自托管 AI 是未来 完全依赖云 API 才能使用 AI 的“苦”日子正在结束。以前每月需要 100 美元的 ChatGPT 或 Claude 订阅现在可以在你自己的硬件上运行。本地部署 LLM 可以带来更好的保护隐私、零持续成本,还有对模型的完全控制。 现在开源的大语言模型,特别是 Llama 3、DeepSeek R1 和 Mistral,已经足够处理真实工作。问题在于,你需要知道哪些硬件能把它们跑起来。这篇文章教大家怎么选最具性价比的硬件,不管你准备搭建预算有限的家庭实验室还是高性能的 Proxmox 服务器。 译者注:2025 年 12 月到现在,硬件和 LLM 已经出现了很多变化,文章中的部分内容稍显过时,推荐配置也是当时国外的行情,不过拿来了解 LLM 硬件配置还是值得一读的。 ...