unboy
V2EX  ›  Mac Studio

M3 Ultra 的 Mac studio 或许是本地部署大模型的最佳利器?

By unboy at 2025 年 3 月 6 日 · 3744 次点击
144 总核心,512G 统一内存,819G/s 带宽,超越 M1 Ultra16.9 倍的 LLM 令牌生成速度,看起来是本地部署 LLM 的最佳利器?双机 EXO 或单机 INT4 即可部署 Deepseek 671B 全量模型?
8 条回复    2025-03-06 12:10:26 +08:00
Donaldo
   1
Donaldo  
   2025 年 3 月 6 日
exo 会让速度变慢很多。
mumbler
   2
mumbler  
   2025 年 3 月 6 日
只是为了能跑的话,阿里云租一台 512G 内存 ECS ,一个小时几元钱而已,但慢得完全不可用

其实不用追求 671B ,按目前发展速度,明年 70B 或者 32B 就能达到现在 671B 的水平
ajaxfunction
   3
ajaxfunction  
   2025 年 3 月 6 日
@mumbler 阿里云的 512g 内存,和 mac 的 512g 内存不是一回事吧。
mac 是内存=显存,
mayli
   4
mayli  
   2025 年 3 月 6 日
最佳指的是体积最小?
whileFalse
   5
whileFalse  
   2025 年 3 月 6 日   ❤️ 1
我来发表暴论:需要自己研究怎么部署 671B 的人,99%不需要本地 671B 。
mandex
   6
mandex  
   2025 年 3 月 6 日
怎么不是 M4 Ultra 啊?
idblife
   7
idblife  
   2025 年 3 月 6 日
@Donaldo
实际测试过?
Donaldo
   8
Donaldo  
   2025 年 3 月 6 日
@idblife #7 是啊,它传输靠的是网络。
© 2026 V2EX · 26ms · 3.9.8.5