2024 年了 ,买 64G 2T m1max 的 macbookpro 14 寸还行么

2024-06-26 15:22:46 +08:00
 RenoYoo
我看拼多多 64G 2T 的 macbookpro 14 寸 2 万能拿下,m1max 能跑大模型么,平常用有没有什么不兼容的问题啊,同配置的 m3 得 3 万了,想贪便宜了
6720 次点击
所在节点    MacBook Pro
71 条回复
PrilgrimLi
2024-06-28 14:27:19 +08:00
我觉得问题不大,我的 19 年 16 寸 intel 的 MBP 还能满足日常需求呢。不过最近动了要换的心思,不是因为不能忍受发热和风扇,而是 chatgpt 发布的 mac 版,现在登陆网页不是很稳定,隔一会儿就得刷新,只能是拿 iPad pro 来弄,然后粘贴回电脑。等年底的 m4 MBP ,暂时还能忍。
tanrenye
2024-06-28 14:38:22 +08:00
为了大模型买 mac 可能不是一个好选择
wangkai123
2024-06-28 17:00:49 +08:00
Mac 用来推理无敌了,m1 max 秒杀了 laptop 4060
frankyuu
2024-06-28 17:35:11 +08:00
最后选了哪款?
sunpm
2024-06-28 17:50:02 +08:00
不跑大模型,开发前端的话 m1max 还可以用 5 年吗
beginor
2024-06-29 07:31:51 +08:00
苹果 M 芯片的优势是统一内存,可以将大量的内存做为显存来使用,所以就能够运行比较大的模型。

以 64G 的 M1 Max 为例,默认可以分配 48G 左右的内存做显存使用, 通过调整系统参数, 最大可以分配 56G 内存做显存, 可以运行 Q5 量化的 70b 参数的大模型。

但是 M1 Max 推理的速度并不快。 跑同样的 llama 3 8b 模型的话, 即使是 3060 显卡, 在装好 quda 驱动之后, 推理速度是 M1 Max 的 1.5~2 倍, 而且 M1 推理的精确度似乎也没有 cuda + N 卡高。

手上刚好有台 M1 Max 的 MBP , 还有一台 3060 的台式机, 以上是亲身体验。

如果是日常开发,M1 Max 至少 3 年内斗士性能过剩的, 多数时间都是 E 核在跑,P 核最多跑 1~2 个, 还有 8 个 P 核随时待命。
houhaibushihai
2024-06-30 15:46:05 +08:00
跑大模型还是组装一台 N 卡台式机吧,mbp 怎么都不合适跑大模型

台式机+轻薄本的预算估计都超不过高配 mbp 价格
wangkai123
2024-07-02 09:32:42 +08:00
@beginor 啊?我用 ollama 跑的 llama 3 8b ,为什么笔记本 4060 那么慢啊 只有 2-7 token /s 。M1 max 明显快非常多,但是没算 token/s
RenoYoo
2024-07-02 11:10:40 +08:00
朋友们,最后买了 m1max 14 寸了,感觉 14 寸刚刚好,16 寸太大了,背着不方便,散热确实不如 m1 ,不过个人能接受
cgyj
2024-08-30 11:30:48 +08:00
@RenoYoo 老哥问一下购买渠道以及价格
RenoYoo
2024-08-31 16:00:00 +08:00
@cgyj 拼多多,2 万买的

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1052776

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX