想离线运行下大模型玩玩,现在还能搞到 4090 么?

2024-04-07 12:04:23 +08:00
 sunfly

想离线运行下大模型玩玩,有几个问题比较纠结,请教下各位大佬 1.现在还能搞到 4090 么?有啥便宜靠谱的渠道么? 2.4090 和 4090d 差距有多大呢? 3.入手 4090 还是等等 5090

4271 次点击
所在节点    Local LLM
29 条回复
sunfly
2024-04-08 12:03:09 +08:00
@LanhuaMa #2 适合我们垃圾佬哈哈哈
sunfly
2024-04-08 12:03:45 +08:00
@444571840 😂调教都调教不好啊
sunfly
2024-04-08 12:04:26 +08:00
@TabGre 炼丹是不是对显存要求不高啊
sunfly
2024-04-08 12:05:39 +08:00
@jmc891205 钱包怕不是连个皮儿都不剩啊哈哈
sunfly
2024-04-08 12:06:16 +08:00
@ichou 插眼,多谢啦
sunfly
2024-04-08 12:07:27 +08:00
@JayZXu 插眼去瞅瞅 M40
sunfly
2024-04-08 12:08:06 +08:00
@waityan 太强了哈哈
sunfly
2024-04-08 12:09:24 +08:00
@kwater 受教了,多谢大佬指点
doruison
2024-04-10 20:09:49 +08:00
@444571840 特斯拉马总开源那个模型,需要内存好像 100T+吧,看到这个数字我惊呆了

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1030212

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX