想离线运行下大模型玩玩,现在还能搞到 4090 么?

2024-04-07 12:04:23 +08:00
 sunfly

想离线运行下大模型玩玩,有几个问题比较纠结,请教下各位大佬 1.现在还能搞到 4090 么?有啥便宜靠谱的渠道么? 2.4090 和 4090d 差距有多大呢? 3.入手 4090 还是等等 5090

4272 次点击
所在节点    Local LLM
29 条回复
dcalsky
2024-04-07 12:11:56 +08:00
现实:4090 只能跑 13B ,且无法 finetune 。
rqYzyAced2NbD8fw
2024-04-07 12:15:23 +08:00
你是要运行多"大"的模型...

实测咸鱼三百块的 P4 显卡可以流畅运行 gemma 7b, 生成速度没统计,但是差不多是 GPT4 的两倍。想要跑再大一点的模型多查几张 P4 或者换 P40 都可以的吧。。
444571840
2024-04-07 12:23:44 +08:00
本地能跑的大模型( 13B 以下的),基本和弱智一下,胡编乱造。。。
TabGre
2024-04-07 12:23:59 +08:00
要跑 SD 需要什么显卡? 出图不卡顿
8E9aYW8oj31rnbOK
2024-04-07 12:27:21 +08:00
我有两张 A100 。

如果楼主只是玩玩,可以去租算力,算力租赁平台很多,技术也比较成熟了
evan9527
2024-04-07 12:34:59 +08:00
@TabGre #4 手持 3060 ,500x500 生图几秒一张,至少比我 A 卡的 macbook 快多了,还得是英伟达。
jmc891205
2024-04-07 13:24:19 +08:00
192G 的 M2 ultra 的 Mac Studio
或者等 256G 的 M3 ultrl
ichou
2024-04-07 13:46:35 +08:00
https://featurize.cn/ 玩一下的话,建议租一个
JayZXu
2024-04-07 14:40:06 +08:00
个人部署的离线大模型的话,性价比最高的应该还是 M40 24G 版本的
只是运行大模型的话,显存足够大能加载模型就行,速度其实都是次要的

如果微调或者训练模型的话,一张 4090 也不太行,少说也要准备 100G 以上才能得到比较理想的效果

所以如果真的不是能有确定的项目收入,不如直接租个服务器玩玩算了,大多数情况下,直接调用各个收费模型免费的 API 额度都比自己搭的模型靠谱
waityan
2024-04-07 15:15:48 +08:00
我的笔记本 i5 都能勉强跑得动 7b 的模型,用 ollama
jevonszmx
2024-04-07 16:51:42 +08:00
@TabGre 最性价比的是 P104 ,100 多,sd 出图几秒一张
gunnarli
2024-04-07 20:15:50 +08:00
玩玩的话可以考虑租用,有很多算力租用平台,不过谨防跑路,谨慎甄别,祝顺利
leonme
2024-04-07 20:21:03 +08:00
@LanhuaMa 这个多少显存啊?
rqYzyAced2NbD8fw
2024-04-08 06:38:15 +08:00
kwater
2024-04-08 07:33:21 +08:00
离线运行,纯推理 chat ?
可以试试 模型类型+ benchmark 关键字 找到你能接受的性价比。

单片 4090 有 model 容量天花板,容易见顶完全不能用,
反而 ram 64-128g 的话可以天花板更高点
maokg
2024-04-08 08:40:17 +08:00
@TabGre 4060 就可以
pslucifer
2024-04-08 09:08:20 +08:00
A100 可以吗?
lingeo
2024-04-08 09:56:15 +08:00
@Leonkennedy2 我看了 A100 的参数,互连上面写的是 nvlink * 2 是只支持两块互连吗?
8E9aYW8oj31rnbOK
2024-04-08 10:26:50 +08:00
@lingeo 是的,单个接口 nvlink * 2 ,最多可以 2+2 ,4 块互联
sunfly
2024-04-08 12:01:46 +08:00
@dcalsky 4090 这么拉跨嘛

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1030212

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX