V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  stimw  ›  全部回复第 4 页 / 共 55 页
回复总数  1095
1  2  3  4  5  6  7  8  9  10 ... 55  
为什么不把记录删掉重新插入?
2024-02-29 14:30:14 +08:00
回复了 hankli 创建的主题 程序员 一个工具管理所有运行时版本!
@stimw 啊我看到了 支持 Windows
2024-02-29 14:27:09 +08:00
回复了 hankli 创建的主题 程序员 一个工具管理所有运行时版本!
2024-02-29 11:14:16 +08:00
回复了 takefancy 创建的主题 程序员 请教下,跨国协作办公的软件/平台用什么?
google 不是有 team workspace 吗

别的选择 notion ,confluence/trello
2024-02-28 17:38:58 +08:00
回复了 unpay 创建的主题 宽带症候群 0512 2000m 电信装好了。。全套菊花厂
@yyzh 别的地方不知道,浙江电信办千兆以上宽带都是这套吧。

给我装我还没装,因为我要桥接用自己的路由器。
单机就 xbox 也没啥好选的,fps 游戏比如 apex 这种,还是用国产带背键的。xbox 精英纯一坨。
2024-02-27 14:55:37 +08:00
回复了 wt0210 创建的主题 NVIDIA 现在买 4090 是个好时机吗
@wt0210 #17 我国外带回来的,也没保修,还是自用了。
2024-02-27 14:55:04 +08:00
回复了 wt0210 创建的主题 NVIDIA 现在买 4090 是个好时机吗
还有一张也出掉了。

有预算就买咯,现在显卡从来就没有什么好时机了。真要说好时机,那现在是买 750ti 的好时机。

跑 AI 也看跑什么,推理还是微调还是训练?需要多大显存建议先了解清楚。如果啥都不知道,那开局玩一玩 4090 24g 也够了,足够 stable diffusion 、whisper 还有 kaggle 上打个比赛玩了。至于大模型本地推理,对于大部分人来说没有意义,简单的就是双 3090 足够跑 70b llama 推理。楼上说 4090 慢,那是因为显存小去跑 cpu 和内存了,中间还要经过 pcie ,当然慢了。

不要听他们说多张 4060ti ,整个 40 系列都不支持 NVLINK 互联,带宽就寄了,为什么不去买两张 3090 组 nvlink 呢,即使是阉割过的 nvlink 。当然多卡对主板有很高的要求,你要兼顾家用游戏,那就不要折腾这个。

综上,有预算就买 4090 ,没预算就在 40 系往下推。不要去折腾多卡。
1  2  3  4  5  6  7  8  9  10 ... 55  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1255 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 23ms · UTC 17:32 · PVG 01:32 · LAX 10:32 · JFK 13:32
Developed with CodeLauncher
♥ Do have faith in what you're doing.