想自己本地跑大模型,学习大模型,做一些微调等操作,目前看到一款小主机在预算内, CPU AMD Ryzen Al Max+ 395,不知道这套配置是否适合用来学习大模型跑大模型,有没有懂的兄弟可以给点建议。

5 天前
 hmbb
CPU:AMD Ryzen Al Max+ 395 处理器(16 核心 32 线程,最大睿频 5.1GHz ,三级缓存 64MB)
显卡:AMD Radeon 8060S Graphics 40CUs
系统盘:M.2 2280 PCle4.0 x4(最大 4TB)*1
存储盘:M.2 2280 PCle4.0 x4(最大 4TB)*1
内存:128GB(16GB*8) LPDDR5x 8000MT/s (最大可分配 96GB 给显存)
接口:AC*1 + USB3.2(10Gbps)*2 + SD4.0 卡槽*1 + LAN 10Gbps(Intel E610)*2 + USB-C(10Gbps 数据)*1 + 3.5mm 音频插孔*2 + DP2.1 8k 60Hz*1 + HDMI2.1 8K 60Hz*1 + USB4(40Gbps/DP1.4)*2
无线网络:WIFI7 MT7925; 蓝牙 5.4
3633 次点击
所在节点    Local LLM
68 条回复
renyi1986
4 天前
@objectgiga 能跑多少 token gpt 20 和 120
leeg810312
4 天前
自己配机器学习大模型,我觉得是效率较低灵活性极差的方式,当想尝试的模型需要更大算力,你就没有扩展余地。云平台就很灵活,效率也高,资金宽裕就多用一些高性能机器,资金少可以用较低性能慢慢跑。有专门的算力平台,比如 autodl 或者 modelscope ,也可以用通用云平台的资源,比如阿里云的 ECS 抢占式实例,成本比常规实例低不少。花几万配一台机器,算上电费,你可以在云平台用很久了。
shenqi
4 天前
当你问出这个问题的时候,感觉你还是没到需要真的自己购买一台实体机的程度。一堆按量租聘的云主机能供你选择避免你中途退坑。
hmbb
4 天前
@leeg810312 可以先尝试一下这种方式学习大模型
hmbb
4 天前
@shenqi 确实是,目前才刚开始
shuimugan
4 天前
@mewking 这个问题,首先要看不同编程语言是否有高质量的庞大的数据集,比如在 https://huggingface.co/datasets?sort=trending 搜数据集看加起来的行数,以及 github 仓库上 star 数多的各语言仓库。

结合这个榜单也能看出来 https://huggingface.co/spaces/bigcode/bigcode-models-leaderboard ,不过这个榜单很久没更新过了,现阶段只能靠自己测了。

其次看自己的水平了,使用 context7 这种 MCP Server 或者手工在上下文补全最新文档可以大幅度降低模型幻觉,加上现阶段小模型对于主流编程语言的语法没啥问题(关键词、类型、循环、判断、函数等),写出来的代码头头是道的。但是对于一些理论、概念的理解程度就不好说了。

我一般假定 Q6 级别量化已经近乎无损了,然后去模型官网比如 https://chat.qwen.ai/ 选择 Qwen3-Coder-Flash 、Qwen3-30B-A3B-2507 这种 30B 级别的问一下看看,它能写对的话那么 Q6 级别的量化也能写对,Q4 的话可能再差个 1%到 2%,大不了我给它纠正。其实上限在于用户自己,比如我 java 水平不行,它写得头头是道我也评判不出好坏,因为语法已经没问题了,甚至库也用对了,但是实际上跑起来碰到 bug 就一脸懵逼。要是 CRUD 这种还好,要是问题底层一些的话 30B 级别的解决起来很容易像是鬼打墙一样,跑了几十 k 上下文也没有个结果。

比如我自己最爱用来测大模型的一道题:“用 [x 语言] 的实现一个高性能的 HTTP Proxy ,要求支持普通 HTTP 请求转发和 HTTPS 隧道 (HTTP CONNECT),尽可能使用标准库”,把 [x 语言] 换成你最熟悉的那个然后让模型来跑几次,先看 api 有没有用对来判断幻觉大不大,再看能不能完成需求跑起来,反正在 c#、java 、rust 这种语言就经常搞不定,能一次性写对的就成为我常用的模型。

也就是因为这个原因,我现在考虑把技术栈从 node 往 golang 转移,开源的模型写 golang 的能力挺不错,以前不想碰 golang 是因为水平差的人写起来就像是用 php 堆屎山一样,维护性、可读性太没下限了。现在有 ai ,默认就是中高级的水平,而且我本地跑 gpt-oss-120b 实在是太快了,写 golang 准确性也非常高,代码的可读性、可维护性、性能下限、资源占用都有保障了。
mewking
3 天前
@shuimugan 感谢,链接收藏了

自己水平是很差的,非 IT 从业人员,作为爱好关注一点技术皮毛

跟 GPT 免费版聊了几句这个问题,它说在它训练过的语料中,C/C++ 是行数最多的,但大多数是历史遗留,无注释的工程代码,对于它深刻理解语言无太多帮助。

它说它理解最深的是 py ,因为有注释的代码最多,教学示例最多,文档和生态最丰富,其次是 js

它还说,从人类程序员的角度,第一友好是 py ,如果综合人类友好 + 最强表达能力,最好是 C#,但是它对 C# 掌握程度不如 C/C++

go 关键字最少,最简约,目前局限大概也是语料不够丰富
objectgiga
1 天前
@renyi1986 应该能跑到 20tps 以上,主流都是折腾 deepseek 的,oss 有点不上不下

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1157170

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX