shuimugan 最近的时间轴更新
shuimugan

shuimugan

V2EX 第 83209 号会员,加入于 2014-11-23 14:34:54 +08:00
今日活跃度排名 3671
根据 shuimugan 的设置,主题列表只有在你登录之后才可查看
二手交易 相关的信息,包括已关闭的交易,不会被隐藏
shuimugan 最近回复了
6 天前
回复了 tbphp 创建的主题 Claude 低成本爽用 Claude Code: GPT-Load + CCR 方案
比较折腾而且和模型要适配,我测了 Claude Code 结合本地的 GLM-4.5-Air 、Qwen3-235B-A22B-Instruct-2507 、Qwen3-Coder-30B-A3B-Instruct ,经常会消耗了几十 K 的 token 但是活都没开始干,不能一个 prompt 就让它“自己动”完成所有事情,连把大模型给的代码写入文件都做不好,同样的 prompt 丢到 Roo Code 就不同了,结合上面几个本地跑的模型完成度非常高,人工干预极少
@BingoXuan 24 小时输出的话,库克和阿里都亏麻了
最佳性价比就是蹲苹果官方翻新的 Mac Studio Apple M3 Ultra 芯片 512GB + 1TB 版本,价格 6.3w ,24 期免息每个月 2.6k ,然后跑 Qwen3-Coder-480B-A35B-Instruct ,5bit 量化速度 19token/s 左右,一天可以输出 150w 左右的 token ,约等于调用价值 400RMB 的官方 API 。
12 天前
回复了 GaryLee 创建的主题 程序员 目前最好用的 AI 补全插件是哪个?
等预计今天发布的 Qwen3 Coder 30B-A3B 结合 https://www.continue.dev/ 本地部署
20 天前
回复了 yuyue001 创建的主题 程序员 阿里发布代码模型 Qwen3-Coder
根据 Qwen 系列的一贯表现,大杯模型和超大杯模型的差距很小,等个 Qwen3-Coder 其它尺寸的模型本地部署玩玩。

目前这个尺寸的模型跑 4bit 动态量化也要 270GB 的 vram ,前几天 M3 Ultra 512GB + 1T 的官方翻新突然有货,只要 6.3w ,免息分 24 期一个月只要 2600+,还能找点员工渠道折扣更便宜,拿来本地部署一个接近 Sonnet 4 的编码模型往死里用其实挺划算
48 天前
回复了 liuhai233 创建的主题 程序员 cloudflare containers 来了, 真不错
@liuhai233 以 basic 这档 1GiB 内存、1/4 CPU 和 4GB 磁盘规格的 instance 为例子,如果是长期运行的话

一个月 = 30 天 x 24 小时 x 每小时 3600 秒 = 2592000 秒
内存的免费额度:25 GiB-小时 = 25 × 3600=90000 秒
超出的部分就是(2592000 - 90000) * 1GiB 内存 * $0.0000025 = $6.255

同理,CPU 额度超出部分就是( 2592000 秒 - 375 分钟 * 60 秒)* 1/4 vCPU * $0.000020 = $12.8475

磁盘额度超出部分就是( 2592000 秒 - 200 小时 * 3600 秒)* 4GB 磁盘 * $0.00000007 = $0.52416

一个月接近$20 ,从目前文档看,容器的 IO 等待时间也是计算在内的,而 worker 的 IO 等待是不计费的,这个可以说是最显著的区别了,所以想用的话得识别好业务的实际形态
48 天前
回复了 liuhai233 创建的主题 程序员 cloudflare containers 来了, 真不错
从定价上来说其实很贵,如果长时间运行的话比同配置包月的 vps 和云服务器贵上非常多(当然流量还是比各种云服务便宜很多,云厂商普遍 0.8 元/GB 的国际流量,它在付费计划里有 1TB 的默认额度)。这种 serverless 赌的就是你会不会长期运行。
没啥意义,qwen3-30B-A3B 的 4bit 量化在 M2 Ultra 上以 85 token/s 的速度秒了这一题,显存占用 18GB 左右。
prompt:从架构师角度分析这个问题"js 不使用 promise 完成一个 sleep 函数,必须支持 await 调用,还要能在浏览器使用",本地不跑大模型可以去官网 https://chat.qwen.ai/

当你掌握很多门语言之后,就知道那些屎一样的临时过渡方案就知道压根没必要看,JavaScript 的 async/await 都是抄 2012 年 C#发布的 5.0 语法,而且还没一次性抄对,中间搞那个 yield 恶心方案和过渡的 promise 方案,当时很流行的库有 co/bluebird/async 不知道有多少人记得。到了 2017 年 6 月 async/await 才正式并入规范,而 2017 年 5 月 Node.js 8.0 都正式支持 async/await 了,之前 6.x 都能通过参数开实验性支持了。

我从 8.0 开始用 Node.js ,当时直接上 TypeScript 写后端,根本懒得吃那些设计缺陷造的屎,原型链和这种 then 地狱风格的代码压根没写过一行,项目规范都禁止写这种代码。

至于你补充那个 python 例子,和异步也没啥关系,就一个默认递归深度,在带 GC 的语言中敢写递归之前不看限制或者有没有尾递归优化吗?
早期 sublime text 用多了,现在都是统一 sublime text 风格
@also1412 OrbStack 不能用来长期做服务,因为它要定时联网检测来判断你的用途,我之前就碰到了代理配置错误但是因为平时丢角落里跑 LLM 所以也没发现,偶尔 vnc 连上去管理,某一次才发现 OrbStack 弹了个提示说联网失败,然后说我的用途有问题,所以自己退出了
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1193 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 10ms · UTC 17:48 · PVG 01:48 · LAX 10:48 · JFK 13:48
Developed with CodeLauncher
♥ Do have faith in what you're doing.