V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  iorilu  ›  全部回复第 35 页 / 共 97 页
回复总数  1925
1 ... 31  32  33  34  35  36  37  38  39  40 ... 97  
搞这么麻烦干啥

我想到个方法

系统启动时候需要输入口令, 这口令和当前日期有关系, 每次启动时候需要对方找你, 你根据日期生成口令
给他, 这样就不存在启动的时候修改日期

这样就解决了客户单独启动的问题, 反正服务器也不可能经常重启把

至于运行时候到期判断, 这就记录数据时间阿 , 每天记录第一笔数据之前查找下系统内是否有更新的数据, 如果有必然是当前时间被改到了过去
301 天前
回复了 jefferyH 创建的主题 程序员 最新 Mac mini 选购建议
只写写代码肯定够了

用 ps 剪视频肯定没问题

说白了, 除了本来跑 N 个容器服务器那种, 都可以的

买丐版加个硬盘盒性价比最高
301 天前
回复了 Rust2015 创建的主题 GitHub Copilot 想订阅 Cursor 到 Pro:
@zchengb 18 人民币一个月?

不错阿, 有链接或关键字码
302 天前
回复了 xxss0903 创建的主题 Mac mini 如何实用教育优惠购买苹果的 MacMini
@Saika00 当然省钱重要, 除非你是买很贵的定制配置, 必须用分期
302 天前
回复了 tysb777 创建的主题 Apple MacBook Air 系列更新!加量不加价!标配 16G Ram
总算彻底干掉 8g 垃圾了
302 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@babyedi31996 我是想有什么人有需求必须本地跑 70b 的模型呢, 毕竟本地模型再强也不可能有 gpt4 或 claude 的模型强把, 如果是为了训练还说的过去


现在一般大家本地玩玩也就量化过的, 一般 16g 显存都能跑了, 买个 4060ti 16g 版也就 3000 多

但我估计就 mac 这性能训练模型可能也不太可行把, 哪得多久
302 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
mac 跑 70b 模型速度如何

不可能有 gpu 跑的快把
很多的

比如我开发的 v2sub

www.aizimuji.com
@dfkjgklfdjg copilot 也可以起一个 fork 阿, 有啥不行的

而且看来不起 fork 不行, 赶不上 cursor 基本生意都得被抢
copilot 便宜一半阿
首先问你写了多少笔记

先有大量笔记在考虑啥工具的, 你随便用任何工具, 哪怕 vscode 或者什么 markdown 写 100 个笔记再说

我用 obsidian 也写了几百个了
303 天前
回复了 Johnnysx 创建的主题 Apple Mac mini M4 怎样选
盖板+2t 硬盘盒
303 天前
回复了 Rorysky 创建的主题 Apple mac mini m4 配置怎么选?
别加, 盖板, 配个 2T ssd 硬盘盒
应该彻底消灭 8g 的垃圾了
真 16g 起步了? 有这好事阿, 老款都砸手里了
303 天前
回复了 ggp1ot2 创建的主题 GitHub Copilot Cursor 崩了吗?
@ggp1ot2 我是指 cursor 的服务器 api, 现在用 cursor 访问 api 都不用翻墙, 本来用 claude 或者 gpt 可是都要翻墙的
303 天前
回复了 ggp1ot2 创建的主题 GitHub Copilot Cursor 崩了吗?
早晚封掉的

道理很简单, 假设某国内公司想做类似业务, 第一件事就是举报现在能用的国外相关服务
1 ... 31  32  33  34  35  36  37  38  39  40 ... 97  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5528 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 36ms · UTC 06:26 · PVG 14:26 · LAX 23:26 · JFK 02:26
Developed with CodeLauncher
♥ Do have faith in what you're doing.