V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  YsHaNg  ›  全部回复第 24 页 / 共 80 页
回复总数  1585
1 ... 20  21  22  23  24  25  26  27  28  29 ... 80  
142 天前
回复了 readman 创建的主题 NAS 突然想不通了,做备份的意义是什么?
@glcolof 这么看得把周围家人培养成 os/fs angonostic devops/it
142 天前
回复了 OceanWaves 创建的主题 Android iPhone 换安卓 聊聊 iPhone 及 iOS 的几个痛点
@iminto 我知道你想要币 但你这样未必太神经了
142 天前
回复了 isbase 创建的主题 NAS 关于 NAS 如何将所有盘位组合成一个逻辑卷
我觉得绿联这 nas 的意义就是装黑群或者别的 os
142 天前
回复了 readman 创建的主题 NAS 突然想不通了,做备份的意义是什么?
@readman hyper backup 和 snapshot replication 都可以做到
143 天前
回复了 LotusChuan 创建的主题 Apple 快过年发现被妹妹和苹果联合爆金币了
简单 iCloud 绑定你妹妹的支付宝 把这 800 还完了以后你每月往里转 iCloud 订阅款 人总要负责的
143 天前
回复了 acfan 创建的主题 生活 关于社交礼仪的讨论
不懂你啥行业 咱们是谁
@revival83 你都是 pc 了那不就是 ibm 电脑
@JerryYuan 我是觉得虚拟机总会有性能损耗 除开发以外都尽量 docker 虚拟机也尽量转成 lxc
144 天前
回复了 iv8d 创建的主题 Local LLM LLM local 模型入门和使用
@iv8d 当时搜了一圈对我而言是最容易的哈哈 Linux 机器现成的 docker 前后端打包一起 端口设置一下就能到处用了
144 天前
回复了 xiao17174 创建的主题 程序员 求助,如何排查 chrome 被 360 劫持新姿势
@xiao17174 你可以把别人取消管理员权限
容易 因为我们一年生活成本就超 20w 了
145 天前
回复了 iv8d 创建的主题 Local LLM LLM local 模型入门和使用
@iv8d 针对终端用户包装生态好 社区很多应用 对应的前端更新很快 https://openwebui.com/ 也有一键 docker run 用 ollama tag 就是前后端数据库一体 再加载好模型就能用
145 天前
回复了 abc634 创建的主题 Local LLM 请教,关于显卡内存
@abc634 你是指用 ollama offload cpu 推理? 其实可以都做 拉 docker 选 cuda tag num_gpu 指定使用 gpu 数量 这样可以随时切换
145 天前
回复了 iv8d 创建的主题 Local LLM LLM local 模型入门和使用
深入的不太清楚 简介强大美观就用 ollama+open webui docker 直接装 显存不够大就不用 cuda 之类的 tag cpu 跑推理也还行 至少大内存能堆参数量 你不在乎延迟后台放着慢慢跑 路由器再设置端口转发提供公网服务
146 天前
回复了 love8 创建的主题 程序员 原来新版微信所谓的 CallKit 是曲线救市
@Nasei 用户群不一样 管控的目标是 8 亿里的 96%
148 天前
回复了 omz 创建的主题 生活 如果你是女生,愿意嫁给现在的自己吗?
no 结婚政府发钱还是发房?
完整 cgroup 原生 docker
1 ... 20  21  22  23  24  25  26  27  28  29 ... 80  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1541 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 34ms · UTC 16:43 · PVG 00:43 · LAX 09:43 · JFK 12:43
Developed with CodeLauncher
♥ Do have faith in what you're doing.