V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  godqueue  ›  全部回复第 1 页 / 共 2 页
回复总数  32
1  2  
只能用 gemini2.5-pro 做总结,然后写代码细节还是 claude 3.7 好
试了下 cursor 里的 gemini2.5-pro 发现真不错;
代码上下文能力强很多。。比 claude 3.7 好。。claude 3.7 的上下文太小。。经常忘记东西
gemini 感觉最新的内容会比较好,比如最新的 springboot3 以上的版本,他就能给出正确的答案;其他的会差一些
但是编程整体应该是 Claude 最强
114 天前
回复了 imjiaoyuan 创建的主题 Linux 有没有用 thinbook14+ 2024 Intel 版本的老哥?
我是 16 寸的,深度的试了下没发现啥问题。。就是桌面使用不太习惯。。win 又很操蛋。。mac 买不起。。我日
114 天前
回复了 imjiaoyuan 创建的主题 Linux 有没有用 thinbook14+ 2024 Intel 版本的老哥?
可以试试深度的 linux ,我感觉不错
131 天前
回复了 ashtwo 创建的主题 问与答 redis 集群 IP 变更后, Java 服务连接错误
牛啊,还有这样的代码
网线能上万兆就上万兆把。。现在的千兆不够看了把。
176 天前
回复了 ashtwo 创建的主题 问与答 redis 集群 IP 变更后, Java 服务连接错误
@ashtwo 你这个问题解决了么?怎么解决的。。我也有同样的困扰
337 天前
回复了 xingcy 创建的主题 程序员 Mac 有哪些无线鼠标可以平替 MX Master 3s ?
用罗技 m590 、G502
因为支持中键左右操作,非常方便切换桌面
2024-06-28 10:22:52 +08:00
回复了 forgottenPerson 创建的主题 Windows 有拓展性比较好的 windows 笔记本吗
@esee 有没有试过服务器组网需要多大的带宽。。之前用的腾讯云 5M 的带宽。。感觉不够。。目前用于 nas 做数据同步还行。。但是远程桌面就不指望了。。
2024-06-25 13:56:44 +08:00
回复了 forgottenPerson 创建的主题 Windows 有拓展性比较好的 windows 笔记本吗
@esee 怎么解决远程卡的问题
用过 headscale 之类的。。都比较卡
@Ayahuasec 嗯。。看来也可以考虑 AMD 的 cpu 了~~~
@rabbbit 还有这种业务,非常棒,适合我~~~我之前看阿里云啥的都贵的要死。。
你们不会拿笔记本显卡跑 70b,如此大模型吧。。
@lrigi 哈哈。。我知道 llama3 默认是 8b,你们说的 4bit 不懂。。。fp16 也不懂。。还得回炉学习下。。
@rabbbit 我用 llam3:8b 输出的和 lrigi 一样。。应该是正确的吧
如果需要非常精确,那好像只能自己写字典来做这个事情。。
如果是生产就老实的用 gpt 吧。。或者其他大模型也可以。。但是大模型有幻觉,输出的内容很可能第一次和第 2 次的内容不一样。。。这个问题好像没有太好的手段。。
@Ayahuasec amd cpu 不影响跑大模型吗?现在 amd 的 cpu 咋样,还有啥东西会存在兼容问题之类的么?
跑虚拟机或者安装 linux 系统会有影响吗?

我是用 ollama run llama3 "summarize this file $(cat test.txt)" --verbose 这个命令来看速度的

total duration:4m16.4180938s
load duration:524.8u
。。。。。
@rabbbit 我还没遇到这个情况。。只是学了一下提示词、function calling 。然后自己用了下公司的知识库。。随便问回答的感觉还可以,用的 llama3 模型。一般情况下用提示词基本都能解决。。
1  2  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1217 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 20ms · UTC 17:50 · PVG 01:50 · LAX 10:50 · JFK 13:50
Developed with CodeLauncher
♥ Do have faith in what you're doing.