V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  0x636a  ›  全部回复第 1 页 / 共 1 页
回复总数  3
目前在特定生产场景下有同感,本身用 prompt 精准描述自己的需求就很难,LLM 还有可能无法完全遵守同一个 prompt 中的多条指令。
前一条让 LLM 无法像神一般想我所想。
后一条让基于 LLM 的工程必须不断的通过多 agent 反思迭代优化结果。
这两步还是需要人工投入大量的精力去适配 LLM 的输入和输出。

再来一句断言:
后一个缺点可以通过不断优化 LLM 通过一步步增量去减少人工投入量,前一条需要 LLM 完全超越人类,帮人类提前想好自己想要的做的,帮人类拟定 prompt ,不过这个时候也就没人类什么事了。
@moxiaowei 如果说是同样的代码的话,你试试其他随机数,每个机器上相同随机数表现应该不同的。
1.看看测试集是哪几张图不对,是不是异常图。
2.试试正则化手段 dropout ,l1 l2 损失,预先训练权重
不过为啥非要追求 100%呢
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1620 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 13ms · UTC 16:37 · PVG 00:37 · LAX 09:37 · JFK 12:37
Developed with CodeLauncher
♥ Do have faith in what you're doing.