0x636a 最近的时间轴更新
0x636a

0x636a

V2EX 第 434232 号会员,加入于 2019-08-06 16:44:45 +08:00
0x636a 最近回复了
12 天前
回复了 jqknono 创建的主题 程序员 大模型召回率为何重要
深有同感。
推理模型的遵循能力也是强于非推理模型的,现在我的生产场景中如果一个 prompt 中有复杂指令的我基本都让推理模型去做了,非推理模型总是会出现遗漏的情况。
100 天前
回复了 jackal 创建的主题 随想 目前的 AI,既不聪明,也不愚笨,它只是工具
目前在特定生产场景下有同感,本身用 prompt 精准描述自己的需求就很难,LLM 还有可能无法完全遵守同一个 prompt 中的多条指令。
前一条让 LLM 无法像神一般想我所想。
后一条让基于 LLM 的工程必须不断的通过多 agent 反思迭代优化结果。
这两步还是需要人工投入大量的精力去适配 LLM 的输入和输出。

再来一句断言:
后一个缺点可以通过不断优化 LLM 通过一步步增量去减少人工投入量,前一条需要 LLM 完全超越人类,帮人类提前想好自己想要的做的,帮人类拟定 prompt ,不过这个时候也就没人类什么事了。
@moxiaowei 如果说是同样的代码的话,你试试其他随机数,每个机器上相同随机数表现应该不同的。
1.看看测试集是哪几张图不对,是不是异常图。
2.试试正则化手段 dropout ,l1 l2 损失,预先训练权重
不过为啥非要追求 100%呢
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2570 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 12ms · UTC 09:29 · PVG 17:29 · LAX 02:29 · JFK 05:29
♥ Do have faith in what you're doing.