sillydaddy 最近的时间轴更新
sillydaddy

sillydaddy

V2EX 第 472822 号会员,加入于 2020-02-27 19:30:20 +08:00
今日活跃度排名 513
具有移动主题的权限
sillydaddy 最近回复了
@nomagick >““推理”的过程中需要不断向文本 round down”
感谢你的提醒,我确实没有注意到这点。我需要再去研究下。
不过,我可以提出 2 点反驳:
1 是大语言模型的训练,本身是在潜空间中进行的,这点上是没有问题吧?如果说 V-JEPA 2 通过训练获得了「世界模型」。那么说大语言模型没有获得任何语言深层的含义,就是极其不公平的。
2 是根据上面的理解,一个已经通过语言训练获得了「世界模型」的 LLM ,在推理时,尽管是自回归的,我从直觉上觉得,它不会因为什么每一步都向文本 round down ,就失去某些核心能力,变成一种「统计」。你说呢?

当然,上面的第 2 点,还需要我进一步去推理一下。但第 1 点,无论如何,也足以支持对杨立昆关于大语言模型只是「统计模型」立场的反驳。
> “Latent space 就是比文本空间什么像素空间靠谱啊,Latent space 是学习出来的”
LLM 有哪一点不符合? LLM 的嵌入向量不是学习得到的吗? LLM 有直接用高维的文字空间去做训练吗?
这都是初学者都知道的基本常识了,杨立昆他非要说自己的才是真理,其他的都是垃圾。看看他怎么评价 Sora 的?再看看他怎么评价自家的 V-JEPA 的。
不要推这些缺乏常识,误人子弟的东西了。
所有的投资,都是把一些本来可以消费的钱,借给别人。牺牲当下的享受,用利息来补偿。
所有的复利效应,都必须要考虑本钱数量,1 分钱哪怕复利到 1 块钱,花掉你 100 年,你肯干吗?
1%复利,365 天提升 37.8 倍,你的数学是体育老师教你的吗?你的人品又是谁教你的?
@NotLongNil 用什么数学证明,我还从来没听过数学可以证明像深度学习这样的东西。上面的对比还不够明显吗?
杨立昆就是一个笑话。倒不是说他不懂,而是他对 LLM 装傻充愣的样子。
@shmilypeter 嗯,我还以为 Opus 模型会不一样呢。
没有试过 Opus ,不知道消耗的 token 有多少,thinking 过程产生的 token 也计入在内吧?
请问楼主你说的 1 小时是连续工作吗?还是 Opus 编码过程中介你有介入呢?
2 天前
回复了 Asuler 创建的主题 TypeScript ts 有没有直接能查看最终类型的方法
直接写一个这个类型的变量,比如 a:TypeA ,然后写 a.b ,鼠标悬浮到 a.b 上,可以看到 b 的类型。如果 b 是函数,应该可以看到函数参数的类型。
今天又用 Cursor 来写代码,给到它一个问题之后,它自己去写测试用例,自己去测试,自己去添加打印信息,自己修改后运行。改完调试后,自己把打印信息、多余的测试文件删除掉。

只要有现实的约束和反馈,幻觉和造假就不是问题。
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5538 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 25ms · UTC 03:24 · PVG 11:24 · LAX 20:24 · JFK 23:24
Developed with CodeLauncher
♥ Do have faith in what you're doing.