V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  sillydaddy  ›  全部回复第 8 页 / 共 112 页
回复总数  2233
1 ... 4  5  6  7  8  9  10  11  12  13 ... 112  
楼上有几个强调他加入一些「他本人的见解」,而不仅仅是「分享发现」。我觉得这是非常不公平的说法!
他自己整理这份周刊的目标,就是因为他「觉得」追踪技术的发展,可以把握住机会。这份周刊的产生自身就表达了某种他的观点。

我对他的 2 个观点印象比较深,1 是「卖时间不如卖产品」,2 是「拥有收入不如拥有资产」,这 2 个观点其实比较相似。它们乍一看会非常吸引人,让人产生恍然大悟的感觉。但是,经过深入分析后,才会发现有些偏颇。这个过程是一个逐步发现的过程,而恰恰是他的观点,让人经历大悟、反思、大醒。

所以,我不认为他提出自己的观点有什么问题。如果这些观点不值一驳,那么早就没人去看他的周刊了,恰恰是这些观点确实能给人带来启发,大家才会去看。一个没有附加个性观点的周刊,在我看来,远不如有作者自己观点的吸引人。
80 天前
回复了 rizon 创建的主题 职场话题 这么个 vibe coding ?! 无法理解的迷惑行为
@yidinghe OP 的意思是删除第 2 行代码后,还需要第 3 行的函数改为调用 a 变量,而不是 a_1 。如果说实习生的意思是删了再重写 fun1 ,但是 OP 已经明确说了不需要调用 fun1 。配合后面 OP 说的他们连自己写的代码都讲述不出来,估计八成是用 AI 写的。
80 天前
回复了 rizon 创建的主题 职场话题 这么个 vibe coding ?! 无法理解的迷惑行为
OP 估计够郁闷的。即使用 AI ,自己也要理解代码啊。就这样他们能交付代码吗?
我感觉是因为编程是可以**低成本验证**的:

**验证**:
AI 可以自己将编写的代码,在测试环境编译、运行,然后 AI 自己也可以确认结果是否正确。这里的正确性分为 2 种,一种是编译出错、运行崩溃这种,另一种是不符合用户需求,比如组件位置不对、点击后切换的界面不对。这些东西,即使是人,也不能保证一次编码就可以搞定。AI 当然也不能。但是,它可以根据出错的信息,去调试对应的代码!然后再运行,再继续。这是一个完整的闭环,需要的人工介入非常少。因为它可以听懂自然语言,把关键的需求用自然语言描述就可以。像是组件位置不对、切换后的页面不对、API 返回的数据不对,这些甚至都不用人去告诉它就可以自己验证、判断。换句话说,我们只需要用自然语言给他很少的指令,它就可以全自动运行。现在的问题就是,如果让 AI 自己去调试代码,它能不能搞定!我相信 2 ,3 年内肯定可以。

**低成本**:
上面的闭环,都是发生在计算机环境、测试环境中的;而且测试完成后,可以很容易部署到真实环境,几乎无差别。成本极低。


试想一下,其他哪个领域可以做到上述的低成本验证呢?
医疗。AI 提出一些治疗方案,怎么验证它说的是不是对的?或者给专家评估,或者实际测试。这些成本非常高。
同样的,教育、工业、建筑,这些领域都很难低成本验证。注意是低成本的。
动画、视频这些,都有很多主观的标准。你让 AI 生成一个图片视频,怎么评估它是不是符合生成的要求呢?很难自动化。而且目前的 AI 好像也无法做到很精确的生成图片和视频。

我感觉编程对于 AI 来说,是自带飞轮效应的。这也是为什么都拼命挤到编程代理这个赛道上。很可悲。
非常有意思,我决定去试一下。
@catazshadow 我问你敢不敢赌?别顾左右而言他啊。敢就赌,不敢就承认自己对自己的话都没有信心。
而且标准很明确,而且赌注的金额你可以自己定!

不敢赌,以后就别大放厥词!人要对自己的言行负责!
@catazshadow 楼主,你口口声声说 LLM 没有智能,只是统计学鹦鹉。那什么才是你的标准呢?

口说无凭,我最喜欢的就是用真金白银说话,这么着,我划一个道儿,看你敢不敢接:

我跟你赌 10 万块钱,如果你是一个程序员,3 年内,基于 LLM 的编程能力能达到或超过你的水平。

这个也很容易验证,给定任何一个软件的实现需求,双方(LLM 和 OP)作为程序员,去接受需求、并提出关于需求的疑问、然后开发、测试、部署。可以查询 Google 等资料,但是不允许问其他的 AI 。需求提出方、疑问解答方、验收方,都是相同的人类。

这样的水平你觉得算是有智能吗?我敢跟你赌 10 万块!!你敢吗?
@coefuqin 另外,别拿你学的那些书本知识在这儿显摆,我用常识和推理就能打败你。你强的话,回答一下#60 楼我提出的问题,可别在这儿猪鼻子插大葱,自个儿给自个儿抬轿。
@coefuqin 保姆也是从婴儿长大的啊,婴儿接收的数据量有多少,你告诉我!而且现在的大语言模型,本身就需要大量的数据去初始训练一个基底模型啊。人类用很少的经验就能学到东西,AI 没有做到这样,但这不意味着 AI 没有智能!这个逻辑根本就不通。谁也没说现在的 LLM 就是完备的,我还会说 LLM 没有自主意识呢!
@coefuqin #25
你根本就不了解机器人这块的进展吧?机器人训练为什么不如文本和视频训练,这是明摆着的事实,因为数据量不够!你看过相关的报道,就会知道,现在机器人训练有 2 种方法,1 是通过实际的机器人训练,然后收集数据,2 是通过使用虚拟仿真的物理世界,在这个世界里面训练然后移植到真实世界,然而是有些差别的。


@catazshadow
看来看去,你的推理逻辑,始终是:
1. 因为 LLM 有概率输出,所以它是统计模型,所以它无法做到人类能做的事,不具备真正的智能;
2. 因为 LLM 神经元没有人类的多,所以它无法做到人类能做的事;

说实话,这种逻辑思维,就连 ChatGPT3.5 也比你强啊。能不能来点真才实料?

1. 杨立昆说,因为 LLM 的输出 token 是一个接一个的,又因为每个 token 都有一定的概率出错,所以最后出错的概率是指数级别上升的,比如每个 token 的可靠性是 0.99 ,那么输出 1000 个 token 正确的概率就要到 0 了。为什么这种情况没有发生?怎么用统计学解释?
2. 为什么通过列出步骤,可以显著增强模型的推理能力?
3. 为什么训练时间和推理时间,有替代作用?也就是说一个使用更大数据训练的大模型的立即响应能力,可以通过与一个小模型经过较长时间的推理而得到?

你不去搞清楚这些问题,而是专门在这里招摇撞骗,使用连 LLM 都不屑于使用的推理逻辑去你那宣传可笑的观点。
@catazshadow 你想通过它说明什么,神经元数量决定一切?你的数据什么也说明不了。
你要反驳,先要解释一下为什么你所谓的统计学没做到的事情,被 LLM 解决了。你不是说 LLM 是拟合、统计吗?你去搞一个统计学模型,把它的水平做到 LLM 一样。或者你可以求助全世界的统计学家,看看能不能做到。

我非常认同#6 楼 @neteroster 的观点,事实胜于雄辩,现在的事实是 LLM 能够做到任何其他方法都没能做到的事,而且它还是通过模仿人脑做到的,这就说明了它有非常大的可能是真正的智能。这就是统计学里面的贝叶斯定理告诉我们的。你连这基本的概率论的道理都不懂,还想别人怎么跟你讨论,讨论神经学,就凭你?

Hinton 是多学科的专家,你不妨先看看他怎么想的。不要像个顽固的无法学习的神经网络一样。
@catazshadow 拜托大哥,是你说现在的 AI 就是「统计鹦鹉」。你这是恶人先告状。你凭什么说 LLM 是统计学鹦鹉!谁给你的自信。就因为懂两个统计学的名词?
不要拿 YunLeCun 的话来背书你的观点:他说的很多话都已经被证伪了。包括什么 LLM 无法做到什么事,包括视频这种连续空间,不能用像文字这种离散的方式来做。
你根本就没有任何知识储备,就断言 LLM 是统计学鹦鹉,不学无术信口雌黄的是你才对。
你看下辛顿 Hinton 的观点,LLM 到底有没有理解能力: https://www.youtube.com/watch?v=N1TEjTeQeg0
是什么行业啊?
85 天前
回复了 starrys 创建的主题 V2EX 建议大家回帖时不要在一层楼里同时 @多人
@starrys 在回复中 at 多个人,不一定都是对他们的回复,还可能是在引用某个人的话,比如我当前的这个回复就是。我觉得你可以用一下 #14 楼 @Pipecraft 提到的那个插件。
85 天前
回复了 ab 创建的主题 V2EX 许个愿,号召全站抵制 imgur
一直用 DigitalOcean 自建的梯子,2 年前吧,记不清了,反正不久,imgur 的图就都看不了了,之后会用 Tor Browser 来看它的图 😂。
感谢#7 楼的方案。
88 天前
回复了 mmdsun 创建的主题 职场话题 昨天还在写代码,今天通知研发部解散
花 2 分钟领失业金,都可以支付宝里面直接办:
1. 打开支付宝,搜索“失业登记”,登记身份信息,提交;
2. 支付宝搜索“失业金申领”,简单登记失业情况(可选上传附件),提交;
88 天前
回复了 largep 创建的主题 OpenAI 为什么 OpenAI 要收购 Windsurf?
我觉得自动编程不是因为「复杂度刚好」、「 PMF 」,而是在这个领域,本身试错成本很小,AI 发生了错误,可以以非常低的成本得到反馈——只需要在测试环境编译、运行即可。任何其他的领域,都不具备这个领域这样的优势!有了反馈,AI 一是可以根据反馈来修复(即使是强如人类也必须依赖实际的反馈,而不能一口气写正确),二是可以借助这个积累训练材料,类似于现实强化学习!

这一切的基础就是实时、低成本的反馈。试想一下,其他哪个领域可以做到这样呢?医疗?教育?机器人?工业?建筑?这些领域任何实际的测试和反馈都需要不小的成本,甚至成本无法承受。

所以作为程序员,我感觉……不知道怎么说。
还有一个证据:量子世界的坍缩。

熟悉计算机技术的,一眼就能看出来,这不就是明显的 lazy compute 吗?一项计算不需要随时计算出结果,等到最终需要的时候才计算出来。一个东西只有被观测,才会坍缩到某个状态,在这之前都是概率的计算。

量子计算就是利用这个机制,去偷取主世界的计算能力。
1 ... 4  5  6  7  8  9  10  11  12  13 ... 112  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1286 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 35ms · UTC 17:38 · PVG 01:38 · LAX 10:38 · JFK 13:38
Developed with CodeLauncher
♥ Do have faith in what you're doing.