识破 GPT4 的"幻觉"

2023-06-13 16:00:16 +08:00
 xuelang

当我们让 GPT-4 帮助我们解决编程问题时,它可能会生成一段看起来完美的代码,但实际上,这段代码可能并不能解决我们的问题,或者它的解决方案可能并不是最优的。这是因为 GPT-4 并不理解代码的含义,它只是模仿它在训练数据中看到的代码模式。这种现象被成为幻觉,用 GPT-4 久了的话,基本都会体会到。

识破这种幻觉的关键在于理解 GPT-4 的工作原理,以及它的局限性。我们需要意识到,GPT-4 并不理解我们的问题,也不理解它生成的答案。它只是一个非常复杂的模式匹配器,它的目标是生成看起来合理的文本,而不是解决我们的问题。当我们使用 GPT-4 时,我们需要批判性地思考它的回答,验证它的答案,甚至需要寻求其他专家或资源的帮助。只有这样,我们才能充分利用 GPT-4 的能力,同时避免被它的表面表现所迷惑。

在让它做一个题目过程中,发现它又出幻觉了,然后就开始了让它认错,以及验证的过程,具体看 GPT4 解 Leetcode 题目:识破 GPT4 的"幻觉"

整个 ChatGpt 的对话也有分享。

1113 次点击
所在节点    OpenAI
4 条回复
cloud2000
2023-06-13 17:53:40 +08:00
试试在提问之前加一个提示:

"Let's think step by step".

可能有新的发现.
xuelang
2023-06-13 19:06:37 +08:00
@cloud2000 思维链提示只能再某些逻辑问题上减缓幻觉。目前模型还不能彻底杜绝幻觉
cloud2000
2023-06-14 13:11:35 +08:00
因为它不能每次正确, 就判定其没有智力, 是不是略牵强...
就像我们不能因为某人有时犯错就断定"他是个傻子".


"模式匹配","文字接龙"...属于流传很广的说法, 没有在根本上解释大模型的"涌现".
大模型本质属于黑盒子, 所以在学术界也有一些争议.
xuelang
2023-06-14 13:33:46 +08:00
@cloud2000 这里没有判定其没有智力,恰恰相反,我是觉得他有智力,并且比很多人智力都要好。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/948377

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX