套用政治书上的一句话,当前阶段的主要矛盾是 AI 指数级增长的知识和工具活学活用的能力和人们线性增长的学习和理解力之间的矛盾。 我让 claude 4 sonnet 给我搞一个评估用户数学各个子领域能力的小模块,三下五除二论文和方法论引出来了,Python 代码也写出来了,可视化诊断效果也跑出来了,看得一脸懵逼,现在开始慢慢一点点消化代码和论文里面的算法。感觉以后这个现象可能会越来越普遍和明显。。。
1
kneo 17 天前 ![]() 以后你就不看了。
|
![]() |
2
xiaojianghu 17 天前
错误的,你对他不信任才会需要代码审查
|
![]() |
3
ModiKa2022 17 天前
@xiaojianghu review 下, 是基本操作
|
![]() |
4
xiaojianghu 17 天前
@ModiKa2022 还是源于不信任
|
![]() |
6
huayi2 17 天前 via Android
有没有可能群里有人已经被 ai 干掉了?
类似施瓦辛格电影《魔鬼复制人》的情节,只是自己不知道而已。 |
![]() |
7
imaxwell OP @xiaojianghu 幻觉问题没解决,肯定没法 100%信,代码能跑不代表方法论真的 work
|
![]() |
8
imaxwell OP @huayi2 必须有的,比如航空公司客服——https://ex.noerr.eu.org/t/1140202#reply0
|
9
justdoit123 17 天前
@xiaojianghu 现阶段不进行 review ,直接用风险很高啊。
小东西无伤大雅,在你电脑上跑,顶多 `rm -rf /`。 上生产环境的东西,你不 review ,出问题你要担责,“AI 是无辜的” |
![]() |
11
zybzzc 17 天前
@xiaojianghu #2 手下的人做事出错你还可以甩锅,你用 AI 除了错锅只能是你背
|
![]() |
13
xiaojianghu 17 天前
@imaxwell @justdoit123 @zybzzc 现在 ai 肯定还不行,还需要 review ,未来 ai 可能就会发展到可以自我审查的地步,写出来的东西对人来说都是黑盒,不需要人通过代码来维护迭代
|
![]() |
14
insomnia97 17 天前
linuxdo 也是你?
|
![]() |
15
avenger 17 天前
1.0 是用 tab..
2.0 是用 agent 自己 review 3.0 是不 review 直接用 |
![]() |
17
imaxwell OP @insomnia97 佬友好
|
![]() |
18
imaxwell OP @xiaojianghu 也许那一天会到来,反正不是现在,没有明显的逻辑和现实物理约束的反馈来自动纠错。比如这次给我的程序画出来的雷达图,只有一个维度有值,一看就不对,雷达图应该每个维度都有值的,但是 claude 就自我发现不了,需要提醒才纠正。
|
![]() |
19
JoryJoestar 17 天前
只是大部分人而已,只要能拥有强大的算力什么问题都迎刃而解,就像你拥有一支铁骑一样。
|
![]() |
20
BingoW 17 天前
一开始提问的回答往往靠谱,但是随着项目规模的不断增大,问题越来越多,AI 偶尔的回答可以说是无脑,甚至改错本来对的代码逻辑。
|
![]() |
22
mightofcode 17 天前
替代低级脑力劳动还是还毫无压力的
|
![]() |
23
imaxwell OP @mightofcode 有些本科生和研究生复现论文的能力,现在 AI 也能做到了。这已经不是低级脑力劳动了吧。
|
24
weiqlog 16 天前
反正自己做也会出错
|