说实话 LLM 真的垃圾,有让我吐血了半天

17 小时 40 分钟前
 shylockhg

本人不是做 web 相关开发的,最近准备自己部署个 gitlab 玩,然后用 nginx forward 到子目录,因为不太熟悉所以直接问 LLM 要配置,结果各种不行,我各种贴错误贴配置问来问去,绕了一堆弯路。 最后,受不了了,看了几篇 forward 的文档,改了大约 8 个字符搞定。。。

561 次点击
所在节点    程序员
9 条回复
xubeiyan
16 小时 29 分钟前
是的,nginx 配置上的一个字符的差别就会导致不同的结果。但 LLM 的原理决定了这俩差不多(
sengle
14 小时 49 分钟前
好奇用的什么 LLM
shylockhg
5 小时 1 分钟前
@sengle gemini 和 grok
penzi
4 小时 50 分钟前
llm 的垃圾程度取决于使用者的水平
Alloyt
3 小时 35 分钟前
@penzi 自适应
ke1vin
2 小时 34 分钟前
几句话就把 llm 打死了。不把用什么模型,怎么提问的发出来大家怎么给你评判?
shylockhg
2 小时 27 分钟前
@penzi 万能防御
droppedbytech
2 小时 14 分钟前
@shylockhg 太对了,效果不好那就是:
1. 你不会用,skill issues!
2. 用最好的模型,别用 o4mini/国产模型/...,blahblah ,虽然我也不知道怎么算「最好」的模型
3. 继续当你的纺织工人吧,纺织机会让你们都被淘汰!
4. ....

叠甲,我觉得 LLM 很有用,但很显然没有像有些人吹的那么有用
Alias4ck
1 小时 39 分钟前
贴错误配置 不如用 Agent(cc/codex) 它自己去搜和运行命令观察行为,据我所知贴配置它回答的答非所问大部分是由于你的上下文不够完整

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1174418

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX