V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
shylockhg
V2EX  ›  程序员

说实话 LLM 真的垃圾,有让我吐血了半天

  •  
  •   shylockhg · 16 小时 45 分钟前 · 518 次点击

    本人不是做 web 相关开发的,最近准备自己部署个 gitlab 玩,然后用 nginx forward 到子目录,因为不太熟悉所以直接问 LLM 要配置,结果各种不行,我各种贴错误贴配置问来问去,绕了一堆弯路。 最后,受不了了,看了几篇 forward 的文档,改了大约 8 个字符搞定。。。

    9 条回复
    xubeiyan
        1
    xubeiyan  
       15 小时 35 分钟前 via Android
    是的,nginx 配置上的一个字符的差别就会导致不同的结果。但 LLM 的原理决定了这俩差不多(
    sengle
        2
    sengle  
       13 小时 55 分钟前
    好奇用的什么 LLM
    shylockhg
        3
    shylockhg  
    OP
       4 小时 7 分钟前
    @sengle gemini 和 grok
    penzi
        4
    penzi  
       3 小时 55 分钟前 via iPhone
    llm 的垃圾程度取决于使用者的水平
    Alloyt
        5
    Alloyt  
       2 小时 41 分钟前
    @penzi 自适应
    ke1vin
        6
    ke1vin  
       1 小时 40 分钟前 via iPhone
    几句话就把 llm 打死了。不把用什么模型,怎么提问的发出来大家怎么给你评判?
    shylockhg
        7
    shylockhg  
    OP
       1 小时 33 分钟前
    @penzi 万能防御
    droppedbytech
        8
    droppedbytech  
       1 小时 20 分钟前
    @shylockhg 太对了,效果不好那就是:
    1. 你不会用,skill issues!
    2. 用最好的模型,别用 o4mini/国产模型/...,blahblah ,虽然我也不知道怎么算「最好」的模型
    3. 继续当你的纺织工人吧,纺织机会让你们都被淘汰!
    4. ....

    叠甲,我觉得 LLM 很有用,但很显然没有像有些人吹的那么有用
    Alias4ck
        9
    Alias4ck  
       45 分钟前
    贴错误配置 不如用 Agent(cc/codex) 它自己去搜和运行命令观察行为,据我所知贴配置它回答的答非所问大部分是由于你的上下文不够完整
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2453 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 05:18 · PVG 13:18 · LAX 21:18 · JFK 00:18
    ♥ Do have faith in what you're doing.