V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
3297269
V2EX  ›  问与答

怎样预处理长文本,来提升大模型检查是否符合预定义规则的效果?

  •  
  •   3297269 · 50 天前 · 600 次点击
    这是一个创建于 50 天前的主题,其中的信息可能已经有所发展或是发生改变。

    如题,业务场景是工程文档的风险识别,我有一套风险识别规则,想查找工程文档原文中是否有违反相应规则的风险,想要使用 dify 等工具开发智能体,实现上传文档 → 输出审查报告的流程,每个文档大约有 10 万字,这么长的字数肯定不可能直接上传,要做预处理。有什么好的提升精准度的方法?

    风险规则示例: “1.超大件运输未办理相关许可、超大件运输运输车辆未按照规定路线行驶; 2.人员冒险进入起重机械工作区域等危险场所; 3.未编制《锚艇作业安全操作规程》,未严格按安全操作规程要求进行作业。”,

    问了几个 AI ,给出的几种方案包括 1.所有规则向量化,文档暴力切分成 10-100 块,每块使用向量召回或关键词匹配,找出最相关的前 K 条规则,多段并发调用大模型审查,最后汇总结果 2.先为 300 条规则生成高召回关键词表,本地按段落预处理后丢弃不包含关键词的文本块,再做 RAG 与 LLM 判定。

    请问 V 友是否有相关经验,哪种方式更好?是否有相应的教程可以参考? dify 能实现以上流程吗?

    本人土木狗转技术开发,所以基础比较差,有点言不达意,求轻拍

    目前尚无回复
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1071 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 18:24 · PVG 02:24 · LAX 11:24 · JFK 14:24
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.