看法,一个创建 AI 工具低代码的配置平台,看到好多人评价,“非开发用不懂,开发不愿意用”, 这应该就是低代码平台的通病吧,最近还了解了下,anythingLLM, Ollama 与 vLLM
这几天把之前的时间序列模型( LSTM )重新训练了下,来了新数据,总结了以下经验: 2.1 新数据(还是偏少) 特点:跨年,但没有完整一年的数据, 问题:导致再测试集遇到了没有遇到过的 month 和 year,LSTM 的预测会误差偏大,从测试集评估图中可以看到在 2025 年预测数据整体开始离谱 解决方案:调整了测试集和训练集按照年份拆分后重新训练和调整 最佳方案:当然至少能有一个完整年的数据量 2.2 数据清洗 数据中存在一些因为设备延迟上报的问题,导致数据异常,采用了设置阈值来控制,阈值外数据直接清理 2.3 心得 在排查问题中发现,LSTM 模型适合做几小时或者几天的预测,为了提高准确性还要考虑 lookback ,随着预测预测 时间长度增加,误差累计会导致模型预测效果越失真 2.4 没用 prophet 因为数据量太少了,使用预训练模型有点大材小用了,待数据量上来了在考虑调整
code review agent 项目小有成效了,接入 webhook 已经可以实现评论了,是借鉴上次那位老哥的代码,二次开发的,我接入的 gitlab api ,还是调用的 api 形式实现的,现在问题就是打算实现对每一个变更单独评论打分
思考:code review agent 应该完全可以在 dify 配置好 agent+工作流,开发调用 API 的形式接入 webhook
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.