$V2EX
Solana
Give SOL to Copy Address
使用 SOL 向 Scarb 打赏,数额会 100% 进入 Scarb 的钱包。
 Scarb 最近的时间轴更新
Scarb

Scarb

V2EX 第 241965 号会员,加入于 2017-07-20 09:38:26 +08:00
今日活跃度排名 13789
Scarb 最近回复了
如果要写代码,那一定是 claude
13 天前
回复了 simple2025 创建的主题 生活 残念,我的蚊帐还要买吗?
把空调温度调高一点,然后叶片往下,风开最大,让热空气先往下走,让空气流动起来。 或者用循环扇
gemini3 告诉我的
15 天前
回复了 cjban 创建的主题 电动汽车 30 多万的预算买特斯拉 3/yp 还是买 yu7max?
yu7 max 准新车 30w 左右就能买了,亏麻了
ampoZmVuMDBAZ21haWwuY29t
23 天前
回复了 edg 创建的主题 程序员 Java 端怎么弄大模型的长期记忆
记忆这块之前研究过。
有很多开源的长期记忆,star 最多的 mem0 ,其他还有 memobase 、memu 、memori 等等。
还可以用云服务 AWS AgentCore Memory 。
没特殊需求直接用 mem0 即可。
原理都差不多,有些会在记忆分类上做优化( User Profile 、Events 、Activity 等等),有些会优化 context 来减少消耗的 token 数量

* 插入
1. 大模型抽取对话中的关键内容
2. 从向量数据库查询已有记忆中相关的记忆
3. 用大模型判断要进行的记忆操作(增删改或者无动作)
4. 执行记忆操作到向量数据库
* 查询
* 直接向量查询,按相似度取前 N 个结果
* 使用
* 每次对话都调用插入,prompt 发到大模型之前查询记忆,把查出来的记忆拼到 prompt 里面
35 天前
回复了 pmpmp 创建的主题 程序员 你真的了解上下文工程么?
写了很多,但是不知道我的理解对不对,实际只有一个功能:自动化上下文压缩(包括总结和 LRU )。其他的 LangChain 也都能做到。
但是自动化上下文压缩感觉是一个伪需求,各个 Agent 使用场景大不相同,每个都应该有自定义的压缩方式。自动化压缩很容易把 Agent 需要的内容丢掉。
glarity 免费的,字幕总结,但是 b 站总结不太能用,现在也不维护了。收费的 monica 或许可以,还支持没字幕的视频总结。
39 天前
回复了 DeepSIeep 创建的主题 问与答 如果你突然得到 50w,你会买什么
LZ 是哪来的 50W ?
我的话就全还贷款
39 天前
回复了 labubu 创建的主题 问与答 大家如何看待 polymarket 这类事件预测网站?
目前是有一定的套利空间的。比如扫尾盘之类
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2315 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 31ms · UTC 15:37 · PVG 23:37 · LAX 07:37 · JFK 10:37
♥ Do have faith in what you're doing.