|  |      1szxczyc      2023-05-01 19:45:52 +08:00 via iPhone 我也想实现这个功能,但是不想把数据放到网上,太敏感了 | 
|  |      2Aloento      2023-05-01 20:23:59 +08:00 | 
|      3neosfung      2023-05-01 23:30:25 +08:00 via Android 好巧,我最近基于清华的 chatglm 在做 | 
|  |      4QKgf555H87Fp0cth      2023-05-01 23:41:30 +08:00 看都看不懂,等日后再说吧 | 
|  |      5xupefei      2023-05-02 03:49:16 +08:00 via iPhone | 
|      6ljlljl0 OP | 
|  |      8t41372      2023-05-02 10:47:58 +08:00 看不是很懂, 不过我知道有不少开源的语言模型, 像是上面有人提到的 OpenAssistant, chatGLM, dolly2, 以及 alpaca 模型和多模态的 miniGPT 。另外许多这些模型是基于 llama 模型进行调整的。我知道 llama.cpp 已经可以用 cpu 运算, 起码我的 m1 用 cpu 跑也很流畅, 好像也有人移植到手机上跑。其他模型我想可能还需要一点时间。感觉如果要学习资料夹中的本地数据, 感觉会用 fine-tuning, 也可以就直接把这些文档转换成文字, 然后再丢进 prompt 里面。我最近在看 langchain, 或许这玩意儿也会对你有帮助 |