大家有试过智谱开源的 autoGLM 了吗?怎么样

5 天前
 BingoW

周末自己部署了 autoGLM ,因为看最近豆包手机比较火,就试试 autoGLM 能不能达到一样的效果。家里有一台比较旧的小米手机,然后开了开发者权限、usb 接口这些,下了 adb 控制。大模型要求必须是有图像识别效果的,分别用了 qw2.5 和质谱自己的大模型,因为都是 8 、9b 模型就本地部署了,然而项目跑起来,只是让打开某个 app,发现手机按顺序打开了每个 app,截图反馈,一直没有找到我让它打开的 app 。我知道这里面有很多因素,比如我的手机操作系统是米家的,还有大模型的效果、手机适配度等。不知道你们玩了是一样的吗?跟别人评测豆包手机的不能比的感觉。。

2465 次点击
所在节点    程序员
18 条回复
Yasuke
5 天前
用了,云端模型会好一点
adgfr32
5 天前
adb 具体执行的指令是什么,捞出来自己执行以下就知道原因了。
guiyumin
5 天前
@adgfr32 对✅
BingoW
5 天前
@Yasuke 好的,回去试试
BingoW
5 天前
@adgfr32 回去看看
japhetjiu699
5 天前
我用他去抖音里面给我抢福袋,结果给我给主包去刷礼物去了,
Logtous
5 天前
@japhetjiu699 666 反向理解
BingoW
5 天前
@japhetjiu699 太秀了
Ethan24067
5 天前
@japhetjiu699 牛逼 这要是运算快,加上开了快捷支付,是不是拦都拦不住
zhouqian
5 天前
用了,还有很大的发展空间。
japhetjiu699
4 天前
kevan
4 天前
5070ti auto-glm-9B 都跑不动,失败了。
BingoW
4 天前
@kevan 啊?不能吧。。9B 模型。。
cyp0633
4 天前
不 open 的 AutoGLM 很傻,甚至不能在途家上正确筛选房源
kevan
4 天前
@BingoW 我显卡 16GB 显存,auto-glm-9B 非量化要 24GB 显存,加载就崩了
BingoW
4 天前
@Yasuke 直接用智谱的 api 发现确实好很多,执行的比较精准
thinkwei2012
3 天前
昨天体验了下,执行相对精准,就是感觉非常慢。一个小任务基本都需要 1 分钟
BingoW
3 天前
@thinkwei2012 是的 有点慢

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1178943

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX