美团的 ai 为什么这么快

5 天前
 ccnoobs

美团昨天发布的模型,今天试用了下,感觉和其他模型比,速度有点快啊 https://longcat.chat/

2295 次点击
所在节点    分享发现
13 条回复
YsHaNg
5 天前
le chat 听过没 主打一个拉稀式响应
billzhuang
5 天前
因为没人用?
liuzimin
5 天前
用了下,简直像个傻子。。。完全不按我说的要求回答。
niubilewodev
5 天前
@liuzimin 你就说快不快?
Fred0410
5 天前
答非所问能不快嘛 哈哈哈
fuzzsh
5 天前
我们主打量而不是质
whatp
4 天前
响应速度是很快, 搞缓存 + 轻量模型么,不过“明天的后天是星期几”这种没回答对
gam2046
4 天前
模型足够小,速度就能很快,你本地部署个 1.5B 的模型,响应速度也很快。但是并没有什么用。
needpp
4 天前
“3*7 = 58”, “你不是应聘的会计吗” , “会计 会记, 快就行啦”
p7IySTldqB
4 天前
@whatp 腾讯的元宝也没回答对啊
2020diyige
4 天前
@whatp ,试了几个其他的也没答对
zhangsimon
4 天前
@p7IySTldqB
@2020diyige 试了下,百度回答对了,推理了好长😂
love2328
3 天前
完全不能用的状态

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1156658

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX