请问像是 qwen:0.5b 这种小模型,实际能落地用来做什么

170 天前
 littlemis

请问像是 qwen:0.5b 这种小模型,实际能落地用来做什么,Size 才 395MB ,Context 32K

2773 次点击
所在节点    问与答
15 条回复
exploretheworld
170 天前
最大的用途: 用来练习微调模型
xtreme1
170 天前
干以前 BERT 干的事, query 改写, 语义增强, 用户意图识别, 浅层打分, 生成 embedding 做召回匹配
fredweili
170 天前
端侧,做一些简单的前端任务
Akuta
170 天前
个人感觉可以用在一些辅助场景,比如总结大模型对话标题,或者一些精度不高的翻译场景,这些场景用大尺寸的可能不划算
xubingok
170 天前
用来给某些用户装逼:"哇,我本地部署了个大模型"
Kisesy
170 天前
可以部署到一些小机器人?那些可以对话的那种吧
chawuchiren
170 天前
不是有创业者把这玩意内置到成人玩具了吗
haodingzan
170 天前
网易游戏都有个游戏助手,比如梦幻精灵、大话精灵,这玩意以前纯人工维护,匹配关键字时甚至要想到有可能打出来的错别字,有大量机械性重复工作,知识库内容就那么多,来源恒定,所有的改动都可以预先得知,几乎不依赖上下文,0.5B 可太合适了。
virusdefender
170 天前
embedding 之类的
littlemis
170 天前
@chawuchiren 单片机跟树莓派可以吃下 ollama + gwen 的资源跟效率吗?!
littlemis
170 天前
谢谢大佬们

@haodingzan 这是一个好方向!
reeco
170 天前
目前最大的用处就是推测解码
vicalloy
170 天前
0.5B 生成的对话都不通顺,就连 8B 的模型都会有少许不通顺的地方。
可能能进行二次训练用作特定用途吧(比如垃圾短信判定?)。
单片机的性能跑不了 0.5B 。
rogerer
170 天前
可以用来 debug 。然后很多实验室没能力训更大规模的模型,只能在 0.5b 1b 上试试。
iv8d
169 天前
做 RAG 也不是不可以,反正有知识库,没找到就说没找到

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1132154

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX