![]() |
1
coefu 9 小时 0 分钟前
想一想就行了,目前你这个想法整个业界也没有什么 80 分的方案。
|
![]() |
2
Solix 8 小时 55 分钟前
???别闹了,7b 全精度显存需求:大约 28~32 G ,量化 8/16G 能运行,然后跑起来有啥用,它能搞指令遵循还是结构化?
|
![]() |
4
play78 8 小时 42 分钟前
如果只是固定单词指令,现在 AIOT 芯片和方案就有现成的。便宜的几毛钱的芯片就内置了。淘宝搜索“LED 语音灯”,准确率比大模型准非常多。
|
6
jacketma 7 小时 49 分钟前
自己部署这个就可以 huggingface.co/Qwen/Qwen2.5-Omni-7B
|
7
bigtear 7 小时 44 分钟前
小米的智驾用的是一个 128g 显存的 NVIDIA 开发版,你可以试试能不能调用它
|
9
ca2oh4 7 小时 39 分钟前
固定指令的话,乐鑫都有成熟的方案可直接用了
|
10
imliuruiqi 7 小时 34 分钟前
非要本地的话也有一些量化后的小模型,但效果可能需要你自己实验一下 相关研究可以顺着 huggingface 的 smollm 去找: https://huggingface.co/blog/smollm
|
12
skallz 6 小时 28 分钟前
我觉得你这个方案就想错了,应该是做一个语音识别,然后根据关键词,去做对应的操作,而不是接入 llm 大模型。。。
|
14
humminwang 6 小时 7 分钟前
gemma 3 270m 可以试试 500 多 MB 内存即可
|
![]() |
15
wheat0r 5 小时 24 分钟前
我理解这个 OP 的这个逻辑,人是很复杂的,很多时候用户并不会给出指定的指令,确实需要端侧具有一定的思考能力。
比如用户可能并不会说“播放歌曲千万次的问”,而是说“给老子整个刘欢那个 ask 啥的歌” |