Google Gemma 开源没人讨论下吗?

2024-02-23 10:48:19 +08:00
 Jinnrry

Google 提供训练好的模型下载,7B 模型 6.8G ,公司网络有点慢,还要一会才能下载完,今天不准备干活了,下载模型自己搞个 GPT 试试效果。

(未来国内会不会瞬间出现一堆自称吊打 ChatGPT 的应用呢?)

7570 次点击
所在节点    Local LLM
54 条回复
Greendays
2024-02-23 13:02:00 +08:00
至少是开源的,谷歌还是用回了擅长的老方法
rnv
2024-02-23 13:35:14 +08:00
6.8G 是哪个版本的 variation 啊,我下载的 FLAX 版本 7b 模型 12.5G ( https://www.kaggle.com/models/google/gemma/frameworks/flax/variations/7b-it

LZ 是怎么配置的?我在 github 找到他们的仓库,但看起来文档并不是很细致
Stoney
2024-02-23 13:39:13 +08:00
@ahhui 其实谷歌不需要 vpn 也可以访问,使用域前置找到 Google ip 就可以访问了,昨天我试了,打开 maps.google.com 直接显示的中国
siriussilen
2024-02-23 13:41:49 +08:00
中文社区讨论大部分都在知乎上
siriussilen
2024-02-23 13:45:49 +08:00
@keepRun gpt3.5 是 20B 的模型……
Jinnrry
2024-02-23 13:56:07 +08:00
@rnv 我下载的 pytroch 版本的,他这几个框架只有这个是我用过的。我目前也还没跑起来,正在研究
vivisidea
2024-02-23 14:28:43 +08:00
https://huggingface.co/chat

实际体验下来我认为只有这个模型是最接近 gpt3.5 的,而且速度也挺快,google 的这个体验不太行
mistralai/Mixtral-8x7B-Instruct-v0.1
CatCode
2024-02-23 14:49:04 +08:00
7B 模型( bf16 )不量化的话,16G 显存不够。
starssending0z
2024-02-23 14:55:49 +08:00
@ahhui 笑死了,犟嘴😂
Haku
2024-02-23 14:58:52 +08:00
效果不咋地,小一点的模型已经很多了,之前用的 chatglm6b 中文感觉也比这个强。
人人大模型的机遇早就来了,但是人人 chatgpt 的还很远。
87B3F508
2024-02-23 14:59:15 +08:00
@starssending0z 还特别犟的那种。。。
>>> 模仿李白写首诗
如夜幕洒满天,如繁星点点。
如春风拂过枝头,如花朵轻舞。
如月明照地表,如星星点亮夜。
如鱼儿在波光中,如鸟儿在枝头歌唱。
如眼眸在窗外,如耳语在耳边。
如梦如幻,如幻如梦。
如山如海,如空如床。

>>> 模仿李白写首诗,不要包含“如”字
如烟消云散,如水流春。
如歌鸟在枝,如花落满园。
如梦如幻,如幻如梦。
如山如海,如空如床。
如笑如泪,如泪如笑。
如虫如草,如草如虫。
leeg810312
2024-02-23 15:29:36 +08:00
@ahhui
@Aaarnold hh ,和 ChatGPT 相反,你反驳,ChatGPT 就说你说的对,我是错的
leeg810312
2024-02-23 15:34:32 +08:00
比较犟,但模型小,用来训练专用系统挺合适的,比如企业内部问答、外部客服这样的,这些系统只能基于企业自己的知识库训练,生成不能受用户输入的影响太大
Alias4ck
2024-02-23 15:45:46 +08:00
sztink
2024-02-23 15:53:22 +08:00
huggingface 提供了免费测试 Gemma 的聊天演示工具: https://huggingface.co/chat?model=google/gemma-7b-it
87B3F508
2024-02-23 15:58:04 +08:00
用 ollama 试用挺方便的
marcong95
2024-02-23 16:09:40 +08:00
@ahhui 会不会有一种可能,港澳台地区也是中国呢~~~考虑到这一点,它倒是确实没有犟错,你可以再进一步问有什么限制。
isSamle
2024-02-23 16:13:47 +08:00
我觉得现在的大模型都是畸形的,应该训练响应模式而不应该训练响应内容。
CivAx
2024-02-23 16:59:09 +08:00
这种小参数规模的低智模型比较理想的用处是当帕鲁,比如:

- 提供一批散装数据,让 AI 给你解读、提炼或者整理,比如给一堆金融数据让 AI 给你算实际年化;
- 给 AI 提数学问题,如 “本金 xx 、利息 xx ,年利息多少?” 这种你提供输入参数,让 AI 给你跑结果,甚至可以给出你期望的结果,让 AI 为你倒推出代码可用的计算公式的,比如灯亮度变化、电压输入和旋钮步进的计算关系;
- 生成 Pyton 代码( Google 特别指出 Gemma 的 Python 代码生成的指标很高);
- 对不具备时效性需求的问题,直接当搜索引擎用,如 “蓝风铃跟风铃花有关系吗”

这种有唯一答案、需要人工择选(而 AI 往往已经被训练过)的问题,他们是真的答得又快又好。

那种需要回答具有创造性(写诗)、非理性(化纤材质毛衣还是晴纶材质毛衣好)、概念宽泛(谷歌在中国能不能访问)的问题,这类 AI (包括 ChatGPT )基本都是智熄的,只是智熄程度和角度不同。
cloverzrg2
2024-02-23 17:31:04 +08:00
试了下,跟 GPT3.5 对比很烂

问了三个问题,回答都有问题

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1017782

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX