剑指Meta,Google加快开源步伐,一夜开源5个模型!
作者: NLP前沿 来源: NLP前沿
从5月份的google i/o 官宣Gemma2,到6月份Gemma2 9B和27B开源,到昨晚,2B终于出了,很适合在移动端跑的一个模型大小。Gemma 2是一个口碑非常好的模型,具体可以看之前reddit的评论总结的推文。
开源日历来看,Google开始走Open路线了,基本跟Meta不分上下,下图为最新的Open Source Calendar。
关于 Gemma 2 2B,Unsloth团队一如既往的第一时间推出了一图版本,如下:
基本信息:
-
在 LYMSYS 竞技场上表现惊艳,高于的 GPT 3.5、Mixtral 8x7B
-
在HF v2 排行榜上(在 MATH 上很糟糕,但在 IFEval 上非常强大)
-
MMLU:56.1 & MBPP:36.6
-
在基准测试中击败之前的 (Gemma v1 2B) 超过 10%
-
2.6B 参数,多语言
-
2万亿token 训练
-
从 Gemma 2 27B 中蒸馏出来的?不确定~
-
在 512 TPU v5e 上训练
-
模型地址:https://huggingface.co/google/gemma-2-2b
之前 Anthropic 的可解释性研究报告,金门claude爆火了一阵子,详情可以看之前写的推文。Google当然不能落后,Gemma 团队还发布了涵盖 2B 和 9B 模型的 400 个 SAE。可以在 Neuronpedia 随便玩,比如做出自己的“Golden Gate Gemma”。地址:https://www.neuronpedia.org/gemma-scope#main
还没有完!ShieldGemma 3个模型开源,一个分类器,打败了上个周Meta跟LLama3.1一起开源的LlamaGuard,推文详见:
PS:给公众号添加【星标⭐️】不迷路!您的点赞、在看、关注 是我坚持的最大动力!
欢迎多多关注公众号「NLP前沿」,加入交流群,交个朋友吧,一起学习,一起进步!
最新文章推荐阅读
更多AI工具,参考Github-AiBard123,国内AiBard123