AI 文摘

剑指Meta,Google加快开源步伐,一夜开源5个模型!





作者: NLP前沿 来源: NLP前沿

从5月份的google i/o 官宣Gemma2,到6月份Gemma2 9B和27B开源,到昨晚,2B终于出了,很适合在移动端跑的一个模型大小。Gemma 2是一个口碑非常好的模型,具体可以看之前reddit的评论总结的推文

开源日历来看,Google开始走Open路线了,基本跟Meta不分上下,下图为最新的Open Source Calendar。

关于 Gemma 2 2B,Unsloth团队一如既往的第一时间推出了一图版本,如下:

基本信息:

  • 在 LYMSYS 竞技场上表现惊艳,高于的 GPT 3.5、Mixtral 8x7B

  • 在HF v2 排行榜上(在 MATH 上很糟糕,但在 IFEval 上非常强大)

  • MMLU:56.1 & MBPP:36.6

  • 在基准测试中击败之前的 (Gemma v1 2B) 超过 10%

  • 2.6B 参数,多语言

  • 2万亿token 训练

  • 从 Gemma 2 27B 中蒸馏出来的?不确定~

  • 在 512 TPU v5e 上训练

  • 模型地址:https://huggingface.co/google/gemma-2-2b

之前 Anthropic 的可解释性研究报告,金门claude爆火了一阵子,详情可以看之前写的推文。Google当然不能落后,Gemma 团队还发布了涵盖 2B 和 9B 模型的 400 个 SAE。可以在 Neuronpedia 随便玩,比如做出自己的“Golden Gate Gemma”。地址:https://www.neuronpedia.org/gemma-scope#main

还没有完!ShieldGemma 3个模型开源,一个分类器,打败了上个周Meta跟LLama3.1一起开源的LlamaGuard,推文详见:

PS:给公众号添加【星标⭐️】不迷路!您的点赞、在看、关注 是我坚持的最大动力!

欢迎多多关注公众号「NLP前沿」,加入交流群,交个朋友吧,一起学习,一起进步!

最新文章推荐阅读

更多AI工具,参考Github-AiBard123国内AiBard123

可关注我们的公众号:每天AI新工具