AI 文摘

Meta昨晚开源codellama70B,zeroshot打败GPT4、GeminiPro





作者: NLP前沿 来源: NLP前沿

https://www.linkedin.com/posts/aiatmeta_today-were-releasing-code-llama-70b-the-activity-7157779543989055488-vBQO?utm_source=share&utm_medium=member_desktop  
  
https://huggingface.co/codellama  

今天我们发布了 Code Llama 70B:这是迄今为止我们用于代码生成的 LLM 中性能最好的版本 —— 与 Llama 2 和我们之前所有的 Code Llama 模型一样,它也以相同的许可证发布,以支持研究和商业创新。

今天发布的新模型中,包括CodeLlama-70B-Instruct,这是Code Llama的指令微调版本,在HumanEval测试中获得了67.8分,成为当今性能最高的开放模型之一。

Code Llama是微调代码生成模型的最佳基础,我们对社区能够继续在此基础上构建工作感到兴奋。

HumanEval 67.8,这个榜具体的信息可以看下链接,对应过来基本上就是zero-shot效果比GPT4,Gemini Pro效果还要稍微好一丢丢

https://paperswithcode.com/sota/code-generation-on-humaneval  

code Llama是一种使用优化的Transformer架构的自回归语言模型。它经过最多16k 长度的微调。该变体不支持长达100k 长度的上下文。config.json里面的max_position_embeddings目前是2048.

没有别的信息了,评论基本都扫了一遍,暂时能看到的就这些内容了,目前的状态,跟mistral直接抛出来一个模型也差不多了。

更多AI工具,参考Github-AiBard123国内AiBard123

可关注我们的公众号:每天AI新工具