我们探索和实现了一种基于QLoRA的轻量级的增量预训练和指令微调方案,并使用该方法对Llama2-13B进行中文知识迁移,在公开榜单和人工评测中验证了该方法的有效性。该方法可推广至对Baichuan、
read more我们探索和实现了一种基于QLoRA的轻量级的增量预训练和指令微调方案,并使用该方法对Llama2-13B进行中文知识迁移,在公开榜单和人工评测中验证了该方法的有效性。该方法可推广至对Baichuan、
read more大型语言模型(LLMs)在自然语言处理领域的应用越来越广泛,但如何更好地使用它们来评估文本质量一直是个挑战。最近有一篇研究,深入探讨了如何最大程度地提高自然语言生成模型的评估性能,并提供了一些重要的指
read more写在前面在去年6月的时候,分享过一篇ACL2022的文章《NoisyTune:ALittleNoiseCanHelpYouFinetunePretrainedLanguageMod
read more前方干货预警:这可能是你能够找到的,最容易理解,最容易跑通的,适用于各种开源LLM模型的,同时支持多轮和单轮对话数据集的大模型高效微调范例。我们构造了一个修改大模型自我认知的3轮对话的玩具数据集,使用
read more在ins上,发现了这个挺好的自媒体工具集,图片原作者是:Nathan。先收藏再观看,避免以后需要的时候,找不到了。尤其是选题部分,能发现很多工具,可以发掘素材。视频Invideo:用于创建社交媒体
read more