AI 文摘

简单几步微调Llama3大模型,小白轻松上手





作者: 古哒哒研究所 来源: 古哒哒研究所

这是面向小白用户的一个超级简单的微调大模型示例,通过这个例子将得到一个速度翻倍,并可以包含自己业务知识数据的微调后llama3模型,可用于本地部署构建私有化的AI智能体。very 的 nice

首先请准备好google账号和网络环境,这个示例基于goolge colab的免费算力完成。

https://colab.research.google.com/drive/135ced7oHytdxu3N2DNe1Z0kqjyYIkDXp?usp=sharing

使用浏览器打开上方链接

将点击copy to Drive复制笔记到自己账号下的网盘,点击之后弹出新窗口

我们就在这个弹出的新窗口操作,界面都是英文不多解释,跟着操作就好

点击第一个运行小箭头,安装基础环境,要稍等片刻的时间

运行结束后左侧会出现一个绿色小勾

环境安装好就开始微调训练,继续运行第二段代码,代码中默认的加载llama3,不需要做任何修改直接执行,点击三角符号按钮

点击运行之后开始下载模型和一些必要的文件,速度很快

片刻之后出现绿色小勾就是运行完成

然后继续向下,执行第三段代码

这一段一秒钟就OK了,继续向下运行第四段代码加载训练数据集,我们还是使用笔记中的默认数据集。先把所有默认设置跑通拿到一个微调后的模型,以后替换其他模型,使用自己的数据集都是换换参数的事情,今天就来最简单的,一路点击就OK

老规矩还是出现绿色小勾表示运行结束

这个数据集我下载到了本地,主要就是为了截个图给大家看一下,一共25W行,json结构的数据

后期使用自己的数据进行微调,按照这个格式整理好就可以,关于私有数据集的清洗和格式化这就不展开讲了。

环境,模型,数据集都加载完成了,接下来就是训练时间了

继续向下执行代码,配置一些必要的参数

出现小绿勾完成后,继续向下

下面这一段就是看一下当前可用的内存

这里正式开始训练:根据上面设置的默认参数,训练一共60步,需要稍候片刻,在这段等待的时间里你就需要开始思考一个问题,一万个人类中有几个人微调过大模型,而你即将在片刻之后成为那个万中无一的人

7分36秒,运行完成

接着向下,运行一下打印过程信息的代码

然后就可以和我们微调过的大模型对话了,笔记中默认给了一个问题,生成斐波那契数列,它的参数结构是不是跟我们的数据集结构一样的,这里你可以编辑代码用数据集指令替换掉默认指令,观察一下微调后的结果

公众号后台发送 “数据集” 获取数据集下载链接

接下来下面的代码还是一段打印斐波那契数列的代码,不同的是这是一段流式输出的示例,就是我们常见的一边生成一边输出

到这里,模型的微调就完成了,也测试了可以正常的运行

接下来将微调结果保存为lora模型,默认名称lora_model

保存之后我们加载保存的模型测试一下

在这段代码中可以反复的修改提示词然后执行,来测试不同的结果。

整个微调的过程就基本完成了,可以看出并不是那么复杂,虽然很多小白同学全程不懂在运行什么,但中间没有出错,得到了正确的结果。

今天的主题是只带过程不讲细节,之后计划做一篇详细的本地微调大模型,自定义数据集,并结合第三方框架搭建私有智能体应用

Kimi等六家国产大模型API免费用,Llama3瞬间不香了

实测:本地跑llama3:70B需要什么配置

主打一个不花钱:国产大模型逆向API白嫖

影刀RPA搭建Chat-GPT账号批量注册机

AI解锁姿势:一张图引发小姐姐狂欢之舞

SuperDuperDB:一行代码将任何AI模型与公司业务数据库集成

Chat-GPT一站式解决方案:从注册到使用免翻墙 & 免接码

未来已来:实现个人电脑AI自动化办公的梦想

Perplexity AI:平替GPT4 New Bing,真的很好用

免费 GPT-4 尽情畅聊,不受限制!

永久免费AI绘画平台,可生成完美字体和创意图像

微软开源:破损老照片修复工具 安装使用教程

影刀RPA+Chat-GPT = 知乎自动答题机器人

####加微信不失联

分享Chat-GPT、Stable Diffusion等AI工具最新玩法和EXCEL、RPA自动化办公的高级应用

更多AI工具,参考Github-AiBard123国内AiBard123

可关注我们的公众号:每天AI新工具