HuggingFace发布Websight数据集:可以训练视觉语言模型将图像转为HTML代码
作者: 小麦AIGC 来源: 小麦AIGC
这个数据集对于提高前端开发效率拥有巨大价值。
HuggingFace多模态团队于近日发布了Websight,这是一个包含823000对儿网站截图和HTML/CSS代码的数据集。
Websight可以用来训练视觉语言模型(VLM)将图像转换为代码。
这个数据集可用于商业用途,HuggingFace还为此微调了一个模型,可以在线上试用。
demo试用结果来看,效果还是不错的,网页的整体结构完整,只是有些字体颜色效果或者元素布局稍有些出入。
即使如此,如果将该模型用于实际生产工作,也将给前端工程师节省大量开发时间。
由UI设计师提供高保真设计稿,AI自动完成代码生成,工程师只需要对细节进行调整,就可以应用了。既节省了开发时间,也节省了跟UI设计师沟通设计细节的时间。
项目资源
线上演示demo:
https://huggingface.co/spaces/HuggingFaceM4/screenshot2html
Websight数据集:
https://huggingface.co/datasets/HuggingFaceM4/WebSight
基于Websight微调过的VLM模型:
https://huggingface.co/HuggingFaceM4/VLM_WebSight_finetuned
END
如果喜欢上面的内容,请关注小麦AIGC,最新内容每日更新;如有好的选题建议,也可以给我们发消息哦。
点个在看,你最好看
更多AI工具,参考Github-AiBard123,国内AiBard123