SD3初体验-让我们更加期待的新一代StableDiffusion
作者: 虎赳虎叔虎AI 来源: 虎赳虎叔虎AI
SD3可以开始体验了
上周,Stablity.ai终于推出了SD3模型的体验,包括API形式的接入使用。不过没有付费的用户,体验SD3出图的机会有限,有群友测算过,目前调用API形式使用此模型,大致一张在0.5元以内的费用。虽不知道之后此模型是否开源,但之前有透露,若想能流畅地使用此模型在本地运行,估计显卡的显存要在12G以上。
个人体验
**** 我们也做了一些跑图测试和观看了不少群友体验后的发图,就本人个人目前的体验感觉,SD3模型的画面还是很令人惊叹的,包括对自然语言的理解力,对英文和数字的绘画能力,以及画面的细节丰富了很多。也达到了一个新的高度。画面的精细度也再次得到了提高,毕竟这个模型的训练量和体量在那。
与SDXL(配合LoRA的)版的对比
**** 通过几组,相同提示词且分辨率相差无多的情况下,不同版本模型比对的效果来看,的确SD3的图像会更加优秀些许,不过SDXL的模型在LoRA的加持下,也似乎不落下风。
SD3体验方式
官网网页方式体验
我们可以通过访问SD3的官网,尝试体验使用网站绘画,和API的申请。
官网:
https://sdxlturbo.ai/stable-diffusion3
API申请:
https://platform.stability.ai/account/keys
【Zho】大佬分享的SD3生图节点
插件名:ComfyUI-StableDiffusion3-API
就在SD3推出的当天,我们就获得了大佬Zho发布的,在ComfyUI中通过调用API实现SD3体验的节点,可以到文末相关资源处领取,或是直接到GitHub上项目地址获得:
https://github.com/ZHO-ZHO-ZHO/ComfyUI-StableDiffusion3-API
使用方法:先申请API,然后编辑文本方式将该插件文件夹中config.json文件,写入所申请到的API-key,保存后,重新开启ComfyUI即可使用此节点。
调用和使用这个节点则就很简单,在右键菜单中找到SD3节点中的Stable Diffusion 3的节点后,打开,再接入图像保存即可进行文生图的操作。
此节点还提供了图生图的模式,可以在核心节点前再接入一个加载图像的节点配合使用。
当前版本注意:
1)SD3 图生图模式不支持选择比例
2)SD3 Turbo 模型不支持负面提示词
官方推出的SD3生图节点
插件名:ComfyUI-SAI_API
之后官方也推出了节点,大家也可以尝试使用,节点的玩法会更多种些。项目地址:
https://github.com/Stability-AI/ComfyUI-SAI_API
相关资源:
本章分享所用到的图片(原图)和插件获取:
请关注公众号后,发送 “0421”即可获取,感谢您对我们内容的认可和关注~!
END
往期精彩回顾
【Fooocus】可是是你最容易入门的StableDiffusion WebUI(下篇)
【Fooocus】可是是你最容易入门的StableDiffusion WebUI(上篇)
【学习分享】ComfyUI分享03-这三类快速生图,总有一款适合你【学习分享】ComfyUI分享02-快捷键的使用让你B格满满,尽享乐趣
【模型介绍】会用Embedding模型,助你绘出精彩(SDXL版)
【模型介绍】会用Embedding模型,助你绘出精彩(SD1.5版)
加入我们,共学AI
欢迎关注我们公众号,一起研习:
欢迎扫码入群,与我们共同探讨:
更多AI工具,参考Github-AiBard123,国内AiBard123