AI 文摘

SD3初体验-让我们更加期待的新一代StableDiffusion





作者: 虎赳虎叔虎AI 来源: 虎赳虎叔虎AI

SD3可以开始体验了

上周,Stablity.ai终于推出了SD3模型的体验,包括API形式的接入使用。不过没有付费的用户,体验SD3出图的机会有限,有群友测算过,目前调用API形式使用此模型,大致一张在0.5元以内的费用。虽不知道之后此模型是否开源,但之前有透露,若想能流畅地使用此模型在本地运行,估计显卡的显存要在12G以上。

个人体验

**** 我们也做了一些跑图测试和观看了不少群友体验后的发图,就本人个人目前的体验感觉,SD3模型的画面还是很令人惊叹的,包括对自然语言的理解力,对英文和数字的绘画能力,以及画面的细节丰富了很多。也达到了一个新的高度。画面的精细度也再次得到了提高,毕竟这个模型的训练量和体量在那。

与SDXL(配合LoRA的)版的对比

**** 通过几组,相同提示词且分辨率相差无多的情况下,不同版本模型比对的效果来看,的确SD3的图像会更加优秀些许,不过SDXL的模型在LoRA的加持下,也似乎不落下风。

SD3体验方式

官网网页方式体验

我们可以通过访问SD3的官网,尝试体验使用网站绘画,和API的申请。

官网:

https://sdxlturbo.ai/stable-diffusion3

API申请:

https://platform.stability.ai/account/keys

【Zho】大佬分享的SD3生图节点

插件名:ComfyUI-StableDiffusion3-API

就在SD3推出的当天,我们就获得了大佬Zho发布的,在ComfyUI中通过调用API实现SD3体验的节点,可以到文末相关资源处领取,或是直接到GitHub上项目地址获得:

https://github.com/ZHO-ZHO-ZHO/ComfyUI-StableDiffusion3-API

使用方法:先申请API,然后编辑文本方式将该插件文件夹中config.json文件,写入所申请到的API-key,保存后,重新开启ComfyUI即可使用此节点。

调用和使用这个节点则就很简单,在右键菜单中找到SD3节点中的Stable Diffusion 3的节点后,打开,再接入图像保存即可进行文生图的操作。

此节点还提供了图生图的模式,可以在核心节点前再接入一个加载图像的节点配合使用。

当前版本注意:

1)SD3 图生图模式不支持选择比例

2)SD3 Turbo 模型不支持负面提示词

官方推出的SD3生图节点

插件名:ComfyUI-SAI_API

之后官方也推出了节点,大家也可以尝试使用,节点的玩法会更多种些。项目地址:

https://github.com/Stability-AI/ComfyUI-SAI_API

相关资源:

本章分享所用到的图片(原图)和插件获取:

请关注公众号后,发送 “0421”即可获取,感谢您对我们内容的认可和关注~!

END

往期精彩回顾

【Fooocus】可是是你最容易入门的StableDiffusion WebUI(下篇)

【Fooocus】可是是你最容易入门的StableDiffusion WebUI(上篇)

【学习分享】ComfyUI分享03-这三类快速生图,总有一款适合你【学习分享】ComfyUI分享02-快捷键的使用让你B格满满,尽享乐趣

【学习分享】ComfyUI分享01-从文生图开启

【应用篇】用AI绘画来定制微信红包封面

【模型介绍】ta不仅能改善画质,还能玩航拍画面

【应用篇】看完这篇,创作艺术文字,做文字海报都不是事儿

【应用篇】姓氏头像的两种绘制方式,并聊聊画面的二次加工

【模型介绍】会用Embedding模型,助你绘出精彩(SDXL版)

【模型介绍】会用Embedding模型,助你绘出精彩(SD1.5版)

加入我们,共学AI

欢迎关注我们公众号,一起研习:

欢迎扫码入群,与我们共同探讨:

更多AI工具,参考Github-AiBard123国内AiBard123

可关注我们的公众号:每天AI新工具