Stable diffusion三步搞定——场景定制化 – 58同城设计

随着人工智能的逐渐发展,越来越多的AI工具也一窝蜂的涌现出来。

在众多的AI利器当中mid journey(简称MJ)和stable diffusion(简称SD)两款软件在图片的效果呈现上表现的尤为突出,在经过对mid journey的使用过程中发现,虽然MJ能够通过描述关键词来对图像进行调整,但总觉得跟脑海里设想的那张图还差一点意思,不能完全的符合心里预期。

迫于这个原因我们将经历投入到SD的学习当中,在学习的过程中发现SD的操作界面对设计师来说比较友好,操作界面更类似于一款软件的操作界面,感觉是在学习一门技术(可能是总用绘图软件做图留下的后遗症)。

在实际操作SD这款软件时有两点是强于MJ的:1.它可以精准控制画面的构图及布局。2.它也可以定制画面的输出风格。在工作上能将所设想的草图通过control net插件进行百分之百的还原,可以说大大的提高了出图质量及数量。

本次分享将结合平时工作中,应用到SD软件进行出图的实操经验,通过对SD的运用输出行业场景图来给大家做一些示范。在日常的工作中,为了保证视觉构图还有画面风格的一致性,有意的去搭建了属于赶集行业特征的运营场景素材库,目的是为了让设计师能灵活调用,随做随取,节省时间提高效率。

在开始实操之前,先来说下SD的工作流程:1.前期需要在脑子里构想一个场景图,并借用绘图软件勾勒出大概的草图轮廓线。2.通过SEG图表找到对应材质的色值(SEG色表大家可以网上搜索自行下载),实现对画面中摆放物体的材质进行精准调节。3.将文生图得到的图片转到图生图中借助control net 插件中tile_resample模型对图片里的细节进行处理于此同时使用脚本中的UItemate SD upscale模型将已得到的图片进行人为放大(这样做是为了在图生图的放大过程中同时修补画面细节)

好的废话不多说,咱们开始演示:

第一步输入正向关键词:CBD办公场景,宽敞明亮,有格调,高清摄影,广告级修图,8K高清,CBD office scene,Bright and spacious,There is style,HD photography,Ad-level retouching,8K HD,

反向关键词:NSFW,nude,naked,porn,(worst quality, low quality:1.4),deformed iris,deformed pupils,(deformed,distorteddisfigured:1.3)cropped,out of frame,poorly drawn,bad anatomy,wrong anatomy,extralimb,missing limb,floating limbs,cdoned face(mutated hands and fingers:1.4),disconnected limbs,extra legs,fused fingers,too many fingers,long neck,mutation,mutated,ugly,disgusting.amputation,blurry,jpegartifacts,watermark,watermarked,text,Signature,sketch,

输入关键词的同时将脑子里的想法通过绘图软件绘制成线稿图(这个线稿的布局及外形决定了出图的结构及布局),将绘制好的草图上传至control net插件里选择scribble模型(实际操作界面如下)。

生成效果如下:

第二步:根据画面需要对场景内的物体进行材质更换(这一步需要配合关键词即画面中出现的材质需要在关键词中也对应提及,关键词的重要程度要用 ()强调)同样也借助control net插件里选择seg模型,配合第一步的操作双开control net 模型,SEG权重的大小数值,决定最终呈现的效果。

生成效果如下:

第三步:选择一张自己心仪的图片然后转到图生图模式,将图片结合control net 插件中的tile_resample进行细节丰富,同时使用脚本中的UItemate SD upscale模型将其放大至自己想要的图片大小。

好啦,现在你已经得到了一张定制化的场景图片了,是不是还是蛮精准的,按照我们上述的操作路径,我们分别对餐饮场景、销售办公场景、美容美发场景进行了批量生成,效果图片如下。

生成餐饮场景效果如下:

生成美业场景效果如下:

生成销售场景效果如下:

总结:AI自我的学习能力非常强大,每一刻都在迭代,可能身处这个时代的我们能做的就是不断的拥抱变化,学习如何去驾驭AI,学会用AI为工作提效,希望能从不断的学习探索中找到新突破。

3