AI绘画在家装设计行业的应用探索
前言
在Stable Diffusion拥有了Control Net插件以后,我们对于文本生图可以在更多的地方拥有使用的想象空间了,下面给大家介绍一些ControlNet的实践玩法,比如下面看一个最简单的例子,如何一分钟出家装设计图。
除了可以用于家装设计,还可以用于城市未来建设的渲染图,比如杭州未来科技城3.0公共中心效果展示, 以及开发商的楼盘效果渲染图等等
成果展示
首先放出设计稿原图,随便在网上找一张清晰的装修设计稿。

然后我们通过SD+ControlNet可以获得各种不同风格该户型的装修设计图了,一分钟一张,无限生产力







中式






波西米亚风格 -异域风情
制作过程
制作过程非常简单
挑选一张户型装修图,如前文所示
通过OneFormer工具得到一张ADE20K标准的元素标注图 segmentation

标注过程 访问https://huggingface.co/spaces/shi-labs/OneFormer 输入一张图片,选择正确参数生成即可

将这个图片用于stable diffusion的Control Net模型生成原型

2. 勾选启用ControlNet
3. 选择模型为seg模型
4 输入prompt词。一个房间 1room即可得到上面的装修图片。如果你想切换装修风格,只需要在1 room前面添加风格描述,比如
只需要10S就可以得到一张全新的装修图。
用于控制网络模型的扩散方式,有了它我们就可以定向出图。在ControlNet可选择的模型中,有一个模型叫做Seg--(语意分割控制网络)。其可以使用OneFormer生成的ADE20K的语意标注图作为输入进行控制出图。甚至你也可以通过PS工具来修改自动生成的语意分割图,修改其中一部分元素,只要符合ADE20K标准即可。