[ComfyUI]阿里重磅开源!视频修复神器DiffuEraser来了,ComfyUI一键擦除穿帮/水印/杂物

一、介绍​

最近阿里巴巴开源了一个最新的项目Diffueraser,用来视频修复用的,可以一键擦除穿帮/水印/杂物。​

受到 BrushNet 和 Animatediff 的启发。该架构由主要的去噪 UNet 和一个辅助的 BrushNet 分支组成。BrushNet 分支提取的特征在经过零卷积块后逐层整合到去噪 UNet 中。去噪 UNet 执行去噪过程以生成最终输出。为了增强时间一致性,在自注意力和交叉注意力层之后都加入了时间注意力机制。去噪后,使用模糊掩码将生成的图像与输入的掩码图像进行混合。

官方:github.com/lixiaowen-xw

二、相关安装​

插件地址:github.com/smthemex/Com

节点管理器还搜不到​

自己下载了丢custom_nodes即可​

模型挺多的,核心模型如下​

​还需要一个PCM模型,放到lora目录下

如果要自动建议处理,还需要下面红色框圈中的2个模型,分别是RMBG-2和BiRefNet,都是熟悉的扣主体的插件了。

文末网盘会提供这些给大家,自行提取

三、使用说明​

核心工作流有2个,这个官方有给出​

第一个是自动扣主体,然后消除了

核心节点如下​

左边是加载模型用的DiffuEraserLoader节点,一共有3个​

checkpoint:随便选一个SD 1.5的模型,我这里用了dreamshaper8​

vae:选一个SD1.5常用的vae模型即可​

lora:选择上面发的pcm模型,这个模型让我们提速用的,步骤2步就可以使用了​

右边是DiffuEraserSampler节点​

参数按我截图的配置即可,默认就这样​

需要自己调整的是​

video2mask参数选中的话,才会自动扣主体​

然后seg_repo这个参数需要自己填写,填模型存放的路径​

这个模型也会分享给大家,放到\models\diffusers下面就行​

F:\Program Files\sd\ComfyUI-aki-v1.5\models\diffusers\briaai\RMBG-2.0

执行完效果如下:效果还行,不过认真看好像还是有点人影。

00:06

第二种方案是遮罩视频自己上传​

video_mask这个入参用来接一个遮罩的视频​

然后记得把video2mask关闭

效果如下

00:04

​​那有人就会问了,没有遮罩视频,想怎么弄呢,也有办法​

以前写过一篇介绍SAM2的,我们这里可用SAM2分割来获取遮罩的图片,再接入到video_mask参数即可。​

这是我用下来感觉最好的,工作流如下

​点编辑器这里,点击下面的New Canvas,生成一个面板​

然后先跑一帧图,接下来就是移动绿色的点和红色的点​

shift+鼠标左键:新增一个绿点​

shift+鼠标右键:新增一个红点​

绿点就是你要提取的遮罩,红点就是不要提取的​

然后把这个遮罩当做参数接入到 DiffuDraserSampler的 video_mask即可​

再看一个我跑的效果,这么多人,我就想消除右边这个人

00:06

我还想到了用来处理字幕水印的,用了其他的节点​

不过效果和其他线上的工具比差不多,但是离完美还差点意思​

希望这个模型后续可以继续优化

00:10

四、总结​

以上就是视频消除模型的介绍了,挺有意思的,我感觉去字幕这个再强一些,可以商用了。

技术的迭代是飞快的,要关注最新的消息才不会掉队。​

嘟嘟每天分享最新的ComfyUI技术前沿。

​本篇中的工作流和模型网盘链接:pan.quark.cn/s/c8666dfb

​我是嘟嘟,专注于 AI 绘画以及 AI 工具分享,更多内容可以进我的个人主页查看,欢迎来一起交流。

如果觉得文章有帮助,请帮忙点赞收藏关注一下呦~