零成本搭建!手把手教你部署 GitHub 爆红的 AI 实时换脸工具
今天要给大家安利一个在 GitHub 上极其火爆、甚至让直播界和视频会议圈感到“危机感”的神级开源项目——Deep-Live-Cam。
如果你觉得传统的换脸插件太慢、太假,或者需要几千张照片去训练,那这个项目绝对会刷新你的认知:只需要一张照片,就能实现实时视频换脸。
重新播放

🚀 项目爆点:一张照片,实时变身
项目地址: https://github.com/hacksider/Deep-Live-Cam
Deep-Live-Cam 是一个基于单张图片实现的实时视频换脸工具。它的核心逻辑非常暴力且优雅:不需要针对特定人物进行长达数小时甚至数天的模型训练,只要你给它一张清晰的人脸照片,它就能在几秒钟内,将你的脸实时替换到摄像头画面或现有的视频文件中。
核心黑科技:
- 单图推理 (Single-Shot Inference): 核心采用了
inswapper_128模型,具备极强的泛化能力,一张图定乾坤。 - 实时丝滑: 针对直播场景优化,配合 NVIDIA 显卡的 CUDA 加速,延迟极低,几乎可以同步你的表情。
- 嘴部遮罩 (Mouth Masking): 很多人担心换脸后说话口型对不上,该项目支持嘴部遮罩,能完美保留原视频/摄像头的口型变化,让说话看起来更自然。
- 多平台通吃: 无论你是 Windows (DirectML)、Mac (CoreML)、还是 Linux (CUDA/ROCm),都有对应的加速方案。
🛠️ 快速上手:如何搭建你的“数字分身”?
作为博主,我亲自帮大家避坑,整理了最精简的安装流程:
1. 环境准备
- Python: 推荐 3.10 版本。
- FFmpeg: 处理视频流的必备神器。
- 加速引擎: 如果你是 NVIDIA 显卡,记得装好 CUDA 和 cuDNN。
2. 下载与安装
Bash
# 克隆仓库
git clone https://github.com/hacksider/Deep-Live-Cam.git cd Deep-Live-Cam
# 安装依赖
pip install -r requirements.txt
3. 模型获取
首次运行程序会引导你下载模型文件(约 300MB),主要包括 GFPGANv1.4(用于人脸修复增强)和 inswapper_128_fp16.onnx。
4. 开启直播模式
运行 python run.py,在弹出的 GUI 界面中:
- Select Face: 选择你想要变身的那张照片。
- Live: 点击后等待 10-20 秒,预览窗口就会出现。
- 配合 OBS: 利用 OBS 的“窗口采集”,你就可以带着这张“面具”去参加 Zoom 会议、腾讯会议或者是去直播间整活了。
💡 应用场景:这玩意儿能怎么玩?
- 内容创作: 一个人分饰多角,再也不用化妆换衣服,切一张照片就换一个角色。
- 虚拟主播: 低成本实现超拟真的 2D/3D 形象替换,比那种僵硬的纸面片人自然得多。
- 隐私保护: 在某些不方便露脸的直播或通话场景,用一张 AI 生成的“完美脸孔”保护隐私。
