python人物视频背景替换实现虚拟空间穿梭
目录
- 引言
- 准备工作
- 纯RGB背景替换
- 自定义图像背景板替换
引言
近期网上这位卖蜂蜜的小伙鬼畜挺火的,大家质疑背景造假,这里我就带着大家实现“背景造假”(PS:原视频小伙是在真实场景拍摄的)
准备工作
在实现该功能之前,我们需要准备好python==3.7 然后执行:
pip install mediapipe
方案一: PC端可以选择外界摄像头或者连接网络摄像头,最好挑选一个纯属的背景板作为视频画面背景(这样有利于任务分割);
方案二: 网上下载有人物活动的视频,然后用下载的视频替代连接摄像头。
到这里我们基础物件已经搭建好了,本实验代码选择方案二,对下载视频分析,其shape=(740,640,3)。接下来我将带领大家实现三个版本的背景替换
纯RGB背景替换
基础板:将人物提取出来,替换成设定好的纯色背景(可以通过RGB设定)。其基本流程如下:
1. 输入视频
2. 获取视频帧
3. 提取帧内人物图像
4. 设定背景RGB值
5. 创建同视频帧同shape的RGB图像
6. 结合背景图与人物图
7. 输出结合图
示例demo:
import cv2 import mediapipe as mp import numpy as np mp_drawing = mp.solutions.drawing_utils mp_selfie_segmentation = mp.solutions.selfie_segmentation BG_COLOR = (0, 0, 225) # red cap = cv2.VideoCapture('111.mp4') with mp_selfie_segmentation.SelfieSegmentation( model_selection=0) as selfie_segmentation: bg_image = None while cap.isOpened(): success, image = cap.read() if not success: break image = cv2.cvtColor(cv2.flip(image, 1), cv2.COLOR_BGR2RGB) image.flags.writeable = False results = selfie_segmentation.process(image) image.flags.writeable = True image = cv2.cvtColor(image, cv2.COLOR_RGB2BGR) condition = np.stack( (results.segmentation_mask,) * 3, axis=-1) > 0.8 if bg_image is None: bg_image = np.zeros(image.shape, dtype=np.uint8) bg_image[:] = BG_COLOR print(bg_image.shape) output_image = np.where(condition, image, bg_image) cv2.imshow('MediaPipe Selfie Segmentation', output_image) if cv2.waitKey(5) & 0xFF == 27: break cap.release()
原视频节选帧&替换背景帧:
自定义图像背景板替换
由于我们已知图像的shape,我们可以在网上挑选自己喜欢的背景图,然后调整背景图的shape,使其与视频图像保持一致。整体流程图下:
1. 下载选择喜欢的背景图像
2. 调整下载图像的shape=(740,604,3)
3. 读取视频
4. 获取视频帧
5. 获取视频帧内人物图像
6. 结合背景图和人物图像
7. 输出视频画面
修改图像大小并进行50%缩放后的背景图:
背景图结合人物图:
这里我的背景图选择的有些单调,也不是那么适合,望读者见谅! 代码部分修改:
bg_image = cv2.imread("BBB.jpg")
以上就是python实现人物视频背景替换的详细内容,更多关于python视频背景替换的资料请关注我们其它相关文章!
赞 (0)