OpenCV中视频操作及⼈脸识别案例⽬录
OpenCV中视频操作及⼈脸识别案例
主要内容:
视频⽂件的读取和存储
视频追踪中的meanshift和camshift算法
⼈脸识别案例
视频操作
视频读写
学习⽬标
掌握读取视频⽂件,显⽰视频,保存视频⽂件的⽅法
从⽂件中读取视频并播放
在OpenCV中我们要获取⼀个视频,需要创建⼀个VideoCapture对象,指定你要读取的视频⽂件:1. 创建读取视频的对象
cap = cv.VideoCapture(filepath)
参数:
filepath: 视频⽂件路径
2. 视频的属性信息
2.1. 获取视频的某些属性
retval = (propId)
参数:
propId: 从0到18的数字,每个数字表⽰视频的属性
常⽤属性有:
2.2 修改视频的属性信息
cap.set(propId,value)
参数:
proid: 属性的索引,与上⾯的表格相对应
value: 修改后的属性值
判断图像是否读取成功
isornot = cap.isOpened()
若读取成功则返回true,否则返回False
4. 获取视频的⼀帧图像
ret, frame = ad()
参数:
ret: 若获取成功返回True,获取失败,返回False
Frame: 获取到的某⼀帧的图像
5. 调⽤cv.imshow()显⽰图像,在显⽰图像时使⽤cv.waitkey()设置适当的持续时间,如果太低视频会播放的⾮常快,如果太⾼就会播放
的⾮常慢,通常情况下我们设置25ms就可以了。
6. 最后,调⽤alease()将视频释放掉
⽰例:
我的⽂件路径:
import numpy as np
import cv2 as cv
# 1 读取视频
# 路径⼀定要确保正确,不然显⽰不出来窗⼝!
cap = cv.VideoCapture("../image/DOG.wmv")
# 2 判断是否读取成功
while(cap.isOpened()):
# 3 获取每⼀帧图像
ret, frame = ad()
# 4 是否获取成功
if ret ==True:
cv.imshow("frame", frame)
if cv.waitKey(25)&0xFF==ord("q"):
break
cv.destroyAllWindows()
保存视频
在OpenCV中我们保存视频使⽤的是VedioWriter对象,在其中指定输出⽂件的名称,如下所⽰:
1. 创建视频写⼊的对象
out = cv2.VideoWriter(filename,fourcc, fps, frameSize)
参数:
filename:视频保存的位置
fourcc:指定视频编解码器的4字节代码
fps:帧率
frameSize:帧⼤⼩
设置视频的编解码器,如下所⽰,
retval = cv2.VideoWriter_fourcc( c1, c2, c3, c4 )
参数:
c1,c2,c3,c4: 是视频编解码器的4字节代码,在中到可⽤代码列表,与平台紧密相关,常⽤的有:在Windows中:DIVX(.avi)
在OS中:MJPG(.mp4),DIVX(.avi),X264(.mkv)。
利⽤ad()获取视频中的每⼀帧图像,并使⽤out.write()将某⼀帧图像写⼊视频中。
使⽤lease()和lease()释放资源。
⽰例:
import cv2 as cv
import numpy as np
# 1. 读取视频
cap = cv.VideoCapture("../image/DOG.wmv")
# 2. 获取图像的属性(宽和⾼,),并将其转换为整数
rectangle函数opencv
frame_width =(3))
frame_height =(4))
# 3. 创建保存视频的对象,设置编码格式,帧率,图像的宽⾼等
out = cv.VideoWriter('out1.avi',cv.VideoWriter_fourcc('M','J','P','G'),10,(frame_width,frame_height))
while(True):
# 4.获取视频中的每⼀帧图像
ret, frame = ad()
if ret ==True:
# 5.将每⼀帧图像写⼊到输出⽂件中
out.write(frame)
else:
break
# 6.释放资源
cv.destroyAllWindows()
⼩结
1. 读取视频:
1. 读取视频:cap = cv.VideoCapture()
2. 判断读取成功:cap.isOpened()
3. 读取每⼀帧图像:ret,frame = ad()
4. 获取属性:(proid)
5. 设置属性:cap.set(proid,value)
6. 资源释放:lease()
2. 保存视频
1. 保存视频: out = cv.VideoWrite()
2. 视频写⼊:out.write()
3. 资源释放:lease()
视频追踪
学习⽬标
理解meanshift的原理
知道camshift算法
能够使⽤meanshift和Camshift进⾏⽬标追踪
meanshift
meanshift算法的原理很简单。假设你有⼀堆点集,还有⼀个⼩的窗⼝,这个窗⼝可能是圆形的,现在你可能要移动这个窗⼝到点集密度最⼤的区域当中。
如下图:
最开始的窗⼝是蓝⾊圆环的区域,命名为C1。蓝⾊圆环的圆⼼⽤⼀个蓝⾊的矩形标注,命名为C1_o。
⽽窗⼝中所有点的点集构成的质⼼在蓝⾊圆形点C1_r处,显然圆环的形⼼和质⼼并不重合。所以,移
动蓝⾊的窗⼝,使得形⼼与之前得到的质⼼重合。在新移动后的圆环的区域当中再次寻圆环当中所包围点集的质⼼,然后再次移动,通常情况下,形⼼和质⼼是不重合的。不断执⾏上⾯的移动过程,直到形⼼和质⼼⼤致重合结束。 这样,最后圆形的窗⼝会落到像素分布最⼤的地⽅,也就是图中的绿⾊圈,命名为C2。
meanshift算法除了应⽤在视频追踪当中,在聚类,平滑等等各种涉及到数据以及⾮监督学习的场合当中均有重要应⽤,是⼀个应⽤⼴泛的算法。
图像是⼀个矩阵信息,如何在⼀个视频当中使⽤meanshift算法来追踪⼀个运动的物体呢? ⼤致流程如下:
1. ⾸先在图像上选定⼀个⽬标区域
2. 计算选定区域的直⽅图分布,⼀般是HSV⾊彩空间的直⽅图。
3. 对下⼀帧图像b同样计算直⽅图分布。
4. 计算图像b当中与选定区域直⽅图分布最为相似的区域,使⽤meanshift算法将选定区域沿着最为相似的部分进⾏移动,直到到最相
似的区域,便完成了在图像b中的⽬标追踪。
5. 重复3到4的过程,就完成整个视频⽬标追踪。
通常情况下我们使⽤直⽅图反向投影得到的图像和第⼀帧⽬标对象的起始位置,当⽬标对象的移动会反映到直⽅图反向投影图中,meanshift 算法就把我们的窗⼝移动到反向投影图像中灰度密度最⼤的区域了。如下图所⽰:
直⽅图反向投影的流程是:
假设我们有⼀张100x100的输⼊图像,有⼀张10x10的模板图像,查的过程是这样的: