清华主页 - 清华新闻 - 综合时讯 - 正文

《深度学习》OpenCV 光流估计 原理、案例解析

目录

一、光流估计

1、什么是光流估计

2、原理

3、光流估计算法

1)基于局部方法

2)和基于全局方法

4、光流估计的前提

1)亮度恒定

2)小运动

3)空间一致

二、案例实现

1、读取视频

2、特征检测

3、处理每一帧画面

运行结果:

4、释放资源

5、完整代码


一、光流估计

1、什么是光流估计

        光流估计是指通过计算相邻帧之间的像素位移,来估计图像中物体的运动信息。

2、原理

        假设相邻帧之间的像素亮度保持不变,并根据此假设计算每个像素的位移向量。

3、光流估计算法

        1)基于局部方法

                基于局部方法的光流估计算法通常基于图像区域内的像素点之间的亮度变化来计算位移向量。这些方法通常依赖于一些边缘、角点等特征点的检测和匹配。

        2)和基于全局方法

                基于全局方法的光流估计算法则通过优化能量函数来计算整个图像的位移向量。这些方法通常能够获得更准确的位移估计结果,但计算复杂度较高。

4、光流估计的前提

        1)亮度恒定

                同一点随着时间的变化,其亮度不会发生改变。

        2)小运动

                随着时间的变化不会引起位置的剧烈变化,只有小运动情况下才能用前后帧之间单位位置变化引起的灰度变化去近似灰度对位置的偏导数。

        3)空间一致

                一个场景上邻近的点投影到图像上也是邻近点,且邻近点速度一致。因为光流法基本方程约束只有一个,而要求x,y方向的速度,有两个未知变量。所以需要连立n多个方程求解。

二、案例实现

1、读取视频

# 打开视频文件cap = cv2.VideoCapture('test.avi')color = np.random.randint(0,255,(100,3))  # 生成随机整数数组,值范围为0-255,格式为100*3,以此充当颜色用来绘制轨迹,此处的值为矩阵类型ret,old_frame = cap.read()   # 读取视频的di一帧画面,返回读取状态布尔值和每一帧的图像old_gray = cv2.cvtColor(old_frame,cv2.COLOR_BGR2GRAY)  # 将第一帧转换为灰度图

2、特征检测

# 定义特征点检测参数feature_params = dict(maxCorners=100,  # 最大角点数量,特征点                    qualityLevel = 0.3,   # 角点质量的阚值                    minDistance = 7)    # 两个特征点最小欧式距离,用于分散角点# 对第一帧画面进行特征检测p0 = cv2.goodFeaturesToTrack(old_gray,mask=None,**feature_params)   # **:关键字参数解包,用于将字典解包为关键字参数,# 创建一个与给定数组大小和数据类型都相同的全0的新的数组,将其当做掩膜mask = np.zeros_like(old_frame)#定义Lucas-Kanade光流参数lk_params = dict(winSize=(15,15),  # 窗口大小为15*15                maxLevel=2)   # 金字塔层数为2

3、处理每一帧画面

# 主循环,处理视频的每一帧while (True):  # 定义一个死循环    ret,frame = cap.read()   # 上述已经读取了第一帧画面,再次读取会接着第二帧进行读取    if not ret:  # 检查是否成功读取到        break    frame_gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)  # 转换为灰度图    # calcOpticalFlowPyrLK在图像序列中跟踪特征点的运动,计算前一帧old_gray特征点p0在当前帧frame_gray中的新位置p1    p1,st,err = cv2.calcOpticalFlowPyrLK(old_gray,frame_gray,p0,None,**lk_params)    # p1 特征点新坐标    # st 状态数组,表示每个特征点是否被成功跟踪,1表示成功,0表示失败    # err 错误数组,包含每个特征点的跟踪误差,误差与匹配质量有关    # 选择好的点(状态为1的点)    good_new = p1[st == 1]    good_old = p0[st == 1]    # 绘制轨迹    for i,(new,old) in enumerate(zip(good_new,good_old)):  # 将新的特征点和旧的特征点进行打包,因为有很多特针点,所以使用enumerate将其转变成可迭代对象,返回索引和值        a,b = new.ravel()   # 获取新点的坐标(a,b), 或者使用[a,b]= new,ravel()将多维数组展平成一维数组,一维视图,返回一维数组        c,d = old.ravel()   # 获取旧点的坐标        a,b,c,d = int(a),int(b),int(c),int(d)  # 将数值转换为整数        # 在掩模上给制线段,连接新点和旧点        mask = cv2.line(mask,(a,b),(c,d),color[i].tolist(),2)  # 绘制线,在mask图像上绘制从点(a,b)到(c,d)的线,颜色为上述定义的,每个特征点的颜色不同        cv2.imshow( 'mask', mask)    img = cv2.add(frame, mask)  # 使用add叠加图像,将mask图像叠加到当前帧frame上    cv2.imshow('frame', img)  # 显示结果图像    # 等待150ms,检测是否按下了Esc键(键码为27)    k = cv2.waitKey(150) & 0xff    if k == 27:  # 按下ESC键,退出循环        break    # 更新旧灰度图和旧特征点    old_gray = frame_gray.copy()  # 每当绘制完当前帧与上一帧的图像后将当前帧的副本赋值给上一帧使其进入下一个循环    # 将当前帧的特征点的新位置赋值给p0,重新整理特征点为适合下次计算的形状    p0 = good_new.reshape(-1,1,2)  # 将当前帧关键点的坐标形状更改为3维,-1表示自动判断维度大小,1,2表示一行两列
        运行结果:

4、释放资源

# 无制表符cv2.destroyAllWindows()   # 关闭所有页面cap.release()  # 释放摄像头资源

5、完整代码

import cv2import numpy as np# 打开视频文件cap = cv2.VideoCapture('test.avi')color = np.random.randint(0,255,(100,3))  # 生成随机整数数组,值范围为0-255,格式为100*3,以此充当颜色用来绘制轨迹,此处的值为矩阵类型ret,old_frame = cap.read()   # 读取视频的di一帧画面,返回读取状态布尔值和每一帧的图像old_gray = cv2.cvtColor(old_frame,cv2.COLOR_BGR2GRAY)  # 将第一帧转换为灰度图# 定义特征点检测参数feature_params = dict(maxCorners=100,  # 最大角点数量,特征点                    qualityLevel = 0.3,   # 角点质量的阚值                    minDistance = 7)    # 两个特征点最小欧式距离,用于分散角点# 对第一帧画面进行特征检测p0 = cv2.goodFeaturesToTrack(old_gray,mask=None,**feature_params)   # **:关键字参数解包,用于将字典解包为关键字参数,# 创建一个与给定数组大小和数据类型都相同的全0的新的数组,将其当做掩膜mask = np.zeros_like(old_frame)#定义Lucas-Kanade光流参数lk_params = dict(winSize=(15,15),  # 窗口大小为15*15                maxLevel=2)   # 金字塔层数为2# 主循环,处理视频的每一帧while (True):  # 定义一个死循环    ret,frame = cap.read()   # 上述已经读取了第一帧画面,再次读取会接着第二帧进行读取    if not ret:  # 检查是否成功读取到        break    frame_gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)  # 转换为灰度图    # calcOpticalFlowPyrLK在图像序列中跟踪特征点的运动,计算前一帧old_gray特征点p0在当前帧frame_gray中的新位置p1    p1,st,err = cv2.calcOpticalFlowPyrLK(old_gray,frame_gray,p0,None,**lk_params)    # p1 特征点新坐标    # st 状态数组,表示每个特征点是否被成功跟踪,1表示成功,0表示失败    # err 错误数组,包含每个特征点的跟踪误差,误差与匹配质量有关    # 选择好的点(状态为1的点)    good_new = p1[st == 1]    good_old = p0[st == 1]    # 绘制轨迹    for i,(new,old) in enumerate(zip(good_new,good_old)):  # 将新的特征点和旧的特征点进行打包,因为有很多特针点,所以使用enumerate将其转变成可迭代对象,返回索引和值        a,b = new.ravel()   # 获取新点的坐标(a,b), 或者使用[a,b]= new,ravel()将多维数组展平成一维数组,一维视图,返回一维数组        c,d = old.ravel()   # 获取旧点的坐标        a,b,c,d = int(a),int(b),int(c),int(d)  # 将数值转换为整数        # 在掩模上给制线段,连接新点和旧点        mask = cv2.line(mask,(a,b),(c,d),color[i].tolist(),2)  # 绘制线,在mask图像上绘制从点(a,b)到(c,d)的线,颜色为上述定义的,每个特征点的颜色不同        cv2.imshow( 'mask', mask)    img = cv2.add(frame, mask)  # 使用add叠加图像,将mask图像叠加到当前帧frame上    cv2.imshow('frame', img)  # 显示结果图像    # 等待150ms,检测是否按下了Esc键(键码为27)    k = cv2.waitKey(150) & 0xff    if k == 27:  # 按下ESC键,退出循环        break    # 更新旧灰度图和旧特征点    old_gray = frame_gray.copy()  # 每当绘制完当前帧与上一帧的图像后将当前帧的副本赋值给上一帧使其进入下一个循环    # 将当前帧的特征点的新位置赋值给p0,重新整理特征点为适合下次计算的形状    p0 = good_new.reshape(-1,1,2)  # 将当前帧关键点的坐标形状更改为3维,-1表示自动判断维度大小,1,2表示一行两列# 释放资源cv2.destroyAllWindows()   # 关闭所有页面cap.release()  # 释放摄像头资源

2025-06-24 12:33:55

相关新闻

清华大学新闻中心版权所有,清华大学新闻网编辑部维护,电子信箱: news@tsinghua.edu.cn
Copyright 2001-2020 news.tsinghua.edu.cn. All rights reserved.