Python OpenCV实战之与机器学习的碰撞

目录
  • 0. 前言
  • 1. 机器学习简介
    • 1.1 监督学习
    • 1.2 无监督学习
    • 1.3 半监督学习
  • 2. K均值 (K-Means) 聚类
    • 2.1 K-Means 聚类示例
  • 3. K最近邻
    • 3.1 K最近邻示例
  • 4. 支持向量机
    • 4.1 支持向量机示例
  • 小结

0. 前言

机器学习是人工智能的子集,它为计算机以及其它具有计算能力的系统提供自动预测或决策的能力,诸如虚拟助理、车牌识别系统、智能推荐系统等机器学习应用程序给我们的日常生活带来了便捷的体验。机器学习的蓬勃发展,得益于以下三个关键因素:1) 海量数据集;2) 算法的快速发展;3) 计算机硬件的发展。在本文中,我们将学习 OpenCV 提供的常见机器学习算法和技术,用于解决计算机视觉项目中的实际问题,例如分类和回归问题。

1. 机器学习简介

机器学习是利用计算机编程,从历史数据中学习以对新数据进行预测的过程。机器学习可以分为三类——监督学习、无监督学习和半监督学习,这些技术所包含的算法如下图所示:

1.1 监督学习

监督学习使用的样本都有相应的期望输出值(或称为样本标签),由于我们知道每个训练数据的正确标签,因此监督学习可以根据预测与相应的期望输出之间的差异来校正这些预测。基于这些校准,算法可以从错误中学习以调整其内部参数,以拟合出最接近样本集合与相应的期望输出之间的函数。

监督学习问题可以进一步分为以下分类和回归:

  1. 分类:当输出变量是类别时,可以认为该问题是分类问题。在分类问题中,算法将输入映射到输出标签。
  2. 回归:当输出变量为实数时,在回归问题中,算法将输入映射到连续的实数输出。

在监督学习中,主要需要考虑以下问题:

偏差-方差的权衡 (Bias-variance trade-off):模型对数据欠拟合的模型具有高偏差,而对数据过拟合的模型具有高方差:

偏差是由于学习算法中的错误假设而产生的误差,可以定义为模型的预测与期望的正确值之间的差异。具有高偏差的模型无法找到数据中的所有模式(欠拟合),因此它不能很好地拟合训练集,也不会很好地拟合测试集。

方差定义为算法学习错误事物的倾向,其会同时拟合数据中的真实信号以及噪声。因此,具有高方差的模型(过拟合)非常适合训练集,但无法泛化到测试集,因为它学习了数据中的噪声。

模型复杂度和训练数据量:模型复杂度是指机器学习算法试图的复杂度。模型的复杂度通常由训练数据决定:例如,如果使用少量数据来训练模型,那么低复杂度的模型更可取,这是因为高复杂度的模型会导致过拟合。

输入空间的维度:在处理高维空间数据时,学习可能非常困难,因为会有许多额外的特征会混淆学习过程,也称为维度灾难。因此,在处理高维空间数据时,常见的方法是修改学习算法,使其具有高偏差和低方差。

1.2 无监督学习

在无监督学习中,样本集合缺少每个样本对应的输出值(样本集合没有被标记、分类或归类)。无监督学习的目标是对样本集合中的结构或分布进行建模和推断。因此,在无监督学习中,算法利用数据中进行推断,并试图揭示其中的隐藏分布信息。聚类和降维是无监督学习中最常用的两种算法。

1.3 半监督学习

半监督学习可以看作是监督学习和无监督学习之间的折衷,因为它同时使用标记和未标记的数据进行训练。许多现实世界的机器学习问题可以归类为半监督,因为正确标记所有数据可能非常困难或耗时,而未标记的数据更容易收集。

2. K均值 (K-Means) 聚类

OpenCV 提供了 cv2.kmeans() 函数实现 K-Means 聚类算法,该算法找到簇的中心并将输入样本分组到簇周围。

K-Means 聚类算法的目标是将 n 个样本划分(聚类)为 K 个簇,其中每个样本都属于具有最近均值的簇,cv2.kmeans() 函数用法如下:

retval, bestLabels, centers=cv.kmeans(data, K, bestLabels, criteria, attempts, flags[, centers])

data 表示用于聚类的输入数据,它是 np.float32 数据类型,每一列包含一个特征;K 指定最后需要的簇数;算法终止标准由 criteria 参数指定,该参数设置最大迭代次数或所需精度,当满足这些标准时,算法终止。criteria 是具有三个参数 (type, max_item, epsilon) 的元组:

criteria 参数的标准示例如下:

criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 20, 1.0)

上述语句表示,最大迭代次数设置为 20 (max_iterm = 20),所需精度为 1.0 (epsilon = 1.0)。

attempts 参数指定使用不同的初始标签执行算法的次数。flags 参数指定初始化簇中心的方法,其可选值包括:cv2.KMEANS_RANDOM_CENTERS 每次选择随机初始化簇中心;cv2.KMEANS_PP_CENTERS 使用 Arthur 等人提出的 K-Means++ 中心初始化。

cv2.kmeans() 返回以下内容:

返回值 解释
bestLabels 整数数组,用于存储每个样本的簇索引
center 包含每个簇中心的数组
compactness 每个点到其簇中心的距离平方和

2.1 K-Means 聚类示例

作为示例,我们将使用 K-Means 聚类算法对一组 2D 点进行聚类。这组 2D 点由 240 个点组成,使用两个特征进行了描述:

# 2D数据
data = np.float32(np.vstack((np.random.randint(0, 50, (80, 2)), np.random.randint(40, 90, (80, 2)), np.random.randint(70, 110, (80, 2)))))
# 可视化
plt.scatter(data[:, 0], data[:, 1], c='c')
plt.show()

如上图所示,数据将作为聚类算法的输入,每个数据点有两个特征对应于 (x, y) 坐标,例如,这些坐标可以表示 240 人人的身高和体重,而 K-Means 聚类算法用于决定衣服的尺寸(例如 K=3,则相应表示尺寸为 S、M 或 L)。

接下来,我们将数据划分为 2 个簇。第一步是定义算法终止标准,将最大迭代次数设置为 20 (max_iterm = 20),epsilon 设置为 1.0 (epsilon = 1.0):

criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 20, 1.0)

然后调用 cv2.kmeans() 函数应用 K-Means 算法:

ret, label, center = cv2.kmeans(data, 2, None, criteria, 10, cv2.KMEANS_RANDOM_CENTERS)

由于返回值 label 存储每个样本的聚类索引,因此,我们可以根据 label 将数据拆分为不同的集群:

A = data[label.ravel() == 0]
B = data[label.ravel() == 1]

最后绘制 A 和 B 以及聚类前后的数据,以便更好地理解聚类过程:

fig = plt.figure(figsize=(12, 6))
plt.suptitle("K-means clustering algorithm", fontsize=14,
fontweight='bold')
# 绘制原始数据
ax = plt.subplot(1, 2, 1)
plt.scatter(data[:, 0], data[:, 1], c='c')
plt.title("data")
# 绘制聚类后的数据和簇中心
ax = plt.subplot(1, 2, 2)
plt.scatter(A[:, 0], A[:, 1], c='b')
plt.scatter(B[:, 0], B[:, 1], c='g')
plt.scatter(center[:, 0], center[:, 1], s=100, c='m', marker='s')
plt.title("clustered data and centroids (K = 2)")
plt.show()

接下来,我们修改参数 K 进行聚类并进行相应的可视化。例如需要将数据分为三个簇,则首先应用相同的过程对数据进行聚类,只需要修改参数 (K=3) 将数据分为 3 个簇:

ret, label, center = cv2.kmeans(data, 3, None, criteria, 10, cv2.KMEANS_RANDOM_CENTERS)

然后,当使用标签输出分离数据时,将数据分为三组:

A = data[label.ravel() == 0]
B = data[label.ravel() == 1]
C = data[label.ravel() == 2]

最后一步是显示 A 、 B 和 C ,以及簇中心和训练数据:

fig = plt.figure(figsize=(12, 6))
plt.suptitle("K-means clustering algorithm", fontsize=14,
fontweight='bold')
# 绘制原始数据
ax = plt.subplot(1, 2, 1)
plt.scatter(data[:, 0], data[:, 1], c='c')
plt.title("data")
# 绘制聚类后的数据和簇中心
ax = plt.subplot(1, 2, 2)
plt.scatter(A[:, 0], A[:, 1], c='b')
plt.scatter(B[:, 0], B[:, 1], c='g')
plt.scatter(C[:, 0], C[:, 1], c='r')
plt.scatter(center[:, 0], center[:, 1], s=100, c='m', marker='s')
plt.title("clustered data and centroids (K = 3)")
plt.show()

我们也可以将簇数设置为 4,观察算法运行结果:

ret, label, center = cv2.kmeans(data, 4, None, criteria, 10, cv2.KMEANS_RANDOM_CENTERS)

3. K最近邻

k-最近邻 (k-nearest neighbours, kNN) 是监督学习中最简单的算法之一,kNN 可用于分类和回归问题。在训练阶段,kNN 存储所有训练样本的特征向量和类别标签。在测试阶段,将未标记的向量分类为距离最近的 k 个训练样本中出现频率最高的类标签,其中 k 是用户定义的常数:

如上图所示,如果 k = 5,则绿色圆圈(未标记的测试样本)将被归类为三角形,因为离其最近的 5 个样本中有 3 个三角形但只有 1 个菱形;如果 k = 9,则绿色圆圈将被归类为菱形,因为离其最近的 9 个样本中有 5 个菱形但只有 4 个三角形。

在 OpenCV 中,使用 kNN 分类器首先需要使用 cv2.ml.KNearest_create() 创建 kNN 分类器,然后提供数据和标签以使用 train() 方法训练 kNN分类器。最后,使用 findNearest() 方法用于查找测试样本邻居,使用如下:

retval, results, neighborResponses, dist=cv2.ml_KNearest.findNearest(samples, k[, results[, neighborResponses[, dist]]])

其中,samples 是输入样本,k 设置为最近邻居的个数,results 存储每个输入样本的预测值,neighborResponses 存储对应的邻居,dist 存储输入样本到相应邻居的距离。

3.1 K最近邻示例

接下来,为了演示 kNN 算法,首先随机创建一组点并分配一个标签 (0 或 1)。标签 0 将代表红色三角形,而标签 1 将代表蓝色方块;然后,使用 kNN 算法根据 k 个最近邻对样本点进行分类。

第一步是创建具有相应标签的点集和要分类的样本点:

# 点集由50个点组成
data = np.random.randint(0, 100, (50, 2)).astype(np.float32)
# 为1每个点创建标签 (0:红色, 1:蓝色)
labels = np.random.randint(0, 2, (50, 1)).astype(np.float32)
# 创建要分类的样本点
sample = np.random.randint(0, 100, (1, 2)).astype(np.float32)

接下来,创建 kNN 分类器,训练分类器,并找到要分类样本点的 k 个最近邻居:

# 创建 kNN 分类器
knn = cv2.ml.KNearest_create()
# 训练 kNN 分类器
knn.train(data, cv2.ml.ROW_SAMPLE, labels)
# 找到要分类样本点的 k 个最近邻居
k = 3
ret, results, neighbours, dist = knn.findNearest(sample, k)
# 打印结果
print("result: {}".format(results))
print("neighbours: {}".format(neighbours))
print("distance: {}".format(dist))

# 可视化
fig = plt.figure(figsize=(8, 6))
red_triangles = data[labels.ravel() == 0]
plt.scatter(red_triangles[:, 0], red_triangles[:, 1], 200, 'r', '^')
blue_squares = data[labels.ravel() == 1]
plt.scatter(blue_squares[:, 0], blue_squares[:, 1], 200, 'b', 's')
plt.scatter(sample[:, 0], sample[:, 1], 200, 'g', 'o')
plt.show()

获得结果如下所示:

result: [[0.]]

neighbours: [[0. 0. 1.]]

distance: [[13. 40. 65.]]

因此,绿点被归类为红色三角形,可视化效果如下所示:

4. 支持向量机

支持向量机 (Support Vector Machine, SVM) 是一种监督学习技术,它通过根据指定的类对训练数据进行最佳分离,从而在高维空间中构建一个或一组超平面。

已二维平面为例,在下图中看到,其中绿线是能够将两个类分开的最佳超平面,因为其到两个类中的最近元素的距离是最大的:

上图第一种情况下,决策边界是一条线,而在第二种情况下,决策边界是一条圆形曲线,虚线代表其他决策边界,但它们并非最好地将两个类分开的决策边界。

OpenCV 中的 SVM 实现基于 LIBSVM,使用 cv2.ml.SVM_create() 函数创建空模型,然后为模型分配主要参数:

svmType :设置 SVM 类型,可选值如下:

  • SVM_C_SVC:C CC-支持向量分类,可用于 n 分类 (n≥2) 问题
  • NU_SVC: v vv-支持向量分类
  • ONE_CLASS: 分布估计(单类 SVM)
  • EPS_SVR: ϵ \epsilonϵ-支持向量回归
  • NU_SVR: v vv-支持向量回归

kernelType :这设置了 SVM 的核类型,可选值如下:

  • LINEAR : 线性核
  • POLY :多项式核
  • RBF : Radial Basis Function (RBF),大多数情况下是不错的选择
  • SIGMOID : Sigmoid 核
  • CHI2 : 指数 Chi2 核,类似于 RBF 核
  • INTER : 直方图交集核;运行速度较快的核

degree : 核函数的 degree 参数 (用于 POLY 核)

gamma :核函数的 γ \gammaγ 参数(用于 POLY/RBF/SIGMOID/CHI2 核)

coef0 : 核函数的 coef0 参数 (用于 POLY/SIGMOID 核)

Cvalue : SVM 优化问题的 C 参数 (用于 C_SVC/EPS_SVR/NU_SVR 类型)

nu : SVM 优化问题的 v vv 参数 (用于 NU_SVC/ONE_CLASS/NU_SVR 类型)

p : SVM 优化问题的 ϵ \epsilonϵ 参数 (用于 EPS_SVR 类型)

classWeights : C_SVC 问题中的可选权重,分配给特定的类

termCrit :迭代 SVM 训练过程的终止标准

核函数选择通常取决于数据集,通常可以首先使用 RBF 核进行测试,因为该核将样本非线性地映射到更高维空间,可以方便的处理类标签和属性之间的关系是非线性的情况。

默认构造函数使用以下值初始化 SVM:

svmType: C_SVC, kernelType: RBF, degree: 0, gamma: 1, coef0: 0, C: 1, nu: 0, p: 0, classWeights: 0, termCrit: TermCriteria(MAX_ITER+EPS, 1000, FLT_EPSILON )

4.1 支持向量机示例

为了解如何在 OpenCV 中使用 SVM,首先需要创建训练数据和标签:

labels = np.array([1, 1, -1, -1, -1])
data = np.matrix([[800, 40], [850, 400], [500, 10], [550, 300], [450, 600]], dtype=np.float32)

以上代码创建了 5 个点,前 2 个点被指定为 1 类,而另外 3 个被指定为 -1 类。接下来使用 svm_init() 函数初始化 SVM 模型:

def svm_init(C=12.5, gamma=0.50625):
    """ 创建 SVM 模型并为其分配主要参数,返回模型 """
    model = cv2.ml.SVM_create()
    model.setGamma(gamma)
    model.setC(C)
    model.setKernel(cv2.ml.SVM_LINEAR)
    model.setType(cv2.ml.SVM_C_SVC)
    model.setTermCriteria((cv2.TERM_CRITERIA_MAX_ITER, 100, 1e-6))
    return model
# 初始化 SVM 模型
svm_model = svm_init(C=12.5, gamma=0.50625)

创建的 SVM 核类型设置为 LINEAR,SVM 的类型设置为 C_SVC。

然后,编写 svm_train() 函数训练 SVM 模型:

def svm_train(model, samples, responses):
    # 使用 samples 和 responses 训练模型
    model.train(samples, cv2.ml.ROW_SAMPLE, responses)
    return model
# 训练 SVM
svm_train(svm_model, data, labels)

然后创建一个图像,并绘制 SVM 响应:

def show_svm_response(model, image):

    colors = {1: (255, 255, 0), -1: (0, 255, 255)}

    for i in range(image.shape[0]):
        for j in range(image.shape[1]):
            sample = np.matrix([[j, i]], dtype=np.float32)
            response = svm_predict(model, sample)

            image[i, j] = colors[response.item(0)]

    cv2.circle(image, (800, 40), 10, (255, 0, 0), -1)
    cv2.circle(image, (850, 400), 10, (255, 0, 0), -1)

    cv2.circle(image, (500, 10), 10, (0, 255, 0), -1)
    cv2.circle(image, (550, 300), 10, (0, 255, 0), -1)
    cv2.circle(image, (450, 600), 10, (0, 255, 0), -1)

    support_vectors = model.getUncompressedSupportVectors()
    for i in range(support_vectors.shape[0]):
        cv2.circle(image, (support_vectors[i, 0], support_vectors[i, 1]), 15, (0, 0, 255), 6)
# 创建图像
img_output = np.zeros((640, 1200, 3), dtype="uint8")
# 显示 SVM 响应
show_svm_response(svm_model, img_output)

如上图所示,SVM 使用训练数据进行了训练,可用于对图像中所有点进行分类。SVM 将图像划分为黄色和青色区域,可以看到两个区域之间的边界对应于两个类之间的最佳间隔,因为到两个类中最近元素的距离最大,支持向量用红线边框显示。

小结

在本文中,首先介绍机器学习的概念及其相关话题,然后总结了机器学习中的三种主要方法,并总结了分类、回归和聚类问题的三种最常见的技术。最后,我们通过示例了解了常用机器学习算法,具体而言,包括 K-Means 聚类算法、kNN 算法和 SVM 算法。 

以上就是Python OpenCV实战之与机器学习的碰撞的详细内容,更多关于OpenCV 机器学习的资料请关注我们其它相关文章!

(0)

相关推荐

  • Python机器学习实战之k-近邻算法的实现

    目录 K-近邻算法概述 工作原理 实施KNN算法 示例:手写识别系统 K-近邻算法概述 简单地说, k-近邻算法采用测量不同特征值之间的距离方法进行分类. k-近邻算法 优点:精度高.对异常值不敏感.无数据输入假定. 缺点: 计算复杂度高.空间复杂度高. 适用数据范围: 数值型和标称型. 工作原理 存在一个样本数据集合, 也称作训练样本集, 并且样本集中每个数据都存在标签, 知道样本集中每一数据与所属分类的对应关系. 输入没有标签的新数据后, 将新数据的每个特征与样本集中数据对应的特征进行比较,

  • Python+OpenCV实战之利用 K-Means 聚类进行色彩量化

    目录 前言 利用 K-Means 聚类进行色彩量化 完整代码 显示色彩量化后的色彩分布 前言 K-Means 聚类算法的目标是将 n 个样本划分(聚类)为 K 个簇,在博文<OpenCV与机器学习的碰撞>中,我们已经学习利用 OpenCV 提供了 cv2.kmeans() 函数实现 K-Means 聚类算法,该算法通过找到簇的中心并将输入样本分组到簇周围,同时通过简单的示例了解了 K-Means 算法的用法.在本文中,我们将学习如何利用 K-Means 聚类进行色彩量化,以减少图像中颜色数量.

  • 详解python 支持向量机(SVM)算法

    相比于逻辑回归,在很多情况下,SVM算法能够对数据计算从而产生更好的精度.而传统的SVM只能适用于二分类操作,不过却可以通过核技巧(核函数),使得SVM可以应用于多分类的任务中. 本篇文章只是介绍SVM的原理以及核技巧究竟是怎么一回事,最后会介绍sklearn svm各个参数作用和一个demo实战的内容,尽量通俗易懂.至于公式推导方面,网上关于这方面的文章太多了,这里就不多进行展开了~ 1.SVM简介 支持向量机,能在N维平面中,找到最明显得对数据进行分类的一个超平面!看下面这幅图: 如上图中,

  • OpenCV机器学习MeanShift算法笔记分享

    MeanShift算法 Mean shift 是一种机器学习算法,并不仅仅局限于图像上的应用.关于 Mean shift 算法介绍的书和文章很多,这里就不多介绍了.简单的说,Meanshift 算法是一种迭代算法,需要给一个初始的区域,然后这个算法会反复的调整这个区域,使得这个区域最吻合我们期望的特征. OpenCV 中有两处用到了 Mean Shift .分别是: pyrMeanShiftFiltering meanShift 这里只介绍第二个函数的使用方法. 我们的原始图像还是上次那个向日葵

  • Python OpenCV实战之与机器学习的碰撞

    目录 0. 前言 1. 机器学习简介 1.1 监督学习 1.2 无监督学习 1.3 半监督学习 2. K均值 (K-Means) 聚类 2.1 K-Means 聚类示例 3. K最近邻 3.1 K最近邻示例 4. 支持向量机 4.1 支持向量机示例 小结 0. 前言 机器学习是人工智能的子集,它为计算机以及其它具有计算能力的系统提供自动预测或决策的能力,诸如虚拟助理.车牌识别系统.智能推荐系统等机器学习应用程序给我们的日常生活带来了便捷的体验.机器学习的蓬勃发展,得益于以下三个关键因素:1) 海

  • Python+Opencv实战之人脸追踪详解

    目录 前言 人脸追踪技术简介 使用基于 dlib DCF 的跟踪器进行人脸跟踪 使用基于 dlib DCF 的跟踪器进行对象跟踪 小结 前言 人脸处理是人工智能中的一个热门话题,人脸处理可以使用计算机视觉算法从人脸中自动提取大量信息,例如身份.意图和情感:而目标跟踪试图估计目标在整个视频序列中的轨迹,其中只有目标的初始位置是已知的,将这两者进行结合将产生许多有趣的应用.由于外观变化.遮挡.快速运动.运动模糊和比例变化等多种因素,人脸追踪非常具有挑战性. 人脸追踪技术简介 基于判别相关滤波器 (d

  • Python Opencv实战之印章提取的实现

    目录 前言 源码展示 效果展示 前言 这期分享的是使用opencv提取印章,很多时候我们需要电子版的章,所以今天就带大家使用代码提取出来! Photoshop虽然强大,但是奈何小编不会使啊,昨天就有一个小伙伴问我能不能帮忙,这不? PS虽然我不会,但是我会写代码呀!这可难不倒我!安排安排~ (特别提醒:所有爱好设计和喜欢做图的小伙伴们,切记千万不要帮着老板或者朋友PS伪造公章,刑法第280条特别指出,伪造证件印章,是可以追究刑事责任的,违法的事情不要做哦.) 源码展示 import cv2 im

  • Python+OpenCV实战之拖拽虚拟方块的实现

    目录 一.项目效果 二.核心流程 三.代码流程 1. 读取摄像头视频,画矩形 2. 导入mediapipe处理手指坐标 3. 位置计算 完整代码 一.项目效果 学校宿舍今天搬家,累麻了,突然发现展示处理的也很粗糙,就这样吧嘿嘿~~~ 二.核心流程 1.openCV读取视频流.在每一帧图片上画一个矩形. 2.使用mediapipe获取手指关键点坐标. 3.根据手指坐标位置和矩形的坐标位置,判断手指点是否在矩形上,如果在则矩形跟随手指移动. 三.代码流程 环境准备: python: 3.8.8 op

  • Python+OpenCV实战之实现文档扫描

    目录 1.效果展示 2.项目准备 3.代码的讲解与展示 4.项目资源 5.项目总结与评价 1.效果展示 网络摄像头扫描: 图片扫描: 最终扫描保存的图片: (视频) (图片) 2.项目准备 今天的项目文件只需要两个.py文件,其中一个.py文件是已经写好的函数,你将直接使用它,我不会在此多做讲解,因为我们将会在主要的.py文件import 导入它,如果想了解其中函数是如何写的,请自行学习. utlis.py,需要添加的.py文件 import cv2 import numpy as np # T

  • Python Opencv实战之文字检测OCR

    目录 1.相关函数的讲解 2.代码展示 Detecting Words Detecting ONLY Digits 3.问题叙述 4.image_to_data()配置讲解 5.项目拓展 6.总结与评价 1.相关函数的讲解 image_to_data()的输出结果是表格形式,输出变量的类型依旧是字符串. 你会得到一个这样的列表['level', 'page_num', 'block_num', 'par_num', 'line_num', 'word_num', 'left', 'top', '

  • Python OpenCV机器学习之图像识别详解

    目录 背景 一.人脸识别 二.车牌识别 三.DNN图像分类 背景 OpenCV中也提供了一些机器学习的方法,例如DNN:本篇将简单介绍一下机器学习的一些应用,对比传统和前沿的算法,能从其中看出优劣: 一.人脸识别 主要有以下两种实现方法: 1.哈尔(Haar)级联法:专门解决人脸识别而推出的传统算法: 实现步骤: 创建Haar级联器: 导入图片并将其灰度化: 调用函数接口进行人脸识别: 函数原型: detectMultiScale(img,scaleFactor,minNeighbors) sc

  • Python OpenCV基于HSV的颜色分割实现示例

    目录 前言 1.什么是HSV 2.代码实战 2.1 createTrackbar使用方法及步骤 2.2 代码详解 3.总结 前言 一周没有更新博客了,这一周的时间内加强了对机器学习和图像处理的学习.学的有点混乱,有必要记录一下. 深度学习可以解决很多问题,但有时候深度学习和图像处理相结合才能有更好的效果:比如,在进行交通信号灯检测时,用目标检测模型确定信号灯位置后,对信号灯进行颜色分割再识别可大大提高准确率. 机器学习领域中有句话:数据和特征决定了模型的上限,而算法只不过是逼近这个上限而已,所以

  • python opencv之SURF算法示例

    本文介绍了python opencv之SURF算法示例,分享给大家,具体如下: 目标: SURF算法基础 opencv总SURF算法的使用 原理: 上节课使用了SIFT算法,当时这种算法效率不高,需要更快速的算法.在06年有人提出了SURF算法"加速稳定特征",从名字上来看,他是SIFT算法的加速版本. (原文) 在SIFT算法当中使用高斯差分方程(Difference of Gaussian)对高斯拉普拉斯方程( Laplacian of Gaussian)进行近似.然而,SURF使

随机推荐