飞道的博客

图像识别之KNN算法的理解与应用

406人阅读  评论(0)

KNN是最经典的机器学习算法之一。该算法既可以用于数据分类,也可以用于数据回归预测,其核心思路是在训练样本中寻找距离最接近待分类样本的K个样本。然后,如果目的是分类,则统计这K个样本中的各个类别数量,数量最多的类别即认为是待分类样本的类别;如果目的是回归预测,则计算这K个样本的平均值作为预测值。

图像识别,本质上也是数据分类,也即把每一张图像归类,因此KNN算法可以应用于图像识别。本文首先讲解KNN算法的原理,接着讲解Opencv中的KNN算法模块,然后再使用Opencv中的KNN算法模块对手写数字图像进行识别。

KNN算法主要包含以下几个要素:

1. 训练样本。训练样本就是预先准备好的数据集,该数据集必须包含所有可能的数据类别,而且数据集中的每个数据都有一个唯一的标签,用来标识该数据所属的类别。比如,待分类的图像有可能属于的类别包括鸟、狗、马、飞机、班车这5种类别,给5种类别依次编号0、1、2、3、4,那么训练样本必须包含这5种类别的图像,且训练样本中每一张图像都有一个范围在0~4之间的类别标签。

2. 待分类样本。也就是待分类的数据,比如一张图像,把该图像输入KNN算法之中,KNN算法对其进行分类,然后输出类别标签。

3. 样本距离。通常每一个样本都是一维向量的形式(二维、三维、多维数据都可以转换为一维向量)。衡量一维向量之间的距离,通常有欧式距离,余弦距离、汉明距离等,其中欧式距离又是最常用的距离度量方法。

假设样本A和样本B:

A=[a0 a1 a2 ... an]

B=[b0 b1 b2 ... bn]

那么样本A与样本B的欧式距离为:

4. K值。K值决定寻找训练样本中最接近待分类样本的样本个数,比如K值取5,那么对于每一个待分类样本,都从训练样本中寻找5个与其距离最接近的样本,然后统计这5个样本中各个类别的数量,数量最多的类别则认为是待分类样本的类别。K值没有固定的取值,通常在一开始取5~10,然后多尝试几次,根据识别的正确率来调整K值。

举一个简单的例子来说明KNN的分类思路,如下图所示,样本0为待分类样本,其可能的分类为矩形、圆形、菱形,取K=6,然后在所有训练样本中寻找与样本0最接近的6个样本:样本1、样本2、样本3、样本4、样本5、样本6。然后对这6个样本进行分类统计(每个训练样本是有标签的,所以知道其类别):3个矩形、2个菱形、1个圆形。矩形的数量最多,因此判定样本0为矩形。

讲完原理,下面我们开始讲Opencv3.4.1中KNN算法模块的应用。Opencv3.4.1中已经实现了该算法,并封装成类,我们只需要调用类的相关接口,并且把输入参数传入接口即可得到分类结果。调用接口的步骤如下:

1. 创建KNN类并设置参数。


   
  1.    const  int K =  3; //取K值为3
  2.    //创建KNN类
  3.   cv::Ptr<cv::ml::KNearest> knn = cv::ml::KNearest::create();
  4. knn->setDefaultK(K); //设置KNN类的K值
  5. knn->setIsClassifier( true); //设置KNN用于分类
  6. knn->setAlgorithmType(cv::ml::KNearest::BRUTE_FORCE); //设置寻找距离最近的K个样本的方式为遍历所有训练样本,也即暴力破解的方式

2. 输入训练数据及其标签:


   
  1. Mat traindata; //训练数据的矩阵
  2. Mat trainlabel; //训练数据的标签
  3. traindata.push_back(srcimage);  //srcimage为Mat类型的1行n列的一维矩阵,将该矩阵保存到训练矩阵中
  4. trainlabel.push_back(i);      //i为srcimage的标签,同时将i保存到标签矩阵中
  5. traindata.convertTo(traindata, CV_32F); //重要:训练矩阵必须是浮点型数据

3. 将训练数据与标签输入KNN模块中进行训练:

knn->train(traindata, cv::ml::ROW_SAMPLE, trainlabel);

4. 训练之后,开始对待分类图像进行分类:


   
  1. Mat result;
  2. //testdata为待分类图像,被转换为1行n列的浮点型数据
  3. //response为最终得到的分类标签
  4. int  response =  knn->findNearest(testdata, K, result); 

下面,我们将Opencv的KNN模块应用于手写数字识别。在Opencv3.4.1的samples/data目录有一张1000*2000的手写数字图像,该图像包含了5000个20*20的小图像块,每个小图像块就是一个手写数字,如下图所示:

首先,我们写个程序把上图分割成5000个20*20的图像块。把相同的数字保存到同名文件夹中,比如数字0的小图像块保存到文件夹0中、数字1的小图像块保存到文件夹1中、数字2的小图像块保存到文件夹2中。

分割图像块的代码如下:


   
  1. void read_digital_img(void)
  2. {
  3. char ad[ 128] = { 0 };
  4. int filename = 0, filenum = 0;
  5. Mat img = imread( "digits.png");
  6. Mat gray;
  7. cvtColor(img, gray, CV_BGR2GRAY);
  8. int b = 20;
  9. int m = gray.rows / b; //原图为1000*2000
  10. int n = gray.cols / b; //裁剪为5000个20*20的小图块
  11. for ( int i = 0; i < m; i++)
  12. {
  13. int offsetRow = i*b; //行上的偏移量
  14.      if (i %  5 ==  0 && i !=  0)    //原图中每5行存储相同数字,因此过了5行要递增文件名
  15. {
  16.       filename++;    //递增文件名
  17. filenum = 0; //清零文件计数器
  18. }
  19. for ( int j = 0; j < n; j++)
  20. {
  21. int offsetCol = j*b; //列上的偏移量
  22. sprintf_s(ad, "%d/%d.jpg", filename, filenum++);
  23. //截取20*20的小块
  24. Mat tmp;
  25. gray(Range(offsetRow, offsetRow + b), Range(offsetCol, offsetCol + b)).copyTo(tmp);
  26.       imwrite(ad, tmp);    //将对应的数字图像块保存到对应名字的文件夹中
  27. }
  28. }
  29. }

运行上述代码之后,从0~9的文件夹都保存有对应数字的小图像块啦~不同数字的小图像块如下图所示。这时我们有0~9这10个文件夹,每个文件夹都有对应数字的500张小图像块,比如文件夹0中有500张不同手写风格的0数字图像。

下面我们使用每个文件夹下前400张图像作为训练图像,对KNN模型进行训练,然后使用该KNN模型对每个文件夹下后100张图像进行分类,并统计分类结果的准确率。

上代码:


   
  1. void KNN_test(void)
  2. {
  3. char ad[ 128] = { 0 };
  4. int testnum = 0, truenum = 0;
  5.    const  int K =  3;    //设置K值为3
  6. cv::Ptr<cv::ml::KNearest> knn = cv::ml::KNearest::create(); //创建KNN类
  7. knn->setDefaultK(K);
  8. knn->setIsClassifier( true); //设置KNN用于分类
  9. knn->setAlgorithmType(cv::ml::KNearest::BRUTE_FORCE); //设置寻找距离最近的K个样本的方式为遍历所有训练样本,也即暴力破解的方式
  10. Mat traindata, trainlabel;
  11. for ( int i = 0; i < 10; i++)
  12. {
  13. for ( int j = 0; j < 400; j++)
  14. {
  15. sprintf_s(ad, "%d/%d.jpg", i, j);
  16. Mat srcimage = imread(ad);
  17.        //把二维数据转换为一维数据
  18. srcimage = srcimage.reshape( 1, 1); //Mat Mat::reshape(int cn, int rows = 0),cn表示通道数,为0则通道不变,rows表示矩阵行数
  19. traindata.push_back(srcimage); //srcimage为Mat类型的1行n列的一维矩阵,将该矩阵保存到训练矩阵中
  20. trainlabel.push_back(i); //i为srcimage的标签,同时将i保存到标签矩阵中
  21. }
  22. }
  23. traindata.convertTo(traindata, CV_32F); //重要:训练矩阵必须是浮点型数据
  24. knn->train(traindata, cv::ml::ROW_SAMPLE, trainlabel); //导入训练数据和标签
  25.    for ( int i =  0; i <  10; i++)    //标签
  26. {
  27. for ( int j = 400; j < 500; j++)
  28. {
  29. testnum++; //统计总的分类次数
  30. sprintf_s(ad, "%d/%d.jpg", i, j);
  31. Mat testdata = imread(ad);
  32. testdata = testdata.reshape( 1, 1); //将二维数据转换成一维数据
  33. testdata.convertTo(testdata, CV_32F); //将数据转换成浮点数据
  34. Mat result;
  35. int response = knn->findNearest(testdata, K, result); //寻找K个最邻近样本,并统计K个样本的分类数量,返回数量最多的分类的标签
  36. if (response == i) //如果得到的分类标签与真实标签一致,则分类正确
  37. {
  38. truenum++;
  39.       }
  40. }
  41. }
  42. cout << "测试总数" << testnum << endl;
  43. cout << "正确分类数" << truenum << endl;
  44. cout << "准确率:" << ( float)truenum / testnum * 100 << "%" << endl;
  45. }

运行上述代码,得到结果如下,可以看到,KNN算法对手写数字图像的识别(分类)的准确率还是比较高的。

由于手写数字图像包含的特征比较简单,因此KNN的识别准确率很高。实际上,对于一些复杂的图像,KNN的识别准确率是很低的。在下一篇文章中,我们将尝试使用KNN算法来识别更复杂的图像,并想办法提高识别的准确率,敬请期待!

尊敬的读者,您的关注是我继续更新的强大动力,如果您对我写的东西感兴趣,请长按并识别以下二维码,关注我的公众号,多谢多谢!


转载:https://blog.csdn.net/shandianfengfan/article/details/109665320
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场