搜档网
当前位置:搜档网 › opencv标定程序的代码(完全测试好的)

opencv标定程序的代码(完全测试好的)

opencv标定程序的代码(完全测试好的)
opencv标定程序的代码(完全测试好的)

opencv标定程序的代码(完全测试好的)

/*************************************************** ********************转自:

https://www.sodocs.net/doc/ec17913010.html,/BLOG_ARTICLE_201556.HTM非常感谢博主的分享!!!!!

*************************************************** *********************/

这个是我在win32 平台下写的程序,测试完全通过:

不过要注意下面的问题:

(1)opencv库是1.0的,我在vc6.0的平台使用

(2)软件的设置要正确

(3)图片载入的时候,使用的是批处理文件(其实就是建一个txt文件,里面写的和dos下面的操作代码一样的输入)(4)里面现在还有个问题没有解决:在得到角点坐标的时候,cvFindCornerSubPix里面的搜索区域还不明白

(05)下面是我在网上搜的别人的代:测试通过的:

A.基于计算机视觉技术:

https://www.sodocs.net/doc/ec17913010.html,/Upload/2009/2/22/4ca54c82-1ab2-44 e2-a456-7f0d87c24b7a.rarB.C.下面是我的代码:/*标定的过程:

图片的加载

角点的检测

提取角点精确坐标

参数求解

利用参数对图像进行矫正

*/#include<stdio.h>

#include"cv.h"

#include"highgui.h"

#include <stdlib.h> //函数声明

void PrintMat(CvMat *matrix,BOOL save_or_show,FILE *fp); int main(int argc,char **argv)

{

int i=1;

char k=0;

int CurrentImage = 0;

int CurrentRow = 0; //行

int CurrentColumn = 0; //列

int findcorner_result=0; FILE *fp;

//文件指针int ChessBoardSize_w =6; //角点个数int ChessBoardSize_h =7;

int width_pixel =1280; //像素

int high_pixel =1024;

float SquareSize=10; //棋盘大小

int NImages=16;

CvSize ChessBoardSize;

CvSize image_pixel;

int NPoints=0;

int *corner_counter;

float *temppoints; //这里可以使用内存动态存储管理。。。

CvPoint2D32f *corners; //存储角点坐标的数组//单通道灰度图像

IplImage *grayimage=0;

IplImage *srcimage=0; //三通道图像

IplImage *result_image=0; //矫正以后的图像

CvMat *intrinsic_matrix=0; //内部参数矩阵

CvMat *distortion_coeffs=0; //畸变系数

CvMat *rotation_vectors=0; //旋转向量

CvMat *translation_vectors=0;//平移向量

CvMat *points_counts=0; //图片角点数

CvMat *object_points=0; //世界坐标系中角点的坐标

CvMat *image_points=0; //检测到的角点坐标CvMat

*temp_matrix,*rotation_matrix,*translation_matrix;

//************************************************** ***

//数据载入、开辟空间

image_pixel = cvSize(width_pixel,high_pixel);

ChessBoardSize =

cvSize(ChessBoardSize_w,ChessBoardSize_h);

NPoints =

ChessBoardSize_w*ChessBoardSize_h;

corner_counter=calloc(NImages,sizeof(int));

//动态管理,记着释放空间

temppoints =calloc(NImages*NPoints*3,sizeof(float));

corners

=calloc(NImages*NPoints,sizeof(CvPoint2D32f));

if((corner_counter==0 )||(temppoints==0 )||( corners==0 ) ) {

return -1;

}

intrinsic_matrix = cvCreateMat(3,3,CV_32FC1);

//内参数矩阵

distortion_coeffs = cvCreateMat(1,4,CV_32FC1);

//形变参数

rotation_vectors =

cvCreateMat(NImages,3,CV_32FC1); //旋转向量translation_vectors =

cvCreateMat(NImages,3,CV_32FC1); //平移向量points_counts = cvCreateMat(NImages,1,CV_32SC1); //视图数目object_points =

cvCreateMat(NImages*NPoints,3,CV_32FC1);//世界坐标系中角点的坐标

image_points =

cvCreateMat(NImages*NPoints,2,CV_32FC1);//检测到的坐标点坐标temp_matrix= cvCreateMat(1,3,CV_32FC1);

rotation_matrix = cvCreateMat(3,3,CV_32FC1);

//旋转矩阵

translation_matrix = cvCreateMat(3,3,CV_32FC1); //旋转矩阵

grayimage=cvCreateImage(image_pixel,IPL_DEPTH_8U,1); //单通道灰度图像

result_image=cvCreateImage(image_pixel,IPL_DEPTH_8U,1); //校正以后的图像fp = fopen( "data1.txt", "w+" ); //打开

文件,建立一个文件,然后写入数据

fprintf(fp, "坐标数据:\n" ); //写入数据,写入文件

//************************************************** **

//图片的加载以及角点的提取

if(argc!=NImages+1)

{

printf("图片加载有误!");

return -1;

}

for(CurrentImage=0;CurrentImage<NImages;CurrentImage+ +)

{

//加载图片

if((srcimage=cvLoadImage(argv[CurrentImage+1],1))!=0) {

//色彩转换

cvCvtColor(srcimage,grayimage,CV_BGR2GRAY);

//角点检测

findcorner_result=cvFindChessboardCorners(grayimage,ChessB oardSize,&corners[CurrentImage*NPoints],

&corner_counter[CurrentImage],CV_CALIB_CB_ADAPT IVE_THRESH);

//画出检测到的点

cvDrawChessboardCorners(srcimage,ChessBoardSize,

&corners[CurrentImage*NPoints],corner_counter[CurrentI mage],findcorner_result);

//精确坐标位置

cvFindCornerSubPix(grayimage,&corners[CurrentImage*

NPoints],corner_counter[CurrentImage],

cvSize(10,10), cvSize(-1,-1),//这个搜索的范围。。。?

cvTermCriteria(CV_TERMCRIT_ITER|CV_TERMCRIT_EPS, 500,0.003)//迭代终止条件

);

cvNamedWindow("image",1);

cvShowImage("image",srcimage);

printf("检测到的角

点:%d\n",corner_counter[CurrentImage]);

//fprintf(fp,"检测到的角

点:%d\n",corner_counter[CurrentImage]);

//for(i=0;i<corner_counter[CurrentImage];i++)//坐标输出

// {

// printf("第%d个角

点%f %f\n",i,corners[CurrentImage*NPoints+i].x,corners[ CurrentImage*NPoints+i].y);

//}

cvWaitKey(0);

printf("按任意键提取下一幅图片角点。。。\n");

//fprintf(fp,"按任意键提取下一幅图片角点。。。

\n"); }

} printf("角点提取结束......\n"); printf("开始定标......\n");

fprintf(fp,"角点提取结束......\n");

fprintf(fp,"开始定标......\n");

//棋盘世界坐标系坐标

for(CurrentImage = 0 ; CurrentImage < NImages ; CurrentImage++)//图片

{

for (CurrentRow = 0; CurrentRow < ChessBoardSize_h; CurrentRow++)//行

{

for (CurrentColumn = 0; CurrentColumn < ChessBoardSize_w; CurrentColumn++)//列

{

temppoints[(CurrentImage*NPoints*3)+(CurrentRow*ChessBo ardSize_w+CurrentColumn)*3]=(float)(CurrentRow*SquareSiz

e);

temppoints[(CurrentImage*NPoints*3)+(CurrentRow*ChessBo ardSize_w+CurrentColumn)*3+1]=(float)(CurrentColumn*Squ areSize);

temppoints[(CurrentImage*NPoints*3)+(CurrentRow*ChessBo ardSize_w+CurrentColumn)*3+2]=0;

}

}

}

//参数求解

*object_points=cvMat(NImages*NPoints,3,CV_32FC1,temppoi nts);//似乎这里开始有点问题。。。还有就是在标定过程中这个棋盘的边长和标定的精度无关

cvSetData(image_points,corners,sizeof(CvPoint2D32f));//设置image_points矩阵的数据

cvSetData(points_counts,corner_counter,sizeof(int));

/*printf("棋盘坐标");

printf("\n");

PrintMat(object_points);

printf("\n计算机\n");

printf("\n");

PrintMat(image_points);

printf("\n");

printf("\n角点个数\n");

PrintMat(points_counts);

printf("\n");*/

cvCalibrateCamera2(object_points,image_points,points_counts, cvGetSize(grayimage),

intrinsic_matrix,distortion_coeffs,rotation_vectors,

translation_vectors,0

); printf("\n内部岑数矩阵\n");

fprintf(fp,"\n内部岑数矩阵\n");

PrintMat(intrinsic_matrix,FALSE,NULL);

PrintMat(intrinsic_matrix,TRUE,fp); printf("\n形变岑数\n"); fprintf(fp,"\n形变岑数\n");

PrintMat(distortion_coeffs,FALSE,NULL);

PrintMat(distortion_coeffs,TRUE,fp);

for(i=0;i<NImages;i++)

{ cvGetRow(rotation_vectors,temp_matrix,i);

cvRodrigues2(temp_matrix,rotation_matrix,0);

printf(" 第%d个图片的旋转向量\n",i);

fprintf(fp," 第%d个图片的旋转向量\n",i);

PrintMat(temp_matrix,FALSE,NULL);

PrintMat(temp_matrix,TRUE,fp); printf(" 第%d个图片的旋转矩阵\n",i);

fprintf(fp," 第%d个图片的旋转矩阵\n",i);

PrintMat(rotation_matrix,FALSE,NULL);

PrintMat(rotation_matrix,TRUE,fp);

printf("\n");

fprintf(fp,"\n"); }

//cvReleaseMat(&temp_matrix);

printf("平移矩阵\n");

fprintf(fp,"平移矩阵\n");

for(i=0;i<NImages;i++)

{

cvGetRow(translation_vectors,temp_matrix,i);

cvRodrigues2(temp_matrix,translation_matrix,0);

printf(" 第%d个图片的平移向量\n",i);

fprintf(fp," 第%d个图片的平移向量\n",i);

PrintMat(temp_matrix,FALSE,NULL);

PrintMat(temp_matrix,TRUE,fp);

printf(" 第%d个图片的平移矩阵\n",i);

fprintf(fp," 第%d个图片的平移矩阵\n",i);

PrintMat(translation_matrix,FALSE,NULL);

PrintMat(translation_matrix,TRUE,fp);

printf("\n");

fprintf(fp,"\n");

} // PrintMat(translation_vectors,FALSE,NULL);

// PrintMat(translation_vectors,TRUE,fp); printf("标定结束.....\n");

fprintf(fp,"标定结束.....\n"); printf("按任意键开始误差分析.....\n");

fprintf(fp,"按任意键开始误差分析.....\n");

cvWaitKey(0);

//误差分析

//利用已知的内部参数,使用cvProjectPoints2()计算出世界坐标系中的坐标在图片中的坐标也就是校准后的坐标//将校准后的坐标和原来求得的坐标进行比较

for(CurrentImage=0;CurrentImage<NImages;CurrentImage+

+)

{

CvMat *object_matrix=

cvCreateMat(NPoints,3,CV_32FC1);

CvMat *image_matrix=

cvCreateMat(NPoints,2,CV_32FC1);

CvMat *project_image_matrix=

cvCreateMat(NPoints,2,CV_32FC1);

CvMat *rotation_matrix_1=

cvCreateMat(1,3,CV_32FC1);

CvMat *translation_matrix_1=

cvCreateMat(1,3,CV_32FC1);

CvMat *rotation_matrix=

cvCreateMat(3,1,CV_32FC1);

CvMat *translation_matrix=

cvCreateMat(3,1,CV_32FC1);

double err=0;

cvGetRows(object_points,object_matrix,CurrentImage*NPoints ,(CurrentImage+1)*NPoints,1);

cvGetRow(rotation_vectors,rotation_matrix_1,CurrentImage);

cvReshape(rotation_matrix_1,rotation_matrix,0,3);

cvGetRow(translation_vectors,translation_matrix_1,CurrentIma ge);

cvReshape(translation_matrix_1,translation_matrix,0,3);

cvGetRows(image_points,project_image_matrix,CurrentImage* NPoints,(CurrentImage+1)*NPoints,1);

cvProjectPoints2(object_matrix,rotation_matrix,translation_matr ix,

intrinsic_matrix,distortion_coeffs,image_matrix,0,0,0,0,0);

err=cvNorm(image_matrix,project_image_matrix,CV_L2,0);

printf("第%d幅图像的误差

为%f\n",CurrentImage+1,err);

fprintf(fp,"第%d幅图像的误差

为%f\n",CurrentImage+1,err);

} cvNamedWindow("Undistort_image",1);

//显示校正后的图片

printf("\n");

printf("校正后的图片....\n");

for(CurrentImage=0;CurrentImage<NImages;CurrentImage+ +)

{

//加载图片

if((srcimage=cvLoadImage(argv[CurrentImage+1],1))!=0) {

//色彩转换

cvCvtColor(srcimage,grayimage,CV_BGR2GRAY);

cvUndistort2(grayimage,result_image,intrinsic_matrix,distortion _coeffs);

cvShowImage("Undistort_image",result_image);

printf("按任意键显示下一幅图片。。。\n");

cvWaitKey(0);

}

}

//关闭文件

fclose(fp);

//释放内存

cvWaitKey(0);

free(corner_counter);

free(temppoints);

free(corners);

cvDestroyWindow("Undistort_image");

cvDestroyWindow("Image"); cvReleaseMat(&intrinsic_matrix);

cvReleaseMat(&distortion_coeffs);

cvReleaseMat(&rotation_vectors);

cvReleaseMat(&translation_vectors);

cvReleaseMat(&rotation_matrix);

cvReleaseMat(&translation_matrix);

cvReleaseMat(&points_counts);

cvReleaseMat(&object_points);

cvReleaseMat(&image_points );

cvReleaseMat(&temp_matrix ); cvReleaseImage(&srcimage);

cvReleaseImage(&result_image);

cvReleaseImage(&grayimage);

return -1;

}

/*********************************

函数名:PrintMat(CvMat *matrix)

函数输入:matrix指针数据类型opencv规定的任意一个函数作用:在屏幕上打印矩阵

**********************************/

void PrintMat(CvMat *matrix,BOOL save_or_show,FILE *fp) {

int i=0;

int j=0;

for(i=0;i < matrix->rows;i++)//行

{

if (save_or_show)

{

fprintf(fp,"\n");

}

else

{

printf("\n");

}

switch(matrix->type&0X07)

{

case CV_32F:

case CV_64F:

{

for(j=0;j<matrix->cols;j++)//列

{

if (save_or_show)

{

fprintf(fp,"%9.3f

",(float)cvGetReal2D(matrix,i,j));

}

else

{

printf("%9.3f

",(float)cvGetReal2D(matrix,i,j));

}

}

break;

}

case CV_8U:

case CV_16U:

{

for(j=0;j<matrix->cols;j++)

{

printf("%6d

",(int)cvGetReal2D(matrix,i,j));

if (save_or_show)

{

fprintf(fp,"%6d

",(int)cvGetReal2D(matrix,i,j));

}

else

{

printf("%6d

",(int)cvGetReal2D(matrix,i,j));

}

}

break;

}

default:

break;

#include "stdafx.h" #include "mymfc.h" #include "mymfcDlg.h" #include "afxdialogex.h" #include #ifdef _DEBUG #define new DEBUG_NEW #endif // 用于应用程序“关于”菜单项的 CAboutDlg 对话框 class CAboutDlg : public CDialogEx { public: CAboutDlg(); // 对话框数据 enum { IDD = IDD_ABOUTBOX }; protected: virtual void DoDataExchange(CDataExchange* pDX); // DDX/DDV 支持 // 实现 protected: DECLARE_MESSAGE_MAP() }; CAboutDlg::CAboutDlg() : CDialogEx(CAboutDlg::IDD) { } void CAboutDlg::DoDataExchange(CDataExchange* pDX) { CDialogEx::DoDataExchange(pDX); } BEGIN_MESSAGE_MAP(CAboutDlg, CDialogEx) END_MESSAGE_MAP() // CmymfcDlg 对话框

CmymfcDlg::CmymfcDlg(CWnd* pParent /*=NULL*/) : CDialogEx(CmymfcDlg::IDD, pParent) , TheImage(NULL) , rePath(_T("")) { m_hIcon = AfxGetApp()->LoadIcon(IDR_MAINFRAME); } void CmymfcDlg::DoDataExchange(CDataExchange* pDX) { CDialogEx::DoDataExchange(pDX); } BEGIN_MESSAGE_MAP(CmymfcDlg, CDialogEx) ON_WM_SYSCOMMAND() ON_WM_PAINT() ON_WM_QUERYDRAGICON() ON_BN_CLICKED(IDC_ReadImg, &CmymfcDlg::OnBnClickedReadimg) ON_BN_CLICKED(IDC_EdgeDetect, &CmymfcDlg::OnBnClickedEdgedetect) ON_BN_CLICKED(IDC_Refresh, &CmymfcDlg::OnBnClickedRefresh) ON_BN_CLICKED(IDC_GrayProcess, &CmymfcDlg::OnBnClickedGrayprocess) ON_BN_CLICKED(IDC_Sobel, &CmymfcDlg::OnBnClickedSobel) ON_BN_CLICKED(IDC_Laplace, &CmymfcDlg::OnBnClickedLaplace) ON_BN_CLICKED(IDC_FFT2, &CmymfcDlg::OnBnClickedFft2) ON_BN_CLICKED(IDC_CImage, &CmymfcDlg::OnBnClickedCimage) ON_BN_CLICKED(IDC_Mirror, &CmymfcDlg::OnBnClickedMirror) ON_BN_CLICKED(IDC_CColor, &CmymfcDlg::OnBnClickedCcolor) ON_BN_CLICKED(IDC_MedianBlur, &CmymfcDlg::OnBnClickedMedianblur) ON_BN_CLICKED(IDC_Gaussian, &CmymfcDlg::OnBnClickedGaussian) ON_BN_CLICKED(IDC_BothSide, &CmymfcDlg::OnBnClickedBothside) ON_BN_CLICKED(IDC_Equally, &CmymfcDlg::OnBnClickedEqually) ON_BN_CLICKED(IDC_Corrosion, &CmymfcDlg::OnBnClickedCorrosion) ON_BN_CLICKED(IDC_Dilate, &CmymfcDlg::OnBnClickedDilate) END_MESSAGE_MAP() // CmymfcDlg 消息处理程序 BOOL CmymfcDlg::OnInitDialog() { CDialogEx::OnInitDialog();

第28卷第1期计算机工程与设计2007年1月V01.28No.1ComputerEngineeringandDesignJan.2007 基于OpenCV的摄像机标定 尹文生,罗瑜林,李世其 (华中科技大学机械科学与工程学院,湖北武汉430074) 摘要:以增强现实系统中摄像机标定技术为研究对象,分析了开放计算机视觉函数库OpenCV中的摄像机模型,特别充分考虑了透镜的径向畸变和切向畸变影响及求解方法,给出了基于OpenCV的摄像机标定算法。该算法充分发挥了OpenCV的函数库功能,提高了标定精度和计算效率,具有良好的跨平台移植性,可以满足增强现实和其它计算机视觉系统的需要。 关键词:计算机视觉;增强现实;摄像机模型;透镜畸变;摄像机标定 中图法分类号:TP391文献标识码:A文章编号:1000.7024(2007)01—0197.03 CameracalibrationbasedonOpenCV YINWel"1。sheng,LUOYu.1in,LIShi—qi (SchoolofMechanicalScienceandEngineering,HuazhongUniversityofScienceandTechnology,Wuhan430074,China)Abstract:Fortheapplicationsoftechnologyofcameracalibrationtoaugustreality,thecameramodelinOpenCV(opensourcecomputervisionlibrary)isdiscussed,especiallyontheinfluencesandsolvingmethodsoflensradialdistortionandtangentialdistortion,andanarithmeticofcameracalibrationbasedonOpenCVisgiven.Thisarithmeticmakesuseofthefunctionsofthelibraryeffectively,improvesprecisionandefficiencyofcomputation,andhasagoodpropertyfortheapplicationtomulti-platform.Itcanmeettheneedsofaugustrealityandothercomputervisionsystems. Keywords:computervision;augustreality;cameramodel;lensdistortion;cameracalibration 0引言 摄像机标定,是指建立摄像机成像几何模型,描述空间坐标系中物体点同它在图像平面上像点之间对应关系的过程。摄像机标定的目的就是确定几何模型参数即摄像机参数“1。摄像机标定是计算机视觉应用中的关键技术,在增强现实系统中也必须采用摄像机标定技术实现图像的注册眨”。摄像机标定技术在立体视觉研究中占有非常重要的地位。一个完整的立体视觉系统通常可分为图像获取、摄像机标定、特征提取、立体匹配、深度确定及内插等6大部分“1。精确标定摄像机内外参数不仅可以直接提高测量精度,而且可以为后继的立体图像匹配与三维重建奠定良好的基础。一】。 目前通常采用的标定方法是基于“两步法圳””的传统摄像机标定方法,该方法比主动视觉摄像机标定方法和摄像机自标定方法标定精度高,而且标定过程简单,经过多年的研究已经发展得比较成熟,鲁棒性高。OpenCV(Intel。opensourcecomputervisionlibrary)是Intel。开放计算机视觉函数库,它由一系列C函数和少量C++类构成,实现了图像处理和计算机视觉方面的很多通用算法,具备强大的图像和矩阵运算能力。该函数库中实现的摄像机标定方法采用的是文献[11]中的两步标定方法,而且在2005年7月最新发布的beta5版本中,不只完全重写了摄像机标定函数,而且引入了文献[12】中的自动寻找角点的方法,进一步提高了标定的智能化程度,用户只需导入用于标定的图片,整个标定过程无需人工的介入。OpenCV中的摄像机标定模块为用户提供了良好的接口,同时支持MS.Windows、Linux平台,有效地提高了开发效率,并且执行速度快,具有良好的跨平台移植性,因此可以很好地应用于工程实际当中。 l标定原理 1.1摄像机模型 摄像机标定首先要选择合适的摄像机模型,确定内外部参数。OpenCV标定算法中的摄像机模型以针孔模型(pin—holemodel)为基础,引入透镜的径向畸变和切向畸变,该模型相比于只引入一阶径向畸变的Tasi模型和针孔模型更加真实地反映了透镜实际的畸变情况m1。在该模型中,将空间点P在世界坐标系中的坐标值呱,K,乙)变换为图像平面上像素坐标系中坐标值(“,v)的过程可分解为下述的4步变换”1: 收稿日期:2005-12?06E-marl:wsyin@mail.hust.edu.cn 基金项目:国家民用航天科研专项计划基金项目(科工技[2004]1530)。 作者简介:尹文生(1963一),男,湖南常宁人,博士,副教授,研究方向为智能CAD、虚拟现实技术、机器人遥操作系统;罗瑜林(1981一),男,江西吉安人,硕士研究生,研究方向为机器人遥操作系统、机器视觉;李世其(1965一),男,江西吉安人,博士,教授,研究方向为CAD/CAE、虚拟现实技术、机器人遥操作系统。 一197— 万方数据

目录 1 梯度、边缘和角点 1.1 Sobel 1.2 Laplace 1.3 Canny 1.4 PreCornerDetect 1.5 CornerEigenValsAndVecs 1.6 CornerMinEigenVal 1.7 CornerHarris 1.8 FindCornerSubPix 1.9 GoodFeaturesToTrack 2 采样、插值和几何变换 2.1 InitLineIterator 2.2 SampleLine 2.3 GetRectSubPix 2.4 GetQuadrangleSubPix 2.5 Resize 2.6 WarpAffine 2.7 GetAffineTransform 2.8 2DRotationMatrix 2.9 WarpPerspective 2.10 WarpPerspectiveQMatrix 2.11 GetPerspectiveTransform 2.12 Remap 2.13 LogPolar 3 形态学操作 3.1 CreateStructuringElementEx 3.2 ReleaseStructuringElement 3.3 Erode 3.4 Dilate 3.5 MorphologyEx 4 滤波器与色彩空间变换 4.1 Smooth 4.2 Filter2D 4.3 CopyMakeBorder 4.4 Integral 4.5 CvtColor 4.6 Threshold 4.7 AdaptiveThreshold 5 金字塔及其应用 5.1 PyrDown 5.2 PyrUp 6 连接部件 6.1 CvConnectedComp

// cvCalib.cpp : Defines the entry point for the console application. // #include "stdafx.h" #include #include #include #include void InitCorners3D(CvMat *Corners3D, CvSize ChessBoardSize, int Nimages, float SquareSize); int image_width = 768; int image_height = 576;//待标定图片的大小 const int ChessBoardSize_w = 7; const int ChessBoardSize_h = 7;//图片中可标定的角数 const CvSize ChessBoardSize = cvSize(ChessBoardSize_w,ChessBoardSize_h); const int NPoints = ChessBoardSize_w*ChessBoardSize_h;//角点个数 const int NImages=6;//待标定的图片数 int corner_count[NImages] = {0}; float SquareWidth = 10; //棋盘格子的边长,可任意设定,不影响内参数 CvMat *intrinsics; CvMat *distortion_coeff; CvMat *rotation_vectors; CvMat *translation_vectors; CvMat *object_points; CvMat *point_counts; CvMat *image_points; void main() { IplImage *current_frame_rgb; IplImage *current_frame_gray; IplImage *chessBoard_Img; CvPoint2D32f corners[NPoints*NImages]; chessBoard_Img =cvCreateImage(cvSize(image_width, image_height), IPL_DEPTH_8U, 3); current_frame_gray = cvCreateImage(cvSize(image_width, image_height), IPL_DEPTH_8U, 1); current_frame_rgb = cvCreateImage(cvSize(image_width, image_height), IPL_DEPTH_8U, 3); int captured_frames=0;

MethodofCCDCameraCalibrationBasedOnOpenCV LEIMing-zhe1,SUNShao-jie2,CHENJin-liang1,TAOLei1,WEIKun1 (1.North Automation Control Technology Institute ,Taiyuan 030006,China ; 2.Navy Submarine Academy ,Qingdao 266042,China )Abstract: Computervisionhasbeenwidelyusedinindustry,agriculture,military,transportationareaandsoon.Cameracalibrationisveryimportantandalsothekeyresearchfieldofvisionsystem.ThispapermainlyresearchesonthemethodofCCDcameracalibration,thepin-holemodelhasbeenintroducedandappliedinprocessofcalibration.Specially,inordertoimprovetheaccuracy,bothradialandtangentiallensdistortionhavebeentakenintoaccountduringtheimplementofcalibrationbasedonOpenCV.Thiskindofarithmetichaspracticalvalueontheapplicationdesignofimageprocessingandcomputervision,andexperimentresultsshowgoodprecision,whichcanmeettheapplicationneedofvisualinspectionorothervisionsystemswell. Keywords: pin-holemodel,cameracalibration,lensdistortion,OpenCV摘要: 计算机视觉在工业,农业,军事,交通等领域都有着广泛应用。摄像机标定是视觉系统的重要环节,也是研究的关键领域。以摄像机标定技术为研究对象,选取针孔成像模型,简述了世界坐标系、摄像机坐标系和图像坐标系及其相互间的位置关系,对标定过程进行了深入研究。特别地,为提高标定精度,充分考虑了透镜径向和切向畸变影响及其求解方法,制作了棋盘格平面标定模板,基于开放计算机视觉函数库(OpenCV)实现了摄像机标定。该标定算法能够充分发挥OpenCV函数库功能,对于图像处理与计算机视觉方面的应用设计具有实用价值。实验结果表明该方法取得了较高精度,能够满足视觉检测或其他计算机视觉系统的应用需要。 关键词:针孔模型,摄像机标定,透镜畸变,OpenCV中图分类号:S219 文献标识码:A 基于OpenCV的CCD摄像机标定方法 雷铭哲1,孙少杰2,陈晋良1,陶 磊1,魏坤1 (1.北方自动控制技术研究所,太原030006;2.海军潜艇学院,山东青岛266042 )文章编号:1002-0640(2014) 增刊-0049-03Vol.39,Supplement Jul,2014 火力与指挥控制 FireControl&CommandControl第39卷增刊 引言 摄像机标定是计算机视觉系统的前提和基础,其目的是 确定摄像机内部的几何和光学特性(内部参数)以及摄像机 在三维世界中的坐标关系(外部系数) [1] 。考虑到摄像机标定在理论和实践应用中的重要价值,学术界近年来进行了广泛的研究。 摄像机标定方法可以分为线性标定和非线性标定,前者简单快速,精度低,不考虑镜头畸变;后者由于引入畸变参数而使精度提高,但计算繁琐,速度慢,对初值选择和噪声敏感。本文将两者结合起来,采用由粗到精策略,以实现精确标定。 1摄像机模型 本文选取摄像机模型中常用的针孔模型[2-3],分别建立三维世界坐标系(O w X w Y w Z w ),摄像机坐标系(O c X c Y c Z c )及图像平面坐标系(O 1xy ) 如下页图1所示。其中摄像机坐标系原点O c 为摄像机光心,Z c 轴与光轴重合且与图像平面垂直,O c O 1为摄像机焦距f 。图像坐标系原点O 1为光轴与图像平面的交点,x ,y 轴分别平行于摄像机坐标系X c 、Y c 轴。设世界坐标系中物点P 的三维坐标为(X w ,Y w ,Z w ),它在理想的针孔成像模型下图像坐标为P (X u ,Y u ),但由于透镜畸变引起偏离[4-5],其实际图像坐标为P (X d ,Y d )。图像收稿日期:2013-09-20修回日期:2013-11-10 作者简介:雷铭哲(1977-),男,湖北咸宁人,硕士。研究方向:故障诊断系统。 49··

/. #include "stdafx.h" #include "mymfc.h" #include "mymfcDlg.h" #include "afxdialogex.h" #include #ifdef _DEBUG #define new DEBUG_NEW #endif // 用于应用程序“关于”菜单项的CAboutDlg 对话框 class CAboutDlg : public CDialogEx { public: CAboutDlg(); // 对话框数据 enum { IDD = IDD_ABOUTBOX }; protected: virtual void DoDataExchange(CDataExchange* pDX); // DDX/DDV 支持 // 实现 protected: DECLARE_MESSAGE_MAP() }; CAboutDlg::CAboutDlg() : CDialogEx(CAboutDlg::IDD) { } void CAboutDlg::DoDataExchange(CDataExchange* pDX) { CDialogEx::DoDataExchange(pDX); } BEGIN_MESSAGE_MAP(CAboutDlg, CDialogEx) END_MESSAGE_MAP() // CmymfcDlg 对话框

CmymfcDlg::CmymfcDlg(CWnd* pParent /*=NULL*/) : CDialogEx(CmymfcDlg::IDD, pParent) , TheImage(NULL) , rePath(_T("")) { m_hIcon = AfxGetApp()->LoadIcon(IDR_MAINFRAME); } void CmymfcDlg::DoDataExchange(CDataExchange* pDX) { CDialogEx::DoDataExchange(pDX); } BEGIN_MESSAGE_MAP(CmymfcDlg, CDialogEx) ON_WM_SYSCOMMAND() ON_WM_PAINT() ON_WM_QUERYDRAGICON() ON_BN_CLICKED(IDC_ReadImg, &CmymfcDlg::OnBnClickedReadimg) ON_BN_CLICKED(IDC_EdgeDetect, &CmymfcDlg::OnBnClickedEdgedetect) ON_BN_CLICKED(IDC_Refresh, &CmymfcDlg::OnBnClickedRefresh) ON_BN_CLICKED(IDC_GrayProcess, &CmymfcDlg::OnBnClickedGrayprocess) ON_BN_CLICKED(IDC_Sobel, &CmymfcDlg::OnBnClickedSobel) ON_BN_CLICKED(IDC_Laplace, &CmymfcDlg::OnBnClickedLaplace) ON_BN_CLICKED(IDC_FFT2, &CmymfcDlg::OnBnClickedFft2) ON_BN_CLICKED(IDC_CImage, &CmymfcDlg::OnBnClickedCimage) ON_BN_CLICKED(IDC_Mirror, &CmymfcDlg::OnBnClickedMirror) ON_BN_CLICKED(IDC_CColor, &CmymfcDlg::OnBnClickedCcolor) ON_BN_CLICKED(IDC_MedianBlur, &CmymfcDlg::OnBnClickedMedianblur) ON_BN_CLICKED(IDC_Gaussian, &CmymfcDlg::OnBnClickedGaussian) ON_BN_CLICKED(IDC_BothSide, &CmymfcDlg::OnBnClickedBothside) ON_BN_CLICKED(IDC_Equally, &CmymfcDlg::OnBnClickedEqually) ON_BN_CLICKED(IDC_Corrosion, &CmymfcDlg::OnBnClickedCorrosion) ON_BN_CLICKED(IDC_Dilate, &CmymfcDlg::OnBnClickedDilate) END_MESSAGE_MAP() // CmymfcDlg 消息处理程序 BOOL CmymfcDlg::OnInitDialog() { CDialogEx::OnInitDialog();

基于Opencv的人脸检测程序 我的电脑上是用visual studio 2015,配置opencv2.4.9,visuanl studio加载opencv的方法百度上可以找到很多,按照要求配置好后以后进行一下操作: 第一步:新建win32应用程序的工程,在该工程以下程序复杂被覆盖win32的几行程序, #include"stdafx.h" #include"opencv2/objdetect.hpp" #include"opencv2/videoio.hpp" #include"opencv2/highgui.hpp" #include"opencv2/imgproc.hpp" #include #include using namespace std; using namespace cv; /** Function Headers */ void detectAndDisplay(Mat frame); /** Global variables */ String face_cascade_name = "haarcascade_frontalface_alt.xml"; String eyes_cascade_name = "haarcascade_eye_tree_eyeglasses.xml"; CascadeClassifier face_cascade; CascadeClassifier eyes_cascade; String window_name = "Capture - Face detection"; /** @function main */ int main(void) { VideoCapture capture; Mat frame; //-- 1. Load the cascades if (!face_cascade.load(face_cascade_name)) { printf("--(!)Error loading face cascade\n"); return -1; }; if (!eyes_cascade.load(eyes_cascade_name)) { printf("--(!)Error loading eyes cascade\n"); return -1; }; //-- 2. Read the video stream capture.open(-1); if (!capture.isOpened()) { printf("--(!)Error opening video capture\n"); return -1; }

2011-01-30相机标定的原理与意义及O p e n C V、M a t l a b实现差异小结

2011-01-30 相机标定的原理与意义及OpenCV、Matlab实现差异小结 分类:OpenCV点滴2011-01-30 20:35 2292人阅读评论(3) 收藏举报本文是一篇关于相机标定意义和原理的个人总结,包含了OpenCV和Matlab中常用的相机标定函数的注解。 相机标定是机器视觉的基础,标定结果的好坏直接决定了机器视觉的系统精度,作用可见一斑。在这一年半的时间里,我个人也是随着实验和程序的进一步理解,对标定的原理和意义有了更多的想法。同样,由于博文的关系,仍有一些朋友会常常询问标定的程序问题。本人的2010-05-17OpenCV标定程序的问题也多次被朋友询问,由于当时对标定的认识还不够系统,因此现在认为该文对标定的意义和原理有很多误解,并在此推荐一些较好的博文拱大家学习:双目测距与三维重建的OpenCV实现问题集锦(一)图像获取与单目标定; 双目测距与三维重建的OpenCV实现问题集锦(二)双目标定与双目校正; 双摄像头测距的OpenCV实现; 分享一些OpenCV实现立体视觉的经验; 下面结合本人的毕业论文及一年半来对机器视觉的学习,对相机标定的意义和原理进行叙述。 1.单目相机模型

单目相机模型中的三种坐标系关系如图1所示,相机坐标系即是以光轴中心O为原点的坐标系,其z轴满足右手法则,成像原点所代表平面即为像平面坐标系(实际应用中,均以图像左上角为坐标系原点),实际物体坐标系即为世界坐标系。 图1 单目相机模型的三坐标系统关系其中,在世界坐标系的值为,是在像平面坐标系的投影点,其相机坐标系的值为。是相机坐标系轴与像平面夹角,一般情况下轴与像平面垂直,值为。且相机坐标系与像平面平行, 为相机的焦距。 对于从相机坐标系到像平面坐标系的变换,像平面坐标系是用像素单位来表示的,而相机坐标系则是以毫米为单位来表示,因此,要完成改变换过程就需要先得到像平面的像素单位与毫米单位之间的线性关系。在图1中,相机光轴中心z轴方向上与像平面的交点称为投影中心,坐标为,是像素单位,而每个像素在和的物理尺寸为和,单位是像素/毫米,则像平面的像素与毫米间的线性关系如式(1):

基于opencv 对图像的预处理 1.问题描述 本次设计是基于opencv 结合c++语言实现的对图像的预处理,opencv 是用于开发实时的图像处理、计算机视觉及模式识别程序;其中图像的预处理也就是利用opencv 对图像进行简单的编辑操作;例如对图像的对比度、亮度、饱和度进行调节,同时还可以对图像进行缩放和旋转,这些都是图像预处理简单的处理方法;首先通过opencv 加载一幅原型图像,显示出来;设置五个滑动控制按钮,当拖动按钮时,对比度、亮度、饱和度的大小也会随之改变,也可以通过同样的方式调节缩放的比例和旋转的角度,来控制图像,对图像进行处理,显示出符合调节要求的图像,进行对比观察他们的之间的变化。 2.模块划分 此次设计的模块分为五个模块,滑动控制模块、对比度和亮度调节模块、饱和度调节模块、缩放调节模块、旋转调节模块,他们之间的关系如下所示: 图一、各个模块关系图 调用 调用 调用 调用 滑动控制模块 对比度和亮度调节模块 饱和度调节模块 缩放调节模块 旋转调节模块

滑动控制模块处于主函数之中,是整个设计的核心部分,通过createTrackbar创建五个滑动控制按钮并且调用每个模块实现对图像相应的调节。 3.算法设计 (1)滑动控制: 滑动控制是整个设计的核心部分,通过创建滑动控制按钮调节大小来改变相应的数据,进行调用函数实现对图像的编辑,滑动控制是利用createTrackbar(),函数中包括了滑动控制的名称,滑动控制显示在什么窗口上,滑动变量的地址和它调节的最大围,以及每个控制按钮应该调用什么函数实现什么功能; (2)对比度和亮度的调节: 对比度和亮度的调节的原理是依照线性理论,它的公式如下所示:g(x)=a* f(x) +b,其中f(x)表示源图像的像素,g(x)表示输出图像的像素,参数a(需要满足a>0)被称为增益(gain),常常被用来控制图像的对比度,参数b通常被称为偏置(bias),常常被用来控制图像的亮度; (3)饱和度的调节: 饱和度调节利用cvCvtColor( src_image, dst_image, CV_BGR2HSV )将RGB 颜色空间转换为HSV颜色空间,其中“H=Hue”表示色调,“S=Saturation”表示饱和度,“V=Value ”表示纯度;所以饱和度的调节只需要调节S的大小,H 和V的值不需要做任何的改变; (4)旋转的调节: 旋转是以某参考点为圆心,将图像的个点(x,y)围绕圆心转动一个逆时针角度θ,变为新的坐标(x1,y1),x1=rcos(α+θ),y1=rsin(α+θ),其中r是图像的极径,α是图像与水平的坐标的角度的大小; (5)缩放的调节: 首先得到源图像的宽度x和高度y,变换后新的图像的宽度和高度分别为x1和y1,x1=x*f,y1=y*f,其中f是缩放因子; 4.函数功能描述 (1)主函数main()用来设置滑动控制按钮,当鼠标拖动按钮可以得到相应的数据大小,实现手动控制的功能,当鼠标拖动对比度和亮度调节是,主函数调用

#include "cv.h" #include "highgui.h" #include #ifdef _EiC #define WIN32 #endif static CvMemStorage* storage = 0; static CvHaarClassifierCascade* cascade = 0; void detect_and_draw( IplImage* image ); const char* cascade_name = "haarcascade_frontalface_alt.xml";//人脸检测分类器 int main( int argc, char** argv ) { CvCapture* capture = 0; IplImage *frame, *frame_copy = 0; int optlen = strlen("--cascade="); const char* input_name; if( argc > 1 && strncmp( argv[1], "--cascade=", optlen ) == 0 ) { cascade_name = argv[1] + optlen; input_name = argc > 2 ? argv[2] : 0; } else { cascade_name = "E:\毕业设计\智能机器人动态人脸识别系统\陈建州程序.xml";//分类器路径 input_name = argc > 1 ? argv[1] : 0; } cascade = (CvHaarClassifierCascade*)cvLoad( cascade_name, 0, 0, 0 ); if( !cascade )//如果没有找到分类器,输出以下 { fprintf( stderr, "ERROR: Could not load classifier cascade\n" ); fprintf( stderr, "Usage: facedetect --cascade=\"\" [filename|camera_index]\n" ); return -1;

38562009,30(16)计算机工程与设计Computer Engineering and Design 0引言 机器视觉的基本任务之一是从摄像机获取的图像信息出发计算三维空间中物体的几何信息,并由此重建和识别物体,而空间物体表面某点的三维几何位置与其在图像中对应点之间的相互关系是由摄像机成像的几何模型决定的,这些几何模型参数就是摄像机参数。在大多数条件下,这些参数必须通过实验与计算才能得到,这个过程称为摄像机标定(或定标)。标定过程就是确定摄像机的几何和光学参数,摄像机相对于世界坐标系的方位。标定精度的大小,直接影响着机器视觉的精度。迄今为止,对于摄像机标定问题已提出了很多方法,摄像机标定的理论问题已得到较好的解决[1-5]。对摄像机标定的研究来说,当前的研究工作应该集中在如何针对具体的实际应用问题,采用特定的简便、实用、快速、准确的标定方法。 OpenCV是Intel公司资助的开源计算机视觉(open source computer vision)库,由一系列C函数和少量C++类构成,可实现图像处理和计算机视觉方面的很多通用算法。OpenCV有以下特点: (1)开放C源码; (2)基于Intel处理器指令集开发的优化代码; (3)统一的结构和功能定义; (4)强大的图像和矩阵运算能力; (5)方便灵活的用户接口; (6)同时支持Windows和Linux平台。 作为一个基本的计算机视觉、图像处理和模式识别的开源项目,OpenCV可以直接应用于很多领域,是二次开发的理想工具。目前,OpenCV的最新版本是2006年发布的OpenCV 1.0版,它加入了对GCC4.X和Visual https://www.sodocs.net/doc/ec17913010.html,2005的支持。 1摄像机标定原理 1.1世界、摄像机与图像坐标系 摄像机标定中有3个不同层次的坐标系统:世界坐标系、摄像机坐标系和图像坐标系(图像像素坐标系和图像物理坐标系)。 如图1所示,在图像上定义直角坐标系 开发与应用

1.打开Microsoft Visual Studio 2008,新建一个Win32控制台项目; 2.配置好项目的包含文件和库文件; 3.将……\OpenCV\data\haarcascades中的haarcascade_frontalface_alt.xml拷贝到所建项目的文件夹中; 4.然后添加代码: #include"stdafx.h" #include"cv.h" #include"highgui.h" #include int_tmain(int argc, _TCHAR* argv[]) { CvCapture* capture=0; /*初始化一个视频捕获操作。告诉底层的捕获api我想从Capture1.avi中捕获图片,底层api将检测并选择相应的解码器并做好准备工作*/ capture = cvCaptureFromFile( "F:\\1.avi"); //设置要读的视频(avi格式) static CvMemStorage* storage = 0; static CvHaarClassifierCascade* cascade = 0; cascade = (CvHaarClassifierCascade*)cvLoad("haarcascade_frontalface_alt.xml",0,0,0); if( !cascade || !capture ) return -1; storage = cvCreateMemStorage(0); /*创建一个窗口,用“Video”作为窗口的标识符*/ cvNamedWindow( "Video",1); /*如果初始化失败,那么capture为空指针,程序停止,否则进入捕获循环*/ if( capture ) { for(;;) { IplImage* frame = cvQueryFrame( capture ); IplImage* img = NULL; CvSeq* faces; if( !frame ) break; img = cvCloneImage(frame);

?什么是OpenCV ?开源C/C++计算机视觉库. ?面向实时应用进行优化. ?跨操作系统/硬件/窗口管理器. ?通用图像/视频载入、存储和获取. ?由中、高层API构成. ?为Intel?公司的Integrated Performance Primitives (IPP) 提供了透明接口. ?特性: ?图像数据操作(分配,释放, 复制, 设定, 转换). ?图像与视频I/O (基于文件/摄像头输入, 图像/视频文件输出). ?矩阵与向量操作与线性代数计算(相乘, 求解, 特征值, 奇异值分解SVD). ?各种动态数据结构(列表, 队列, 集, 树, 图). ?基本图像处理(滤波, 边缘检测, 角点检测, 采样与插值, 色彩转换, 形态操作, 直方图, 图像金字塔). ?结构分析(连接成分, 轮廓处理, 距离转换, 模板匹配, Hough转换, 多边形近似, 线性拟合, 椭圆拟合, Delaunay三角化). ?摄像头标定 (寻找并跟踪标定模板, 标定, 基础矩阵估计, homography估计, 立体匹配). ?动作分析(光流, 动作分割, 跟踪). ?对象辨识 (特征方法, 隐马可夫链模型HMM). ?基本GUI(显示图像/视频, 键盘鼠标操作, 滚动条). ?图像标识 (直线, 圆锥, 多边形, 文本绘图) ?OpenCV 模块: ?cv - OpenCV 主要函数. ?cvaux - 辅助(实验性) OpenCV 函数. ?cxcore - 数据结构与线性代数算法. ?highgui - GUI函数. 资料链接 ?参考手册: ?/docs/index.htm ?网络资源: ?官方网页: https://www.sodocs.net/doc/ec17913010.html,/technology/computing/opencv/?软件下载: https://www.sodocs.net/doc/ec17913010.html,/projects/opencvlibrary/ ?书籍: ?Open Source Computer Vision Library by Gary R. Bradski, Vadim Pisarevsky, and Jean-Yves Bouguet, Springer, 1st ed. (June, 2006). ?视频处理例程(位于/samples/c/目录中): ?色彩跟踪: camshiftdemo ?点跟踪: lkdemo

/*环境OpenCV2.3.1+visual studio2010 *calibdata.txt 保持标定图片的路径(根据实际设置) */ #include "stdafx.h" #include "cv.h" #include "highgui.h" #include #include #include using namespace std; int main() { IplImage * show; //RePlay图像指针 cvNamedWindow("RePlay",1); int number_image_copy=7; //复制图像帧数 CvSize board_size=cvSize(5,7); //标定板角点数 CvSize2D32f square_size=cvSize2D32f(10,10); //假设我的每个标定方格长宽都是1.82厘米 float square_length=square_size.width; //方格长度 float square_height=square_size.height; //方格高度 int board_width=board_size.width; //每行角点数 int board_height=board_size.height; //每列角点数 int total_per_image=board_width*board_height; //每张图片角点总数 int count; //存储每帧图像中实际识别的角点数 int found;//识别标定板角点的标志位 int step; //存储步长,step=successes*total_per_image; int successes=0; //存储成功找到标定板上所有角点的图像帧数 int a=1; //临时变量,表示在操作第a帧图像 const int NImages = 7;//图片总数

相关主题