一种基于列扫描灰度差的快速目标识别与定位算法

一种基于列扫描灰度差的快速目标识别与定位算法

一、一种基于列扫描灰度差异的快速目标识别定位算法(论文文献综述)

武加文[1](2021)在《基于红外面阵扫描设备的快速目标检测与识别》文中研究表明随着机器视觉的发展,针对红外图像目标检测与识别技术的需求也在不断增长。红外面阵扫描系统具有探测能力强、扫描效率高等特点,基于该类设备的算法研究成为了红外机器视觉领域的研究热点之一。通常情况下,红外面阵扫描设备为方便人员监控与算法处理,首先需要在水平方向上拼接输出图像,但在工作过程中受转速不稳、平台震动的影响,难以生成稳定的全景图像;其次面阵扫描输出速率高,数据量大,对算法运行速度有较高要求;此外受红外成像特点与制造工艺限制,设备所采集图像具有细节较少、信噪比低、灰度不均匀等缺陷,对检测识别算法设计提出了更大的挑战。本文针对基于红外面阵扫描设备的快速目标检测与识别技术,在图像拼接、运动目标检测、目标识别这三个方面进行了研究,主要内容有:1.对红外面阵图像简单拼接生成的全景图进行了分析,针对面阵扫描图像存在暗角以及不规则偏移的问题,提出了一套结合图像配准与图像融合的解决方案。首先分析了现有基于灰度域、变换域、特征的图像配准算法,最终选用相位相关法进行配准,并在其基础上加入了边缘检测的步骤,有效减少了灰度分布不均匀对相位相关法的影响。然后对图像融合算法进行了研究,选取了渐入渐出法实现图像融合,有效消除了因灰度分布不均匀产生的拼接缝。实验表明所提拼接算法使用归一化互相关度作为评价标准时,相比其它算法准确度更高,且处理速度达到了3.3ms/帧。2.针对现有运动目标检测算法缺乏普适性,复杂场景中目标召回率低的缺点,提出了一种基于直方图统计的目标检测算法。通过对帧间差分法与背景建模法等常用目标检测算法进行分析,发现现有算法解决问题的范围较为单一:如高斯背景建模提取简单背景内的运动目标有良好的效果,但复杂背景下效果不佳,而KDE(Kernel density estimation,核密度估计法)则与之相反。因此本文设计了一种可根据背景类型选取不同策略的算法。首先为各像素建立直方图,并通过直方图众数生成稳定的背景;接着通过三帧差分得到图像的噪声方差,并根据噪声方差与直方图将背景分为简单背景与复杂背景;最后根据背景类型分别使用单高斯模型与改进的两级阈值KDE提取出完整的前景,保证了复杂场景下所提取目标的完整性。实验表明所提算法拥有最高的F值0.782(F值为准确率与召回率的综合指标),同时处理速度达到了2.9ms/帧。3.针对现有利用CPU进行推理的深度学习识别网络,在识别红外目标时效率过低的问题,设计了一种轻量型神经网络。该网络在现有识别网络的结构和设计技巧的基础上,结合红外目标缺少纹理、深层语义较少的特点,一方面缩小输入尺寸与卷积核尺寸,另一方面减小网络的深度和宽度,在不损失识别精度的同时极大提高了识别速度。实验表明所提算法平均识别准确率为96%,处理速度为1.2ms/帧。

姜玉良[2](2021)在《基于OpenCV的复杂背景下苹果目标的识别定位方法研究》文中研究指明由于要求较高的时效性和劳力投入,果实采摘环节成为苹果生产作业中十分重要的一部分。而对于自然环境下生长的苹果,光照影响、枝叶遮挡和果实重叠等情况普遍存在,这严重影响了果实的准确识别以及采摘点的精确定位。针对在复杂背景下苹果的自动采摘过程中出现的光照影响、枝叶遮挡和果实间相互重叠的问题,提出一种基于OpenCV的复杂背景下苹果目标的识别定位方法。以自然环境下生长的红苹果为对象,通过改进的Retinex算法消除光照、枝叶遮挡的影响;选用Canopy算法与K-Means算法相结合对图像中的苹果目标进行分割提取;利用基于距离变换的分水岭图像分割算法对可能重叠的苹果轮廓进行切分;根据最大外接矩形内切圆法对苹果目标进行拟合,然后计算各个拟合轮廓圆的圆心距离和半径大小,剔除计算结果小于阈值的拟合圆,最终确定各个苹果目标在图像中的位置和大小。基于VS 2017与OpenCV 3.4.1开发环境,开发了苹果目标识别定位软件测试平台,并在此平台下对296张自然环境下生长的苹果图像进行了测试,测试结果表明:改进的Retinex算法可以较好的削弱在苹果目标图像处理过程中由于光照和枝叶遮挡造成的高亮和阴影影响;在苹果目标提取过程中结合Canopy算法与K-Means算法可以最大程度的保留苹果目标真实轮廓图像;使用最大外接矩形内切圆法拟合苹果目标并通过计算坐标与半径进行伪轮廓剔除,有效的提高时间利用率和准确率。本文方法对苹果目标进行识别定位的平均分割误差为6.67%,苹果目标识别准确率为93.59%,平均识别定位时间为3.96s。应用本文方法可以对自然环境下的苹果目标进行准确识别定位,提高识别效率。

康立鹏[3](2020)在《基于视觉导航的小型旋翼无人机目标识别自主降落系统研究》文中进行了进一步梳理近年来,随着硬件设备性能的提升与人工智能领域的发展,计算机视觉相关的算法也得到了飞速发展,特别是目标识别与跟踪降落方向。基于视觉导航的小型旋翼无人机目标识别自主降落依然是研究的热点问题。同时,视觉导航无人机自主降落相比GPS导航,更能提高无人机降落的精度。本文采用开源、经济、易操作的视觉导航模式,就如何提高无人机目标识别自主降落的精确性展开应用研究,具有一定的工程应用价值和实际意义。本文开展的相关工作与结论如下:1.本着开源、经济的原则,设计了视觉导航无人机目标识别自主降落控制系统,确定了无地面站辅助的机载模式,将系统划分为四个部分并对其中的计算机视觉模块、自主降落控制模块、四旋翼无人机平台进行了硬件选型。2.根据题目要求,自主设计了降落标识物并对设计细节进行了细致阐述。根据室外实际降落场景和标识物特征,提出了标识物三级高度识别定位方案,将定位坐标范围分三级高度进行缩小并介绍了方案具体实现流程。3.根据方案内容,确定了三级高度下标识物识别定位组合算法,分别为阈值检测、霍夫圆检测和April Tags标签识别,针对组合算法中标识物检测实时性低的问题,提出了阈值检测时动态缩小扫描区域的程序改进方法和霍夫圆检测时图像预处理的改进方法。实际测试,改进方法显着提高了标识物识别定位的实时性,从而减少无人机自主降落飞行控制的时延现象。通过复杂背景试验,验证了标识物识别定位组合算法的可行性。4.根据方案内容,设计了无人机自主降落控制策略并进行了自主降落飞行试验。自主降落控制模块通过循环计算图像中心与标识物中心相对位置的方式进行方向调节并输出控制指令至飞行控制器,从而实现无人机自主降落。通过相关飞行试验获得了飞行数据,试验证明了本文设计的视觉导航无人机目标识别自主降落控制系统可以有效提高降落精度。本文初步实现了视觉导航小型旋翼无人机的目标识别自主降落。

金璐[4](2020)在《少样本条件下的红外空中目标识别与检测技术研究》文中研究说明红外成像具备探测距离远、隐蔽性高、可穿透烟雾以及全天候工作等优势,在光电探测领域受到了广泛的重视、研究和应用。在红外探测系统中,目标识别与检测能够为图像中的潜在目标提供类别判断和坐标定位,是后续跟踪任务的基础,也是后续决策系统的有力支撑。近年来,随着计算能力和大数据的推进,深度学习模型已经在计算机视觉领域取得了异常瞩目的进展,在很多大型数据集上,一些算法的认知水平甚至超过了人类的分辨能力。然而,这些算法之所以性能强大,很大程度上依赖于训练数据的充分程度。在红外空中目标的识别问题上,获取样本数据的代价十分昂贵,某些少见机型的数据样本甚至仅有个位数,很难建立充分的样本库来对各种型号的飞机红外数据进行分析。本文围绕少量样本场景下的红外空中目标识别问题,结合图像处理、模式识别、稀疏表示、深度学习等领域进行了深入研究,主要工作与创新点如下。(1)提出了一种基于稀疏表示的红外条状噪声校正方法。首先利用K-SVD字典学习算法对无噪声干扰的红外图像进行训练,提高字典对红外图像的表达能力;然后利用OMP算法对噪声图像进行稀疏求解和图像重建;随后利用重建图像与噪声图像,根据最小二乘法逐行求取校正系数;最后利用校正系数和噪声图像输出校正图像。实验结果表明,该方法对条状噪声的校正效果比较稳定,不受场景约束,且对稀疏求解的误差容忍度较高。(2)提出了一种基于判别稀疏表示的红外空中目标识别模型。首先提出了具有旋转不变性的方向梯度直方图特征,然后将训练样本的该特征作为原子组成初始字典,利用FDDL字典学习算法对字典进行优化,同时提高字典的编码能力和判别能力。随后提取测试样本的特征向量作为原始信号,利用同伦算法求解稀疏表示系数,最后根据各类别的重构残差输出红外空中目标的预测标签。该方法理论基础充分,实验结果表明,该方法拥有较强的旋转不变性、判别能力以及抗噪性能。(3)针对某些少见机型样本稀少的问题,提出了一种改进关系网络的少样本红外空中目标分类方法。该方法将关系网络模型与多尺度特征融合方法以及元学习的训练策略相结合,首先构造多尺度特征提取模块提取支撑样本和查询样本的特征信息,然后把查询样本和支撑样本的图像特征连接起来输入关系模块,根据查询样本和各类支撑样本之间的关系值作为类别判断依据。在训练方式上,采用元学习的训练策略。实验结果表明,本文提出的方法能够在少量样本的情况下,实现多种机型的红外空中目标的识别任务。(4)针对红外空中目标尺寸偏小、分布稀疏的特性,提出了一种增强小尺寸目标关注的少样本红外空中目标检测方法。该方法对特征权重调整模型加以改进,在特征提取模块,通过深浅层特征图融合的方式增强特征提取模块输出的特征图表达能力;在权重调整模块,使用热力图取代二值图像作为标注信息的输入形式,增强红外目标与背景之间的关联,使模型能够关注到较小尺寸目标。在训练方式上,采用基础训练与少样本元任务微调相结合的方式。实验结果表明,该方法能够在少量标注样本的情况下,实现红外空中目标的检测任务。

周浩源[5](2020)在《彩色结构光三维测量拼接与点云目标识别方法研究》文中研究说明三维视觉检测技术极力推动着传统制造业向智能自动化转型升级,如何实现高效稳定的三维测量和三维识别定位是当前三维视觉研究领域面临的重大挑战。针对目前工业检测领域结构光三维测量的速度和精度相互制约的问题,本文提出基于新型彩色复合编码的结构光三维测量方法,在保证一定测量精度的前提下,大大减少投影幅数,提高了测量效率。针对现有多视角点云自动拼接方法易出现配准错位及算法效率低等问题,提出基于多匹配约束原则的粗精结合点云配准方法,极大减少点云错误特征匹配对,提高了多视角点云配准精度和效率。针对目前复杂场景下物体三维识别方法准确率低的问题,研究基于加权特征的机器学习识别方案和基于加权点对特征的识别方法,权重因子提高了算法识别的准确率。最后,集成开发出一套快速高精度的三维测量拼接与识别系统。本文的主要内容概括如下:(1)深入调研国内外关于结构光三维测量、多视角点云配准、复杂场景点云识别等三维视觉技术,对现有方法进行归纳总结和对比分析,指出目前三维视觉领域的难点问题,确立本文的研究重点。(2)针对结构光三维测量技术存在的高速与高精度矛盾问题,提出一种新型彩色复合编码的结构光三维测量方法,通过正弦编码、分段阶梯相位编码和格雷码的复合编码方式,可在保证测量精度的同时,实现四帧彩色图案完成测量,大大减少条纹图的投影幅数,提高测量效率。同时,采用基于Caspi颜色响应模型和7阶多项式光强响应模型分别对条纹图像的颜色串扰误差和gamma非线性误差进行补偿,提高三维测量系统的精度。(3)针对三维测量系统的多视角点云拼接效率低、配准精度差等难题,提出基于多匹配约束原则的粗精结合点云配准方法。考虑特征点的错误匹配对点云配准结果准确性的直接影响,创新性结合互惠性、几何一致性及随机采样一致性等原则准确筛选待配准点云的特征匹配对,避免错误匹配点对的配准计算,提高配准效率和精度。同时,为缓解精配准易陷入局部最优解的问题,采用随机采样一致性粗配准与改进迭代最近点精配准相结合的方法完成多视角点云拼接,实验表明该方法能有效应对点云存噪声且重叠区域少的配准需求。(4)针对目前复杂场景三维点云识别定位方法鲁棒性低的问题,研究基于加权特征的点云识别方法。对传统基于机器学习的结合全局与局部特征的点云识别方法和基于点对特征的点云识别方法进行深入研究。考虑点云噪声及密度的影响,在特征求取过程引入权重因子,并分析对比加权前后两种方案的优劣,最终选择识别准确率更高更稳定的基于点对特征识别方法进行系统相关功能模块的开发。(5)在上述理论与方法研究基础上,采用编程语言C++,Qt软件开发框架、Open CV图像处理库、PCL点云处理库及Eigen矩阵运算库实现各项算法功能模块,结合开发出一套快速鲁棒的物体三维测量与点云识别系统,该系统三维测量范围为300x250x30mm,精度可达200μm,测量时间约为1.3s。最后,通过对实例物体的三维测量拼接与识别实验,验证本文开发的三维视觉系统各项功能及相关算法的有效性。

杨雷雷[6](2020)在《基于机器视觉的图像识别和瑕疵检测研究》文中研究说明近年来我国的汽车需求不断增长,对于汽车发动机生产制造过程的自动化要求越来越高,自动化装备和自动检测系统的应用,大幅提高了产线上的自动化水平和产品质量。但目前,发动机生产商在某些工件上料环节仍采用人工搬运方式,存在着劳动强度大,生产效率低等弊病。在成品质量检验环节,采用人工目视检查发动机缸体的表面缺陷,工人容易视觉疲劳,造成错判率、漏判率高居高不下问题,严重影响了产线的效率和产品质量。本文采用基于机器视觉的形状识别技术对待上料工件进行自动识别与定位,配合吸盘机械臂实现自动上料。同时,采用机器视觉技术和深度学习技术相结合的方法,对发动机缸体被加工表面进行瑕疵检测,以提高次品检出率、保证产品质量。论文主要研究内容如下:1、以LED为照明系统和单目末端开环视觉系统为基础硬件系统,对图像预处理、边缘检测、形态学处理等图像处理算法进行了对比实验,并对深度学习和卷积神经网络进行了研究,为后续的目标识别与定位和瑕疵检测奠定了基础。2、针对工件的识别与定位问题,首先对待上料工件图像进行预处理,然后对图像进行边缘检测和形态学处理,采用霍夫检测识别形状,再进行目标的定位和姿态求解获取平面坐标信息,并通过红外传感器获得高度信息,最后根据码垛策略把工件中心点坐标信息传送给吸盘来实现码垛。3、针对缸体表面的瑕疵检测问题,论文研究分析了基于机器视觉和深度学习的瑕疵检测方法,提出了机器视觉技术和深度学习技术混合的瑕疵检测方案,当传统视觉检测方法检出率不高时,通过辅助深度学习的方法来对图像进行二次检测,提高次品的检出率,并设计实验来验证了该方法的有效性。4、基于MFC(微软基础类库)开发了识别与定位及瑕疵检测应用程序,将上述算法集成到各个功能模块中,实现了目标识别与定位和瑕疵检测功能。软件的实际应用效果表明:工件位姿信息、混合的瑕疵检测方法明显提高了缸体次品检出率,且用户的操作方便快捷,程序运行快速稳定,实现了项目预期效果。

程立[7](2019)在《架空高压输电线路巡线机器人视觉检障定位的研究》文中提出巡线机器人在巡检过程中,要实现大范围自主行走,需要具有跨越诸如防震锤、悬垂线夹之类障碍物的能力。要跨越障碍物,首先应该检测到它们,进而识别障碍物的种类和对其进行定位。视觉传感器由于具有无接触检测、可感知信息丰富等优点,成为巡线机器人导航时感知周围环境,获取外部信息的首选传感器。通过视觉,检测、识别和定位地线上的障碍物,使机器人接近它们时避免发生碰撞,并依据障碍物种类制定越障方案,是利用视觉导航的重要任务。同时,在手眼视觉中,利用视觉检测地线的姿态信息,回馈给控制系统,使机器人跨越杆塔时有效抓取地线。基于以上需求,本文主要研究内容如下:(1)架空地线的快速视觉检测。为准确快速的检测导航摄像机视频中的地线,给后续处理提供基础,本文针对图像处理中常用的穷尽搜索算法计算量大的问题,对分级算法进行了改进。改进算法中,整个处理分两级进行,通过使其时间复杂度达到最小来确定第一级步长,结合降采样,将检测的时间复杂度由O(mn2)降至O(m1/2n),并将其应用于检测文本图像的倾角和导航视频帧中的地线,验证了算法的有效性。在地线检测中,根据其轴线的表达式,获取边缘直线的法向角范围。利用角度范围和地线两侧边缘为最长两直线这两条先验知识,采用分级算法,实现了地线的快速检测。测试中对于480×360和640×360的巡检图像,应用改进算法,能够在不降低精度的情况下,将处理速度提高到传统Hough变换的7.54倍和7.21倍,在法向角和距离检测精度为0.1°和0.05的条件下,平均处理时间分别为8.5ms和5.0ms。(2)架空地线上障碍物的视觉检测与识别。为应对巡检图像受摄像机晃动、目标的运动和大尺度变化、光照变化等不利影响,从中准确检测并识别障碍物,本文在克服上述影响检测出运动目标的基础上,通过PCA算法融合目标的Hu矩和HOG特征,并采用支持向量机作为分类器对其进行识别。首先通过灰度拉伸减弱光照影响,利用Harris角点匹配法检测背景的抖动以消除其影响,然后结合帧差和阈值分割实现运动目标的检测。检测出目标后,提取Hu矩和HOG特征并组合成联合特征,采用PCA算法将其降为低维特征,利用SVM分类器进行分类。最后对三种型号的防震锤、悬垂线夹及负样本组成的训练集和测试集各100幅和60幅图像分别进行训练和测试,在PCA降维中贡献率占比阈值为0.85时,四种金具识别率最高,分别为98.3%、95.0%、96.7%和98.3%,优于文献中已有的单一特征识别算法,且对单个目标的识别时间只需0.1ms。(3)架空地线上障碍物的单目距离估测。检测到障碍物后,为确定它沿地线到摄像机的距离,文中提出了一种单目距离估测算法。通过摄像机相对于地线的几何关系和小孔成像模型,获取所求距离与图像中地线上最近点到摄像机镜头距离这一已知量的关系,实现距离的估测。为验证算法效果,设计了摄像机处于静止和运动两种情况下的实验。静止实验中,在1.5-9.5米范围内,估测距离绝对误差不超过0.20米,相对误差不超过10%,相对误差的绝对值均值不超过3%。动态实验中,机器人匀速运动所走过距离和估测距离之和基本为定值,符合预期结果。通过两种实验,证明该算法是可靠的。本算法具有检测精度较高、所需参数少等优点。(4)导航摄像机的自动标定。针对机器人高空作业时无法拍摄标定板图像,本文在张正友标定算法的基础上给出了一种自动标定方法,无需人工拍摄标定板图像即可完成标定,获取焦距等参数。检测到地线上的运动目标后,机器人做已知速度的低匀速运动。在此过程中摄像机俯仰角保持不变,通过n幅图像中的运动目标,从地线上获取3×n个交点,构造出一幅含2×(n-1)个尺寸已知的矩形的标定棋盘格图像。这些交点为地线边缘及轴线与位于该轴线所在竖直面内的垂线相交所产生。改变两次偏转角,共获取3幅含相同数目矩形的棋盘格图像,按张氏标定法相同的处理方式完成计算。试验中以张氏标定结果为基准,当焦距均值分别为1420.27、2524.69和1855.23时,自动标定相对误差均值分别为4.41%,5.72%和8.31%。(5)手眼视觉中地线姿态的检测。为了从手眼视觉图像中准确检测出地线的斜率角和截距这两个反应其姿态的参数,利用图像中地线的纹理特点,本文设计了一种通过对直线进行聚类以确定目标分割区域的算法。通过边缘图像,获取其中直线的法向角、到原点距离和起止点等信息。对各直线的法向角和距离进行聚类,将近似平行且距离接近的直线作为同一个类别。去除外点直线后,由类别中直线端点确定各目标的分割区域,获取其中心线的斜率角和截距,并分割出各区域作为待识别目标。最后提取目标的LBP特征,利用SVM分类器进行识别,实现地线姿态的检测。通过实验验证,算法可达到较好的检测效果:斜率角最大误差为3.4°,截距误差最大为9.5像素,不超过图像宽度的1/24。

赵源深[8](2018)在《西红柿采摘机器人目标识别、定位与控制技术研究》文中认为采摘机器人作为一种典型的智能农业装备,不仅集成了机器人、传感和控制等先进技术,而且需要适应复杂的农业场景,因此其开发和研制具有很高的技术难度。目前制约采摘机器人性能提升的技术瓶颈主要集中在目标识别、定位与控制等难题。本文以西红柿采摘机器人为研究对象,围绕西红柿采摘机器人的目标识别、定位与控制技术展开研究,涉及西红柿采摘机器人的软硬件系统设计、图像处理、机器学习以及视觉伺服等方面的理论研究、技术实现和试验验证,论文的主要研究内容和取得的结论包括:(1)针对西红柿温室的环境特点和采摘作业的任务需求,设计和开发了西红柿采摘机器人软硬件系统。分别设计了西红柿采摘机器人双机械臂结构、剪切式和气吸式两种采摘手抓以及采摘机器人的移动底盘;针对西红柿采摘机器人各子系统对控制性能的需求不同,分别研发了基于EtherCAT总线的西红柿采摘机器人驱动控制系统和基于Arduino的控制系统。西红柿采摘机器人的软件系统采用基于ROS的逻辑分层和功能模块化设计方案,编写了面向硬件的驱动层程序和面向功能模块的应用层程序。(2)针对在非结构化环境下,西红柿采摘机器人环境感知易受光线变化等因素的影响,提出了一种基于特征图像融合的西红柿分割方法。通过提取L*a*b*和YIQ颜色空间模型下的a*-component图像和I-component图像作为特征图像,采用小波融合方法,对a*-component特征图像和I-component特征图像进行像素级融合。融合后的西红柿图像利用最优阈值分割方法进行分割处理,正确分割率达到93%,并且降低光照变化和枝叶遮挡等干扰因素对分割结果的影响,表明基于特征图像融合的方法可以有效提升西红柿采摘机器人对作业环境的感知能力。(3)针对西红柿采摘机器人目标识别高准确性、高鲁棒性和快速性的要求,提出了一种基于AdaBoost分类器与颜色特征分类器级联的成熟西红柿识别算法。通过离线训练分别得到适用于西红柿识别的AdaBoost分类器和基于平均像素值的颜色特征分类器,采用级联的方式将两个分类器组合,用于西红柿采摘机器人的在线目标识别。结果表明,表征弧度特征的C类Haar-like特征最适合用于识别西红柿。采用级联分类器的西红柿识别正确识别率可达95%以上,误识别率控制在5%左右,并且具有非常好的鲁棒性和快速性,满足西红柿采摘机器人对目标识别的准确性、鲁棒性和快速性要求。(4)为了实现西红柿采摘机器人对目标果实和采摘手抓的空间定位,提出了一种基于双目定位的西红柿采摘机器人控制方法。利用双目视觉获取采摘机器人作业场景的点云信息,构建起采摘机器人现场作业的三维虚拟环境,然后在虚拟环境中对目标果实进行空间定位,根据定位结果进行机械臂运动轨迹规划获取机械臂各关节的运动参量,最后控制机器人执行采摘动作。实验测定双目空间定位误差约为2mm;西红柿采摘机器人末端空间定位误差范围为6mm-10mm;采用基于双目定位控制方法的西红柿采摘机器人能够在模拟条件下实现采摘作业。(5)为了消除西红柿采摘机器人双目定位和运动控制中存在空间定位误差,提出了一种基于视觉伺服的西红柿采摘机器人微操控制方法。使用眼在手上构型方式,构建起西红柿采摘机器人视觉伺服控制系统,并推导得到西红柿采摘机器人的眼手关系模型,利用Kalman滤波器对眼手关系模型进行在线辨识,最后设计了基于PI控制策略的西红柿采摘机器人的视觉伺服控制器。试验表明,在视觉伺服控制器的作用下,西红柿采摘机器人能够在微小空间范围内实现对采摘手抓的精准定位控制。这种控制不需要附加试探运动,并且对作业环境具有较好的自适应性,能够保证西红柿采摘机器人顺利完成采摘作业。

孙景峰[9](2018)在《基于图像特征的示波屏识别关键技术研究及应用》文中进行了进一步梳理无损检测设备超声波探伤仪在航空、航天、航海、轨道交通等现代工业制造中有着广泛的应用。超声波探伤仪作为一种重要的检测设备,其检测数据的精确性、可靠性和可信度,直接关乎产品、装备的结构强度、寿命以及整机质量、安全等,因此须对超声波探伤仪进行定期的严格计量校准。然而,目前国内针对超声波探伤仪的计量校准技术,仍停留在人工计量人眼读图的发展阶段。随着超声波探伤仪多功能化、数字化、智能化的进一步发展,以人眼读图为主的人工计量方式,将难以适应超声波探伤仪计量校准的发展需求,使用机器视觉替代传统人眼读图,实现超声波探伤仪的自动化计量校准已是现代化工业发展的大势所趋。本文从超声波探伤仪的定期计量工作出发,利用机器视觉完成计量中的读图过程,研究了示波屏窗口图像的分割、显着边缘检测以及基于图像矩不变量的字符、形状识别等几个关键问题,最后设计了一种基于图像特征的超声波探伤仪自动校准系统。主要研究成果及创新点如下:1.针对超声波探伤仪形状、配色以及结构布局等多样性易造成的示波屏窗口分割不完整的问题,提出了一种基于几何形状特征的图像分割方法。该方法利用目标对象的几何形状特征作描述符,将分割问题描述为形状识别问题。利用边缘检测算法提取目标图像的轮廓曲线,结合目标最小外接矩形完成示波屏窗口区域的筛选与判别,为降低目标形状识别过程的运行时间,论文结合投影法对最小外接矩形求取算法—寻找主轴法进行了优化,加速了最小外接矩形的收敛速度。实验证明,示波屏窗口的几何特征具有较强的辨别能力,分割方法具有较好的稳定性,对噪声、光照变化均具有较好的鲁棒性,且能够完整的分割出被校超声波探伤仪的示波屏窗口图像。2.针对示波屏窗口图像的波形提取通用性差、特征获取困难等问题,提出了一种基于剩余谱理论的示波屏窗口图像显着边缘检测方法。该方法利用沃尔什变换将空域图像转至列率域,通过寻找空域图像水平方向、垂直方向对应的列率谱区域,建立显着边缘对应的剩余列率谱,最后再利用沃尔什逆变换等操作获得目标图像的显着边缘。实验证明,基于沃尔什变换的显着边缘检测方法简单易实现、效率高、对目标显着边缘敏感;利用显着边缘检测方法能有效完成波形检测、提取任务,无需针对具体波形设置具体的图像特征参数,具有较好的通用性。3.针对示波屏窗口图像内字符、形状的特征描述符选取、快速识别等问题,提出并推导了一种新的图像矩—沃尔什图像矩做为目标字符、形状的特征描述符,并利用简单的相似性度量—加权欧氏距离完成识别工作。实验证明,基于沃尔什正交函数系构造的沃尔什图像矩,计算效率高且具有平移、旋转和缩放不变特性,对字符、形状具有较强的描述能力,利用简单易实现的加权欧氏距离,针对示波屏窗口图像常见字符、形状的识别,获得了98.09%的平均识别率。4.针对现有超声波探伤仪计量校准装置工作效率低,人为因素多,计量校准重复性差、稳定性差等问题,基于超声波探伤仪示波屏的图像特征设计了一种自动计量校准系统,同时成功应用了论文相关的研究成果。设计过程中,详细分析了超声波探伤仪计量校准主要计量参数的计量校准过程,给出了系统软硬件构成及设计,推导了示波屏窗口波形像素变化量与被校超声波探伤仪常规参数间的量传关系。实验数据说明该自动计量校准系统能达到较高的检测精度满足超声波探伤仪自动化计量校准的需求。

王晓[10](2017)在《侧扫声呐图像精处理及目标识别方法研究》文中研究说明随着我国建设海洋强国战略的提出,针对海洋资源尤其是深海资源的勘察活动越来越多。侧扫声呐(Side Scan Sonar,SSS)系统,作为水下地貌图像的获取设备,因价格低廉、分辨率高等优点在海洋工程、海洋科学、海上搜救、水下目标探测和识别等领域得到了广泛的应用。而目前国内市场上使用的仪器和数据处理软件多为国外进口,国外数据处理软件无法针对性处理我国生产过程中遇到的问题,且水下目标探测和识别均依靠人工判读,效率低下且精度难以保证。据此,论文开展了侧扫声呐数据精处理及目标识别方法研究,研制了侧扫声呐条带数据处理软件,实现了大区域侧扫声呐图像的精获取及沉船目标的自动识别。论文的主要工作及贡献如下:(1)阐述了侧扫声呐系统的最新发展,总结了数据处理及目标探测、分割和识别方法的研究现状,综述了图像的应用领域,阐明了本文的研究意义、目的和主要内容。(2)介绍了侧扫声呐系统的基本原理,系统分析了侧扫声呐图像的特点,认为几何和辐射畸变是图像畸变的主要诱因,发射脉冲、海面波浪和海流、尾流和气泡群、猝熄、多路径回声、沙坡地形和其它作业设备是目标探测和识别的主要影响因素,并给出其消除策略。对精细化处理侧扫声呐数据、更深层次应用侧扫声呐图像提供了理论基础。(3)复杂海洋环境下海底线的综合提取算法研究。针对侧扫声呐图像传统阈值海底跟踪法存在费时且精度不高的缺陷,提出了联合最后峰法、异常海底跟踪段修复法、对称性和海底地形变化渐近性原则及卡尔曼滤波的海底线综合跟踪方法。实验结果表明,该方法实现了复杂海洋环境噪声下海底线的自动、准确跟踪;与外部测深数据比较,取得了最大标准偏差为±0.18m,与测深精度一致的拖鱼高度跟踪精度。(4)单条带侧扫声呐图像的辐射畸变改正方法研究。针对受增益、底质等因素影响,单条带侧扫声呐图像存在的辐射畸变问题,研究并给出了一种联合人工增益量消除、分离距离和波束模式影响的图像辐射畸变联合改正方法。与传统方法比较,联合改正法处理后图像熵值减小、PSNR增大,图像质量提高,视觉效果改善。(5)联合特征与地理编码的多条带侧扫声呐图像精拼接方法研究。针对侧扫声呐图像地理编码拼接法带来的相邻条带共视目标错位问题、特征拼接法带来的地理位置整体偏移问题以及贫特征区域无法实施问题,提出了一种联合地理编码,多条带图像分组、分块特征拼接(这里给出了一种基于几何变换的特征匹配改进算法)实现大区域海底地貌图像的获取方法;同时,为保证大区域图像灰度的均匀变化,给出了一种规整化均值的简单均衡化方法;综上研究,给出了综合法的拼接流程。实验表明,基于几何变换的分块特征匹配将传统匹配方法耗时30 s缩减到7 s,满足了程序实时处理的要求;多条带图像拼接后共视特征点对平均坐标偏差从8.91 m减小到1.17m,实现了位置统一;均衡化处理后图像熵值减小、PSNR增大,图像质量提高。综上处理,获得了共视目标形状保形、位置统一及灰度变化一致的大区域海底地貌图像。(6)基于扩散映射的目标探测方法研究。目标准确探测是目标分割和识别的基础,针对传统目标探测方法难以实现多目标及复杂地貌图像中目标准确探测的问题,根据扩散映射在有效降低数据维数的同时还可寻找数据结点间有意义的几何结构的优点,给出了一种基于扩散映射的侧扫声呐图像目标的准确探测方法。针对扩散映射计算效率低的缺陷,给出了图像数据随机采样计算扩散映射的方法,提高了计算效率;针对探测精度问题,提出了首先对阴影进行单阈值简单探测,随机采样时不考虑阴影位置,提高目标探测的准确性;然后基于高斯金子塔图像完成目标探测,弥补随机采样可能造成目标探测失败的问题;以此,提高了目标探测精度。实验结果表明,含多目标的侧扫声呐图像实现了目标无遗漏的准确探测,探测准确率达到100%;沙坡地形图像中目标也可实现准确探测。研究为侧扫声呐图像提供了一种适应性强的非监督的目标准确探测方法。(7)基于中性集合和量子粒子群算法的目标图像分割算法研究。针对传统侧扫声呐图像目标分割方法存在准确性和效率不高的缺陷,提出了目标阴影区单阈值分割、高亮区联合中性集合和量子粒子群算法的目标图像综合分割方法。实验结果表明,实测288x288像素的沉船图像分割耗时为2.428 s,低于传统的2D-OTSU(5.905 s),MRF(10.500 s),FCM(3.654 s)和分形(5.386 s)的分割方法;模拟图像分割结果的F-得分,诸如F1值(F1越大,分割精度越高)达到了 0.9943,F1值高于前述传统分割方法;实现了侧扫声呐目标图像的高效、准确分割。研究为侧扫声呐图像中目标的高效、准确分割提供了一种新方法。(8)侧扫声呐图像沉船识别模型研究。研究了适合侧扫声呐水下沉船目标图像的特征提取方法,分析了人造物体和海底自然背景图像的特点,认为分形维和多重分形谱宽是区分二者的有效特征;为丰富沉船特征表示,进一步提取沉船灰度特征,灰度共生矩阵(Gray Level Co-occurrence Matrix,GLCM)、Tamura、局部二值模式(Local Binary Pattern,LBP)、基于傅里叶变换的环形和楔形、Gabor等纹理特征作为综合全特征;借助独立成分分析(Independent Component Analysis,ICA),实现了特征优选;比较了基于GentleAdaBoost、KNN、SVM、随机森林构建沉船识别模型的正确识别率、漏检率及误报率,认为GentleAdaBoost是构建沉船识别模型的最佳算法;利用ICA优选特征,借助Gentle AdaBoost训练,建立了水下沉船识别模型;最后,基于精处理后的侧扫声呐瀑布图像给出了沉船识别流程。实验表明:样本实验沉船识别模型的正确识别率达97.4359%,误报率为0.0313%,漏检率为0;实测条带数据验证了沉船识别流程及识别模型的正确性。论文研究形成了较为完备的侧扫声呐图像精处理方法体系,以及基于侧扫声呐图像目标的分割、探测和识别方法体系,为研发具有自主知识产权的侧扫声呐条带图像处理软件奠定了理论和方法基础。

二、一种基于列扫描灰度差异的快速目标识别定位算法(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、一种基于列扫描灰度差异的快速目标识别定位算法(论文提纲范文)

(1)基于红外面阵扫描设备的快速目标检测与识别(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 课题的背景与意义
    1.2 国内外研究发展现状
        1.2.1 图像拼接
        1.2.2 运动目标检测
        1.2.3 图像识别
    1.3 论文内容与章节安排
        1.3.1 论文内容
        1.3.2章节安排
第2章 图像拼接算法
    2.1 图像配准
        2.1.1 基于灰度的配准
        2.1.2 基于变换域的配准
        2.1.3 基于特征的配准
    2.2 图像融合
        2.2.1 基于像素的融合算法
        2.2.2 基于变换域的融合算法
    2.3 拼接算法实现
        2.3.1 配准步骤
        2.3.2 融合步骤
        2.3.3 对比分析
    2.4 小结
第3章 运动目标检测
    3.1 帧间差分法
    3.2 背景建模法
        3.2.1 高斯背景建模
        3.2.2 Vibe算法
        3.2.3 核密度估计法
    3.3 运动目标检测实现
        3.3.1 基于直方图众数的背景估计
        3.3.2 基于改进三帧差分的噪声估计
        3.3.3 背景划分
        3.3.4 前景提取
        3.3.5 全局光照变化检测
        3.3.6 对比分析
    3.4 小结
第4章 目标识别
    4.1 分类网络
    4.2 检测识别网络
        4.2.1 R-CNN
        4.2.2 SSD
        4.2.3 YOLO
    4.3 红外图像分类网络实现
        4.3.1 分类网络设计
        4.3.2 对比分析
    4.4 小结
第5章 总结与展望
    5.1 总结
    5.2 展望
参考文献
致谢
作者简历及攻读学位期间发表的学术论文与研究成果

(2)基于OpenCV的复杂背景下苹果目标的识别定位方法研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究目的和意义
    1.2 国内外研究现状
        1.2.1 基于机器视觉的果实识别算法国外研究现状
        1.2.2 基于机器视觉的果实识别算法国内研究现状
    1.3 论文的主要研究内容
第2章 图像增强及苹果目标提取
    2.1 苹果目标识别定位算法整体流程
        2.1.1 自然环境下的苹果图像分析
        2.1.2 算法整体流程
    2.2 苹果图像增强算法
        2.2.1 直方图均衡化算法
        2.2.2 Mask匀光算法
        2.2.3 Retinex图像增强算法
    2.3 颜色空间选择
        2.3.1 RGB颜色空间
        2.3.2 HSV颜色空间
        2.3.3 Lab颜色空间
    2.4 苹果目标提取算法
        2.4.1 苹果目标提取算法分析
        2.4.2 特征参数选取
        2.4.3 Canopy聚类算法
        2.4.4 基于OpenCV平台的K-Means聚类算法
    2.5 本章小结
第3章 苹果目标图像识别定位
    3.1 苹果目标图像二值化
    3.2 图像预处理
        3.2.1 形态学处理
        3.2.2 中值滤波
        3.2.3 孔洞填充和小区域去除
    3.3 苹果目标分割与拟合算法
        3.3.1 苹果目标分割算法分析
        3.3.2 距离变换算法
        3.3.3 分水岭算法
        3.3.4 基于距离变换的分水岭算法
        3.3.5 拟合算法
    3.4 拟合圆判定算法
        3.4.1 距离计算
        3.4.2 最终拟合圆确定
    3.5 本章小结
第4章 测试平台设计与结果分析
    4.1 测试平台设计
        4.1.1 开发工具选择及开发环境配置
        4.1.2 苹果目标识别定位软件测试平台设计
        4.1.3 软件测试平台使用流程及界面设计
    4.2 实验结果与分析
        4.2.1 测试数据集及硬件配置环境
        4.2.2 评价指标分析
        4.2.3 苹果目标提取结果分析
        4.2.4 苹果目标分割结果分析
        4.2.5 苹果目标拟合结果分析
        4.2.6 平台实验结果分析
    4.3 本章小结
结论
参考文献
攻读硕士期间发表的学术成果
致谢

(3)基于视觉导航的小型旋翼无人机目标识别自主降落系统研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 课题研究背景与意义
    1.2 国内外研究现状
        1.2.1 旋翼无人机技术研究现状
        1.2.2 无人机视觉导航技术研究现状
        1.2.3 无人机降落标识物研究现状
    1.3 论文主要研究内容
第二章 四旋翼无人机基础平台的搭建
    2.1 自主降落系统总体设计
    2.2 自主降落系统主要硬件组成
        2.2.1 视觉导航模块的选择
        2.2.2 自主降落控制模块的选择
        2.2.3 四旋翼无人机平台的搭建
    2.3 四旋翼无人机飞行控制原理
    2.4 本章小结
第三章 标识物三级高度识别定位
    3.1 标识物的设计
    3.2 标识物三级高度识别定位方案
    3.3 Open MV视觉模块概述
        3.3.1 摄像头初始化
        3.3.2 TOF光电测距
        3.3.3 颜色空间转换
        3.3.4 串口通讯
    3.4 数据统计与分析
    3.5 本章小结
第四章 识别定位算法设计与实现
    4.1 阈值检测算法
        4.1.1 阈值检测算法实现
        4.1.2 阈值检测算法改进
    4.2 霍夫圆检测算法
        4.2.1 霍夫圆检测算法实现
        4.2.2 霍夫圆检测算法改进
    4.3 April Tags标签识别算法
    4.4 组合算法试验验证
    4.5 本章小结
第五章 自主降落控制策略的设计与实现
    5.1 手动控制无人机的原理
    5.2 自主降落控制模块控制无人机
        5.2.1 相对位置计算
        5.2.2 自主降落控制程序设计
    5.3 自主降落工作过程
    5.4 自主降落试验验证
    5.5 自主降落数据分析
    5.6 本章小结
结论与展望
参考文献
致谢
攻读学位期间发表的学术论文及研究成果
个人简历

(4)少样本条件下的红外空中目标识别与检测技术研究(论文提纲范文)

摘要
abstract
专业术语注释表
第1章 绪论
    1.1 研究背景与意义
    1.2 红外目标检测算法研究现状
        1.2.1 红外图像预处理技术研究现状
        1.2.2 候选区域生成技术研究现状
        1.2.3 红外目标识别算法研究现状
    1.3 本文内容与章节安排
        1.3.1 主要研究内容
        1.3.2 论文结构安排
第2章 基于稀疏表示的条状噪声校正方法
    2.1 引言
    2.2 条状噪声的建模分析与评价指标
        2.2.1 噪声的建模分析
        2.2.2 条状噪声消除的评价指标
    2.3 基于稀疏表示的条状噪声校正方法
        2.3.1 稀疏表示模型
        2.3.2 l0-稀疏求解算法
        2.3.3 图像重建
        2.3.4 最小二乘法求取校正系数
        2.3.5 K-SVD字典学习算法
    2.4 实验与结果分析
        2.4.1 实验准备与数据来源
        2.4.2 字典学习
        2.4.3 误差容限对校正结果的影响
        2.4.4 对比实验
    2.5 小结
第3章 基于判别稀疏表示的红外空中目标识别方法
    3.1 引言
    3.2 算法模型
        3.2.1 判别稀疏表示原理
        3.2.2 FDDL字典学习
        3.2.3 具有旋转不变性的HOG特征
    3.3 实验与结果分析
        3.3.1 实验准备与数据来源
        3.3.2 梯度统计划分区间
        3.3.3 字典学习
        3.3.4 分类结果分析
        3.3.5 抗噪性能分析
    3.4 小结
第4章 基于少样本学习的红外空中目标分类方法
    4.1 引言
    4.2 基于元学习的少样本学习方法
        4.2.1 与模型无关的元学习方法
        4.2.2 LSTM模型元学习
    4.3 基于度量学习的少样本学习方法
        4.3.1 匹配网络
        4.3.2 原型网络
        4.3.3 关系网络
    4.4 多尺度改进关系网络
        4.4.1 多尺度改进关系网络的结构设计
        4.4.2 多尺度改进关系网络的学习策略
    4.5 实验与结果分析
        4.5.1 实验准备与数据来源
        4.5.2 mini-Image Net少样本学习任务
        4.5.3 Infra-aircraft少样本学习任务
    4.6 小结
第5章 基于少样本学习的小尺寸红外空中目标检测方法
    5.1 引言
    5.2 特征权重调整模型
    5.3 针对红外空中目标的特征权重调整模型
        5.3.1 特征提取模块
        5.3.2 特征权重调整模块
        5.3.3 预测模块
        5.3.4 训练策略
    5.4 实验与结果分析
        5.4.1 实验准备与数据来源
        5.4.2 评价指标
        5.4.3 Pascal-VOC数据集测试结果
        5.4.4 红外数据集测试结果
    5.5 小结
第6章 总结与展望
    6.1 全文工作总结
        6.1.1 主要研究工作
        6.1.2 特色与创新
    6.2 未来研究展望
参考文献
致谢
作者简历及攻读学位期间发表的学术论文与研究成果

(5)彩色结构光三维测量拼接与点云目标识别方法研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 课题研究背景和意义
    1.2 结构光三维测量研究现状
        1.2.1 灰度编码
        1.2.2 彩色编码
    1.3 三维点云拼接方法研究现状
    1.4 三维物体识别与位姿估计研究现状
        1.4.1 基于特征的物体识别
        1.4.2 基于学习方法的物体识别
    1.5 本文研究目的和内容
第二章 基于新型彩色复合编码的结构光三维测量方法
    2.1 引言
    2.2 新型彩色复合条纹编码与解码方法
        2.2.1 传统四步相移算法
        2.2.2 新型彩色复合条纹编码
        2.2.3 彩色复合条纹的相位解码
    2.3 颜色串扰误差与非线性效应的抑制方法
        2.3.1 颜色串扰误差的补偿
        2.3.2 Gamma非线性响应校正
    2.4 三维测量系统标定与三维重建
        2.4.1 相机标定
        2.4.2 投影仪标定
        2.4.3 系统标定与三维重建
    2.5 实验及结果分析
        2.5.1 测量系统标定
        2.5.2 三维测量实验
    2.6 本章小结
第三章 基于多匹配约束原则的多视角点云拼接方法
    3.1 引言
    3.2 点云预处理
        3.2.1 点云降噪
        3.2.2 移动最小二乘平滑点云
    3.3 点云特征表达
        3.3.1 点云法线
        3.3.2 点云特征描述子
    3.4 多约束原则的点云特征匹配
        3.4.1 互惠性原则
        3.4.2 几何约束原则
        3.4.3 随机采样一致性原则
    3.5 基于SAC-IA的点云粗配准
    3.6 基于改进ICP的点云精配准
    3.7 实验与结果分析
    3.8 本章小结
第四章 基于加权特征的点云目标识别与位姿估计
    4.1 引言
    4.2 基于加权全局特征与局部特征结合的目标识别
        4.2.1 点云全局特征
        4.2.2 点云分割
        4.2.3 支持向量机
        4.2.4 融合全局特征与局部特征的物体识别
    4.3 基于加权点对特征的目标识别
        4.3.1 加权PPF点对特征
        4.3.2 基于投票策略的目标识别
    4.4 位姿估计
        4.4.1 方向包围盒
        4.4.2 目标点云位姿估计
    4.5 实验与结果分析
        4.5.1 离线阶段分类器模型获取与哈希表建立
        4.5.2 实验分析
    4.6 本章小结
第五章 彩色结构光三维测量与点云识别系统开发
    5.1 引言
    5.2 三维视觉系统
        5.2.1 硬件搭建
        5.2.2 系统软件设计
    5.3 系统功能验证
        5.3.1 三维点云测量
        5.3.2 多视角点云拼接
        5.3.3 点云识别与位姿获取
    5.4 本章小结
结论与展望
参考文献
攻读学位期间的论文
致谢

(6)基于机器视觉的图像识别和瑕疵检测研究(论文提纲范文)

摘要
ABSTRACT
1 绪论
    1.1 研究背景与意义
    1.2 国内外机器视觉识别与瑕疵检测研究与发展
        1.2.1 机器视觉
        1.2.2 国内外机器视觉识别发展概况
        1.2.3 国内外机器视觉瑕疵检测发展概况
    1.3 本文研究内容及组织结构
        1.3.1 研究内容
        1.3.2 结构安排
2 机器视觉系统的技术基础
    2.1 硬件结构
        2.1.1 视觉系统分类
        2.1.2 光源类型
        2.1.3 图像采集卡
    2.2 瑕疵检测系统
        2.2.1 缺陷检测系统框图
        2.2.2 表面缺陷检测流程
    2.3 深度学习算法
        2.3.1 深度学习基本理论
        2.3.2 卷积神经网络
        2.3.3 Tensor Flow深度学习框架
    2.4 MFC微软基础类库
        2.4.1 应用程序框架
    2.5 本章小结
3 基于机器视觉的工件识别与定位
    3.1 目标工件识别过程分析
    3.2 图像预处理
        3.2.1 图像灰度化
        3.2.2 平滑处理
        3.2.3 图像二值化
    3.3 边缘检测及形态学处理
        3.3.1 边缘检测
        3.3.2 形态学处理
    3.4 形状识别
        3.4.1 Hough变换检测圆
        3.4.2 最小二乘法椭圆拟合
    3.5 工件定位
        3.5.1 二维定位
        3.5.2 高度定位
        3.5.3 倾斜角
    3.6 码垛策略
        3.6.1 层次吸取
        3.6.2 垂直吸取
    3.7 本章小结
4 基于机器视觉的瑕疵检测研究
    4.1 缺陷类别
    4.2 机器视觉瑕疵检测算法
        4.2.1 图像降噪
        4.2.2 图像边界检测算法
        4.2.3 图像感兴趣区域搜索
        4.2.4 图像分割算法
        4.2.5 图像标识
    4.3 深度学习算法训练过程
        4.3.1 深度学习的训练过程
        4.3.2 卷积神经网络训练过程
        4.3.3 多层神经网络与卷积神经网络结合
    4.4 本章小结
5 系统功能实现与验证
    5.1 工件识别与定位和瑕疵检测程序设计与实现
        5.1.1 系统整体功能架构
        5.1.2 系统流程设计
        5.1.3 应用程序简介
        5.1.4 实验结果
    5.2 本章小结
6 总结与展望
    6.1 工作总结
    6.2 工作展望
致谢
参考文献
附录

(7)架空高压输电线路巡线机器人视觉检障定位的研究(论文提纲范文)

本文创新点
摘要
ABSTRACT
1 绪论
    1.1 课题来源、背景和意义
        1.1.1 课题来源
        1.1.2 课题背景和意义
    1.2 巡线机器人的发展与现状
    1.3 巡线机器人视觉检测的研究现状
        1.3.1 巡线机器人障碍物识别的研究及现状
        1.3.2 单目视觉距离检测研究现状
        1.3.3 摄像机标定的研究现状
        1.3.4 手眼视觉中地线姿态检测的研究现状
        1.3.5 巡线机器人视觉检测中存在的问题
    1.4 本文的总体架构及主要研究内容
2 架空地线的快速视觉检测
    2.1 引言
    2.2 巡线机器人视觉检测系统的组成
        2.2.1 巡线机器人的视觉成像硬件系统
        2.2.2 巡线机器人的视觉软件系统
    2.3 摄像机模型
        2.3.1 摄像机的线性模型
        2.3.2 摄像机的非线性模型
    2.4 导航摄像机的标定
        2.4.1 导航摄像机的张氏标定
        2.4.2 标定结果数据的处理
    2.5 地线在导航摄像机中的成像表达式
        2.5.1 摄像机视场中地线成像为直线的条件
        2.5.2 摄像机中地线成像的直线方程
        2.5.3 Hough变换原理
    2.6 分级算法的改进和降采样处理
    2.7 改进分级算法的应用
        2.7.1 分级算法在文本图像倾角检测中的应用
        2.7.2 分级算法在导航图像地线检测中的应用
    2.8 地线检测中步长和采样间隔选取问题的探讨
    2.9 本章小结
3 架空地线上障碍物的视觉检测与识别
    3.1 引言
    3.2 地线上障碍物的检测与识别流程
    3.3 检测兴趣区的确定
    3.4 巡检视频帧背景抖动的消除
        3.4.1 巡检视频帧中的运动分析
        3.4.2 巡检视频帧中背景变换模型的确定
        3.4.3 巡检视频帧中Harris角点的提取
        3.4.4 背景运动参数的估算
    3.5 地线上障碍物的检测
        3.5.1 巡检视频帧中运动目标的检测
        3.5.2 地线上运动目标的分割
    3.6 地线上运动目标的识别
        3.6.1 目标特征的选择
        3.6.2 目标特征的提取
        3.6.3 基于SVM分类器的多类目标识别
    3.7 本章小结
4 架空地线上障碍物的单目距离估测
    4.1 引言
    4.2 障碍物的单目距离估测
        4.2.1 单目距离估测原理
        4.2.2 各参数对估测距离的影响分析
    4.3 实验结果及分析
        4.3.1 静态实验
        4.3.2 静态实验数据的校正
        4.3.3 动态实验
    4.4 本章小结
5 导航摄像机的自动标定
    5.1 引言
    5.2 张氏标定法原理
    5.3 自动标定算法原理
        5.3.1 标定靶标和对应图像的获取
        5.3.2 自动标定处理过程
    5.4 自动标定结果及误差分析
    5.5 本章小结
6 手眼视觉中地线姿态的检测
    6.1 引言
    6.2 手眼视觉中地线姿态的检测流程
    6.3 手眼视觉图像中的直线检测
        6.3.1 图像的细化和多叉点的去除
        6.3.2 边缘的直线化处理
        6.3.3 边缘直线的最小二乘法检测
    6.4 图像中目标的分割
        6.4.1 传统方法对地线的分割
        6.4.2 直线的聚类
        6.4.3 外点直线的去除
        6.4.4 各类别区域法向角的精确求取
        6.4.5 目标区域的分割
        6.4.6 地线分割的性能评估
    6.5 手眼视觉图像中地线的识别
        6.5.1 目标的LBP特征提取
        6.5.2 目标的识别
    6.6 地线姿态的检测结果
    6.7 本章小结
7 总结与展望
    7.1 全文总结
    7.2 展望
参考文献
附录1 攻读博士学位期间取得的科研成果
附录2 攻读博士学位期间参加的主要科研工作
致谢

(8)西红柿采摘机器人目标识别、定位与控制技术研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 课题研究背景及意义
        1.1.1 课题来源
        1.1.2 课题背景及意义
    1.2 采摘机器人技术发展概况
        1.2.1 农业机器人概况
        1.2.2 采摘机器人发展概况
    1.3 采摘机器人目标识别、定位及控制技术研究现状
        1.3.1 采摘机器人视觉传感器技术
        1.3.2 采摘机器人目标识别方法
        1.3.3 采摘机器人手眼协同控制技术
    1.4 本文研究内容及技术路线
        1.4.1 问题的提出
        1.4.2 研究内容和技术路线
    1.5 论文内容安排
第二章 西红柿采摘机器人系统设计与研制
    2.1 引言
    2.2 西红柿采摘机器人硬件系统
        2.2.1 西红柿采摘机器人结构设计
        2.2.2 西红柿采摘机器人驱控系统
        2.2.3 西红柿采摘机器人视觉系统
    2.3 基于ROS的西红柿采摘机器人软件系统
        2.3.1 机器人操作系统ROS
        2.3.2 西红柿采摘机器人软件构架
        2.3.3 西红柿采摘机器人软件分层设计
    2.4 本章小结
第三章 基于特征图像融合的西红柿分割方法
    3.1 引言
    3.2 基于颜色空间模型的特征图像提取方法
        3.2.1 基于颜色空间模型的特征图像选取
        3.2.2 a*-component特征图像提取
        3.2.3 I-component特征图像提取
    3.3 基于小波变换的特征图像融合算法
        3.3.1 基于小波变换的图像融合方法
        3.3.2 特征图像融合策略设计
    3.4 融合图像分割算法
        3.4.1 迭代阈值分割算法
        3.4.2 最大类间方差分割算法
        3.4.3 基于最优阈值的分割算法
    3.5 融合图像分割后处理方法
        3.5.1 基于形态学的去噪方法
        3.5.2 分割图像重心点计算方法
    3.6 实验及结果分析
        3.6.1 实验流程
        3.6.2 实验数据及设备
        3.6.3 结果分析
    3.7 本章小结
第四章 基于级联分类器的西红柿目标识别方法
    4.1 引言
    4.2 西红柿分类器训练样本集制作
        4.2.1 西红柿图像获取
        4.2.2 训练样本集制作
    4.3 基于ADABOOST算法的西红柿分类器设计
        4.3.1 Haar-like特征设计
        4.3.2 基于积分图的特征提取方法
        4.3.3 基于AdaBoost算法的西红柿分类器离线训练
    4.4 基于级联分类器的西红柿在线识别
        4.4.1 基于平均像素值的颜色特征分类器
        4.4.2 基于级联分类器西红柿目标判别
        4.4.3 基于多尺度检测的西红柿在线识别
    4.5 实验及结果分析
        4.5.1 实验流程
        4.5.2 实验平台
        4.5.3 结果分析
    4.6 本章小结
第五章 基于双目定位的西红柿采摘机器人控制方法
    5.1 引言
    5.2 基于双目定位的采摘机器人控制方法
        5.2.1 基于点云方法的采摘机器人三维虚拟场景构建
        5.2.2 基于三维虚拟场景构建的西红柿定位方法
        5.2.3 基于运动学逆解的双臂采摘机器人运动规划
        5.2.4 基于多轴控制的采摘机器人运动控制
    5.3基于双目定位的西红柿采摘机器人控制实验
        5.3.1 基于双目定位的西红柿采摘机器人控制流程
        5.3.2 实验结果及分析
    5.4 本章小结
第六章 基于视觉伺服的西红柿采摘机器人微操控制方法
    6.1 引言
    6.2 西红柿采摘机器人视觉伺服控制器设计
        6.2.1 西红柿采摘机器人视觉伺服控制方案
        6.2.2 西红柿采摘机器人眼手关系模型
        6.2.3 西红柿采摘机器人眼手关系模型在线辨识
        6.2.4 采摘机器人视觉伺服控制器设计
        6.2.5 采摘机器人视觉伺服控制器仿真
    6.3 基于视觉伺服的采摘机器人微操控制试验
        6.3.1 试验设计
        6.3.2 结果分析
    6.4 本章小结
第七章 总结与展望
    7.1 主要结论
    7.2 主要创新点
    7.3 研究展望
参考文献
致谢
攻读博士学位期间的主要研究成果

(9)基于图像特征的示波屏识别关键技术研究及应用(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 研究背景与意义
    1.2 关键问题分析
        1.2.1 自动计量校准系统
        1.2.2 计量校准任务
        1.2.3 示波屏窗口分割
        1.2.4 示波屏窗口波形提取
        1.2.5 示波屏窗口字符形状识别
    1.3 研究现状
        1.3.1 超声波探伤仪计量校准综述
        1.3.2 图像分割研究现状
        1.3.3 显着性检测研究概述
        1.3.4 字符形状识别概述
    1.4 本文主要研究工作
    1.5 本文组织结构
2 超声波探伤仪自动计量校准基础研究
    2.1 引言
    2.2 超声波探伤仪计量校准简介
        2.2.1 国内外超声波探伤仪计量校准现状
        2.2.2 超声波探伤仪计量校准发展趋势
    2.3 超声波探伤仪校准参数简介
    2.4 自动计量校准设计及工作过程
        2.4.1 自动计量校准系统软件架构设计
        2.4.2 参数增量计算
        2.4.3 主要计量校准参数逻辑设计
        2.4.4 校准系统工作过程
    2.5 本章小结
3 示波屏窗口特征分析与分割方法研究
    3.1 引言
    3.2 超声波探伤仪前面板形状分析
    3.3 矩形检测主要方法介绍
    3.4 最小外接矩形
        3.4.1 基于投影法的最小外接矩形
        3.4.2 基于投影思想的主轴法改进
    3.5 基于最小外接矩形的矩形检测
        3.5.1 矩形度
        3.5.2 矩形检测
    3.6 基于矩形检测的示波屏窗口区域分割
        3.6.1 超声波探伤仪前面板图像提取
        3.6.2 边缘曲线提取
    3.7 实验结果与分析
    3.8 本章小结
4 示波屏图像显着边缘检测方法研究
    4.1 引言
    4.2 光晕问题分析
    4.3 图像预处理
        4.3.1 基于小波系数的去噪
        4.3.2 基于小波变换的图像去噪计算
    4.4 显着性检测算法简介
    4.5 基于谱分析显着性的研究现状与分析
        4.5.1 谱分析显着性的研究现状
        4.5.2 基于剩余谱的显着性检测方法
        4.5.3 PQFT时空显着性检测方法
    4.6 基于列率域剩余谱的显着边缘检测
        4.6.1 沃尔什变换
        4.6.2 数字图像的二维沃尔什变换
        4.6.3 列率域剩余谱
        4.6.4 列率域剩余谱显着性检测
        4.6.5 显着边缘检测
    4.7 实验与分析
        4.7.1 谱分析显着性实验效果对比
        4.7.2 显着性检测结果分析
        4.7.3显着边缘提取实验
    4.8 本章小结
5 基于沃尔什图像矩的字符描述与识别
    5.1 引言
    5.2 图像不变矩简介
        5.2.1 指数矩定义
        5.2.2 基于傅里叶变换的快速计算
    5.3 基于沃尔什变换的沃尔什图像矩
        5.3.1 极坐标图像转换
        5.3.2 柱面图像转换
        5.3.3 沃尔什图像矩
        5.3.4 沃尔什图像矩置换矩阵
    5.4 沃尔什图像矩实验
        5.4.1 图像矩不变性评价
        5.4.2 平移不变性
        5.4.3 旋转不变性
        5.4.4 缩放不变性
        5.4.5 重构实验
        5.4.6 图像矩矩阵及分析
    5.5 基于沃尔什图像矩的图像识别
        5.5.1 相似性度量
        5.5.2 基于加权欧氏距离的度量
        5.5.3 图像识别实验与分析
    5.6 本章小结
6 示波屏识别技术在超声波探伤仪计量中的应用
    6.1 引言
    6.2 自动计量校准系统硬件组成
        6.2.1 猝发音生成系统
        6.2.2 图像采集模块
    6.3 自动计量校准系统软件实现
        6.3.1 多协议通讯模块设计
        6.3.2 参数校准流程控制模块
    6.4 自动计量校准系统实验
        6.4.1 自动计量校准系统概述
        6.4.2 实验设计
        6.4.3 结果与分析
    6.5 本章小结
7 总结与展望
    7.1 总结
    7.2 展望
攻读博士学位期间发表的学术论文和参加科研情况
参考文献
致谢

(10)侧扫声呐图像精处理及目标识别方法研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 选题背景及研究意义
    1.2 国内外研究现状及分析
        1.2.1 侧扫声呐系统
        1.2.2 侧扫声呐图像处理方法
        1.2.3 目标探测、分割和识别方法
        1.2.4 应用研究
        1.2.5 现状分析
    1.3 研究目标及研究内容
        1.3.1 目标
        1.3.2 内容
        1.3.3 技术路线
    1.4 章节安排
第2章 侧扫声呐系统及其图像
    2.1 侧扫声呐系统及其工作原理
        2.1.1 系统组成
        2.1.2 工作原理
    2.2 侧扫声呐成像原理及其图像特点
        2.2.1 侧扫声呐成像原理
        2.2.2 侧扫声呐图像组成
        2.2.3 侧扫声呐图像特点
    2.3 侧扫声呐图像畸变诱因
    2.4 影响目标探测和识别的因素
    2.5 本章小结
第3章 单条带侧扫声呐数据精处理
    3.1 传统侧扫声呐数据处理
        3.1.1 回波强度数据预处理
        3.1.2 海底跟踪
        3.1.3 辐射畸变改正
    3.2 海底线综合跟踪
        3.2.1 影响海底跟踪的因素分析
        3.2.2 海底综合跟踪法
        3.2.3 海底跟踪精度评估
    3.3 辐射畸变联合改正
        3.3.1 人工增益量消除
        3.3.2 与距离有关的辐射畸变改正
        3.3.3 与波束模式有关的辐射畸变改正
    3.4 单条带侧扫声呐数据精处理流程
    3.5 实验及分析
        3.5.1 数据准备
        3.5.2 综合法海底跟踪
        3.5.3 辐射畸变联合改正
    3.6 本章小结
第4章 联合特征与地理编码的多条带侧扫声呐图像精拼接
    4.1 现有的拼接方法
        4.1.1 基于地理编码的拼接
        4.1.2 基于共视特征的拼接
        4.1.3 现有方法的不足及改进策略
    4.2 联合特征与地理编码的综合拼接方法
        4.2.1 基于共视特征的匹配算法改进
        4.2.2 多条带图像位置基准的统一
        4.2.3 拼接图像灰度的均衡化
        4.2.4 图像的融合算法
        4.2.5 拼接图像质量评估
    4.3 综合拼接流程
    4.4 图像存储
    4.5 实验及分析
        4.5.1 基于共视特征的匹配算法改进
        4.5.2 大区域侧扫声呐图像拼接
        4.5.3 大区域侧扫声呐图像灰度均衡
    4.6 本章小结
第5章 基于扩散映射的目标探测方法
    5.1 传统目标探测方法及性能分析
    5.2 扩散映射基本原理
    5.3 基于扩散映射的目标探测关键问题
    5.4 基于扩散映射的目标探测流程
    5.5 实验及分析
    5.6 本章小结
第6章 基于中性集合和量子粒子群算法的图像分割方法
    6.1 传统目标分割算法及性能分析
    6.2 中性集合运算
    6.3 智能优化算法
        6.3.1 PSO算法
        6.3.2 QPSO算法
    6.4 适应度函数选取准则
        6.4.1 最大类间方差
        6.4.2 最大熵
        6.4.3 交叉熵
    6.5 联合中性集合和量子粒子群算法的目标图像分割算法及流程
    6.6 实验及分析
    6.7 本章小结
第7章 沉船识别模型构建及应用
    7.1 沉船特征
        7.1.1 形态特征
        7.1.2 纹理特征
        7.1.3 ICA特征优选
    7.2 最优识别模型确定
        7.2.1 现有的分类识别模型
        7.2.2 分类识别模型优选
        7.2.3 AdaBoost最优算法确定
    7.3 沉船识别模型构建
    7.4 沉船识别流程
    7.5 实验及分析
        7.5.1 沉船典型特征有效性分析
        7.5.2 最优分类识别模型
        7.5.3 沉船识别模型构建
        7.5.4 全图识别
    7.6 本章小结
第8章 结论与建议
    8.1 结论
    8.2 建议与展望
参考文献
攻博期间的主要工作与成果
致谢

四、一种基于列扫描灰度差异的快速目标识别定位算法(论文参考文献)

  • [1]基于红外面阵扫描设备的快速目标检测与识别[D]. 武加文. 中国科学院大学(中国科学院上海技术物理研究所), 2021(01)
  • [2]基于OpenCV的复杂背景下苹果目标的识别定位方法研究[D]. 姜玉良. 哈尔滨理工大学, 2021(09)
  • [3]基于视觉导航的小型旋翼无人机目标识别自主降落系统研究[D]. 康立鹏. 内蒙古工业大学, 2020(02)
  • [4]少样本条件下的红外空中目标识别与检测技术研究[D]. 金璐. 中国科学院大学(中国科学院上海技术物理研究所), 2020(03)
  • [5]彩色结构光三维测量拼接与点云目标识别方法研究[D]. 周浩源. 广东工业大学, 2020(06)
  • [6]基于机器视觉的图像识别和瑕疵检测研究[D]. 杨雷雷. 杭州电子科技大学, 2020(02)
  • [7]架空高压输电线路巡线机器人视觉检障定位的研究[D]. 程立. 武汉大学, 2019
  • [8]西红柿采摘机器人目标识别、定位与控制技术研究[D]. 赵源深. 上海交通大学, 2018
  • [9]基于图像特征的示波屏识别关键技术研究及应用[D]. 孙景峰. 西北工业大学, 2018(02)
  • [10]侧扫声呐图像精处理及目标识别方法研究[D]. 王晓. 武汉大学, 2017(06)

标签:;  ;  ;  ;  ;  

一种基于列扫描灰度差的快速目标识别与定位算法
下载Doc文档

猜你喜欢