1. <td id="ibzbb"><strike id="ibzbb"></strike></td>

      1. <acronym id="ibzbb"><strong id="ibzbb"></strong></acronym>
      2. <acronym id="ibzbb"><strong id="ibzbb"><listing id="ibzbb"></listing></strong></acronym>

      3. 24小时论文定制热线

        咨询电话

        热门毕设:土木工程工程造价桥梁工程计算机javaasp机械机械手夹具单片机工厂供电采矿工程
        您当前的位置:论文定制 > 毕业设计论文 >
        快速导航
        毕业论文定制
        关于我们
        我们是一家专业提供高质量代做毕业设计的网站。2002年成立至今为众多客户提供大量毕业设计、论文定制等服务,赢得众多客户好评,因为专注,所以专业。写作老师大部分由全国211/958等高校的博士及硕士生设计,执笔,目前已为5000余位客户解决了论文写作的难题。 秉承以用户为中心,为用户创造价值的理念,我站拥有无缝对接的售后服务体系,代做毕业设计完成后有专业的老师进行一对一修改与完善,对有答辩需求的同学进行一对一的辅导,为你顺利毕业保驾护航
        代做毕业设计
        常见问题

        基于计算机视觉的实时多类别车辆检测技术研究

        添加时间:2021/07/13 来源:未知 作者:乐枫
        传统的车辆检测算法在解决高精度和实时性等方面遇到了困难,而近年来诞生的基于深度学习的检测算法则存在些许尺度敏感性问题,尤其是针对小物体检测效果欠佳。
        以下为本篇论文正文:

          摘要

          近年来,伴随着城市交通的迅速发展,智能交通系统也得到了前所未有的关注。其中完成车辆的实时检测和类别识别在智能交通系统中显得尤为重要,也是当前智能交通领域的关键问题之一。与此同时,车辆检测技术的研究也对于提高交通管制和缓解交通压力有着重要的意义,而此类问题往往隐含着高鲁棒性、高尺度不敏感性、实时性和高精度等需求。传统的车辆检测算法在解决高精度和实时性等方面遇到了困难,而近年来诞生的基于深度学习的检测算法则存在些许尺度敏感性问题,尤其是针对小物体检测效果欠佳。本文针对以上问题进行研究分析,并提出了两种新的车辆检测方案。
         。1)设计了一种基于 MOG2 与 H-SqueezeNet 的车辆检测方案,首先采用传统的背景建模法 MOG2 完成区域提议任务,找到待检测车辆的位置,随后本文在深度学习网络模型 SqueezeNet 的基础上设计了一种轻量级网络 H-SqueezeNet来识别待检测区域的车辆类别。在完成车辆检测任务的同时,速度高达 39.1FPS,满足了实时性需求。为了验证所搭建方案的有效性,本文将该方案在 CDnet2014等数据集上进行了测试,并将其在所收集的苏州虎丘交通路口数据上进行了实际应用验证。本方案针对深度学习算法中存在的尺度敏感性问题,将 MOG2 算法引进到区域提议领域,利用其产生鲁棒的尺度不敏感性的区域提议,同时该方案在后端采用 H-SqueezeNet 快速识别车辆类别,以获得高精度和高性能,此方案在保留二者优势的同时,尽可能巧妙地避免了彼此的缺点。

         。2)设计了一种基于SqueezeNet的YoLoV3检测方案YoLoV3_SqueezeNet.本方案以基于深度学习的单阶段检测算法 YoLoV3 为框架,对其特征提取网络进行了改进,移除了其底层的 DarkNet53 网络模型,尝试以轻量级网络 SqueezeNet作为其基准网络模型。在迁移过程中,由于 SqueezeNet 难以抽取合适的特征图供 YoLoV3 进行训练及使用,本文引入了深度可分离卷积等?槎蕴崛〉奶卣魍冀懈慕,将 SqueezeNet 成功迁移到 YoLoV3 当中。此时引入轻量级网络会以少量精度为代价,但是极大程度上降低了模型参数量和权重模型大小,迁移后的权重模型大小仅为原模型的 36.01%,且可加速 25.01%的模型推理时间和 15.3%的 训 练 时 间 . 与 此 同 时 , 本 文 还 引 入 了 UA-DETRAC 交 通 数 据 集 对YoLoV3_SqueezeNet 进行测试,测试结果显示该方案在不同天气和道路情况下均能取得较好的车辆检测效果。

          总体来说,本文以道路交通视频作为研究基础,以车辆检测为研究目标,以实时性和高性能为研究目的。通过搭建实时的多类别车辆检测方案,并且在交通数据集上进行训练与测试,实现了实时多类别车辆检测任务。

          关键词:智能交通系统;车辆检测;轻量级网络;MOG2;H-SqueezeNet;YoLoV3_SqueezeNet

        实时多类别车辆检测技术

          Abstract

          In recent years, with the rapid development of urban transportation, intelligenttransportation systems have also received more and more attention, and the completionof real-time vehicle detection and category recognition is the most importanttechnology in intelligent transportation systems, and it is also one of the key issues inthe current intelligent transportation field. At the same time, the research of vehicledetection is also of great significance for improving traffic control and alleviating trafficpressure. The methods in this field require high robustness, high-scale insensitivity,real-time and high precision. Traditional vehicle detection algorithms have encountereddifficulties in solving high-precision and real-time performance. Meanwhile, thedetection algorithms based on deep learning that were born in recent years have somescale-sensitivity problems, especially for small object detection. This article researchesand analyzes the above problems and proposes two novel vehicle detection schemes.

         。1) A novel multi-category vehicle detection algorithm based on MOG2 and HSqueezeNet is designed. First, the traditional background modeling method MOG2 isused to complete the regional proposal task and find the location of the vehicle. Then,the paper designs a model named H-SqueezeNet to identify the vehicle category, basedon the deep learning network model SqueezeNet. While completing the vehicledetection task, the speed is achieved 39.1FPS, which meets the real-time requirements.

          In order to verify the effectiveness of the proposed algorithm, this paper evaluated thealgorithm on the CDnet2014 dataset and verified its practical application on thecollected data of Suzhou Huqiu traffic intersections. Aiming at the scale sensitivityproblem in deep learning algorithms, this algorithm introduces the MOG2 algorithm tothe regional proposal field, and uses it to generate robust scale-insensitivity regionalproposals. At the same time, in order to obtain high precision and high performance,the algorithm uses H-SqueezeNet to quickly identify vehicle category in the backend.

          The proposed algorithm can avoid each other's shortcomings as cleverly as possible while retaining the advantages of both.

         。2) We propose a novel YoLoV3 detection scheme YoLoV3_SqueezeNet based onSqueezeNet. This scheme uses the single-stage detection algorithm YoLoV3 based ondeep learning as the framework, improves its feature extraction model, removes itsDarkNet53 model, and tries to utilize the lightweight network SqueezeNet as its featureextraction model. During the experiment process, it is difficult for SqueezeNet toextract suitable feature maps for YoLoV3 to train and utilize. This paper introducesdeep separable convolution to transform the extracted feature maps, and successfullymigrates SqueezeNet to YoLoV3. Meanwhile, the application of the lightweightnetwork will greatly reduce the amount of model parameters and the size of the weightmodel at small cost of accuracy. The weight model size after migration is only 36.01%of the original model, and it can speed up 25.01% of model inference time and 15.3%of training time. Moreover, the paper also introduces the UA-DETRAC traffic datasetto evaluate YoLoV3_SqueezeNet. The performance shows that the algorithm canachieve better vehicle detection results in different weather and road conditions.

          In summary, the paper utilizes road traffic dataset as the research foundation,vehicle detection as the research goal, real-time performance and high performance asthe research goal. By building a real-time multi-category vehicle detection scheme, andtraining and testing on the traffic dataset, the vehicle detection task is finally realized.

          Key Words: Intelligent Traffic System; Vehicle Detection; Lightweight Network;MOG2; H-SqueezeNet; YoLoV3_SqueezeNet

        目录

          第 1 章 引言

          1.1 车辆检测研究背景及意义

          近年来伴随着汽车产业的迅猛发展,城市机动车的数量也在迅猛发展,截止到 2020 年底,本国机动车数量已经达到 3 亿辆以上,随之而来的是巨大的交通压力和诸多交通管制问题。当交通压力和交通管制问题愈发严重之际,将会给城镇居民的生产生活带来诸多不便,也会限制城镇的快速发展。与此同时,伴随着本国信息化时代的到来,当前大多数交通路口数据得以完整保存和利用。但是如果仅仅是完成道路车流量统计和违章车辆检测已经无法满足当前现代交通的诸 多需求,急需对交通数据进行进一步发掘和利用。另一方面,伴随着人工智能领 域的快速发展,人工智能在车辆检测当中的应用也获得了迅速发展。那么如何利用近年来诞生的先进技术来解决当代交通所面临的诸多问题,则促使了智能交通系统(Intelligent Traffic System, ITS)的应运而生,该领域也成为智能交通领域与计算机交叉领域的研究热点之一。

          近年来伴随着全球智能化浪潮的到来,城市管理者们对智能交通系统的应用前景也表现出越来越多的兴趣,此系统应该是高效、全面、实时的综合管理系统,可以帮助管理者们自动完成车流量统计,道路拥塞管制和道路异常监管等任务[1][2][3][4][5].与此同时,该系统需要能够对各大交通枢纽的交通视频完成智能分析,方便城市管理者进行智能管理[6][7][8].一个优秀的智能交通系统能够对当前的道路交通进行准确无误的分析,对可能出现的交通问题及时做出预警和捕获,提高交通部门的工作效率。

          值得注意的是,为了完善智能交通系统,首要工作是需要完成道路交通车辆的自动化分析与检测,比如完成车辆计数 [9][10][11],车辆识别 [12][13][14]等任务,才能进行进一步的统筹和优化。其中最为重要的一个环节即完成车辆检测任务[7][15][16][17],该环节作为智能交通系统中的重要组成部分,构成了系统的基础功能和关键技术,这也是本文所研究的重点内容,致力于实时多类别车辆检测技术的研究。

          车辆检测的主要目的可以分为两个,其一是确定待检测视频或图像中是否存在待检测车辆(比如公交车,卡车,小轿车等),如果存在待检测车辆则需要确定其位置并且标注其检测框;其二是需要确定其具体类别,通过分析框内待检测车辆的语义信息来判别该车辆的具体类别,完成车辆检测任务。通过针对道路交通数据进行车辆检测,能够促使智能交通系统及时了解当前道路交通状况。另外通过针对车载监控设备收集到的数据进行分析利用[18],可以有效帮助驾驶人员快 速对周边车辆进行全面了解,帮助车辆驾驶人员及时规避可能出现的风险。因此,快速及时地准确完成道路车辆目标检测具有极大的现实意义与应用场景。

          到目前为止,研究者们已经在车辆检测领域做了大量且长期的研究工作,当前研究方向主要分为两大方向,其一是利用传统的图像处理技术完成检测任务的传统车辆检测领域,其二是利用近年来火热的深度学习技术完成检测任务的基于深度学习的车辆检测领域。

          在过去的传统车辆检测领域中,研究者们主要集中在背景建模,光流法等方法进行检测或追踪运动物体,或者通过组合人工特征(hand-craft feature)和分类器的方式来完成车辆识别,但是大多数研究并没有做到多类别检测或实时检测,这就意味着这些方案还不能很好地投入到智能交通领域。

          伴随着近年来深度学习检测算法的突发猛进,越来越多基于卷积神经网络(Convolutional Neural Networks, CNN)的优秀检测框架得以涌现,尤其是大规模数据集的出现和 GPU(Graphics Processing Unit)技术的更新换代,进一步促进了深度学习的发展。鉴于深度学习在目标检测领域具有巨大的研究潜力和研究价值,一些研究者开始尝试将深度学习引入到车辆检测领域,并取得了不错的表现,相对于传统机器学习算法表现出极强的竞争力,为车辆检测领域注入了新的动力。

          综上所述,本文将对当前车辆检测领域进行详尽的研究分析,同时完成实时多类别车辆检测方案的推陈出新。本课题来源于上海市地方院校能力建设项目(19070502900):基于大数据的多源多维监控视频深度学习及应用。

          1.2 车辆检测国内外方案发展历程及现状

          车辆检测作为智能交通领域的一项重要任务,在交通压力日益增长的当代显得尤为重要。早在二十世纪末,研究者们已经开始尝试将车辆检测系统应用到城市管理之中,通过利用先进的道路交通技术,构建智能交通系统并应用于城市交通管理。近年来伴随着深度学习如火如荼地发展,深度学习也在车辆检测领域大放光彩,为车辆检测领域注入新的活力,同时也为我国在智能交通领域的发展提供了新的机遇与时机。

          在智能交通领域,道路监控系统的首选与主体往往是道路视频监控系统。相较基于其它传感器的监控系统,视频系统更为实用且造价更为合理,而且视频系统的记录也更加稳定直观,而且符合人类的视觉使用习惯,方便人类使用。以上诸多优势与便利则使得基于计算机视觉的车辆检测研究逐渐成为当前智能交通领域的研究热门之一。与此同时,伴随着 GPU 等计算硬件的更新换代,推动了机器学习和深度学习的快速发展,进一步推动了该领域的突飞猛进,也使得车辆检测成为各大企业和研究机构的研究重点之一。

          根据车辆检测算法的发展方向和应用原理,当前车辆检测算法领域可以大体分为两方面:基于传统机器学习算法的检测方案和基于深度学习的检测方案。同时传统检测方法又可以细分为基于帧间差分的车辆目标检测,基于背景建模的车 辆目标检测,基于光流法的车辆目标追踪,以及基于特征分类器的车辆检测方案。

          与此同时,基于深度学习的车辆检测方案又可以细分为两类,一方面为单阶段(one-stage)车辆目标检测方法,另一方面为双阶段(two-stage)车辆目标检测方法。

          接下来将逐一介绍以上车辆检测方案的具体案例与方法,并对近年来的相关工作进行介绍。

         。1)基于帧间差分的车辆检测方案帧间差分的思路在于选取道路监控视频连续相邻图像对其进行差分处理,获取相邻图像之间的差异,进而得到前景运动目标图像。但是研究者们在研究过程中发现,帧间差分法作为早期的车辆检测方案,单独利用其进行车辆目标检测往 往很难获得效果较佳的前景目标,通常需要伴随着诸多辅助工作或对算法本身进 行适当改进。于是在近期的研究当中,研究者们尝试将其改进为三帧差分法,或者将原始的帧间差分法与背景建模法进行结合使用,或者将三帧差分法与背景建模法相结合来进一步改善目标前景提取效果,这些都表明了该算法不能很好地直接应用于智能交通领域。

          在近期的研究当中,为了改善帧间差分法的检测效果,Xu [19]等人提出一种改进的三帧差分法,并且将其与背景建模法相结合用来改善检测效果。He [20]等 人则直接将帧间差分法与背景建模法结合来提高检测效果,没有进行进一步的改进。Ji [21]等人则进一步提出了帧间差分法的改进方案,利用相隔四帧的视频图像进行差分,能够较大程度上缓解运动目标速度过慢时导致的空洞现象。以上的改进方法虽然能够较为明显改善帧间差分法的表现效果,但是相对于其它算法仍然没有太大优势。

         。2)基于背景建模的车辆检测方案背景建模的思路在于对一段时间内的道路交通视频进行统计建模,然后更新其背景,通?梢圆捎闷骄、平均差分和标准差等方式完成背景建模,当前较 为成熟的方案是通过混合高斯模型来完成背景建模,以获得更为鲁棒的视频背景。

          其次再利用当前帧图像与背景进行差分来获取车辆前景目标,达到运动车辆检测的效果。当前成熟的背景建模方法主要包括 GMG [22],LSBP [23],MOG [24],MOG2[69][70]和 GSOC 等。

          在近期的车辆检测研究当中,Wei [25]等人将传统算法背景建模法与深度学习检测算法 Faster R-CNN 相结合,用于检测道路交通视频中的异常车辆和非法停车,尝试将背景建模进一步引入到非监督学习领域当中。他们首先通过背景建模算法将运动车辆目标做剔除处理,随后再利用 Faster R-CNN 对剩余车辆进行检测,以此完成异常车辆和非法停车的检测。Benraya [26] 等人则将近年来主流的背景建模算法进行了综合性能的实验和对比,为该领域的研究者们提供了较为直观的性能参考与借鉴。Wahyono [27]等人则试图完成道路违规车辆检测,这是智能交通系统领域中的另一个重要组成部分,他们在工作中利用了累积的双重前景差异和时间事件分析,成功完成了大多数违规车辆的检测。他们算法的主要思想就在于通过控制背景建模学习率产生两个不同的背景模型,再通过比较两个背景模型之间的差异从而获取道路违规车辆。Vargas [28]等人则提出了一个基于 sigma-delta滤波器的背景建模法,并拟将其应用到智慧城市交通领域。Kul [29]等人设计了一种交通管制系统,首先利用背景差分法提取车辆前景,然后提取了基于几何的特征并利用 PCA 算法进行特征降维,最后为三种不同的车辆类别选择了三个不同的分类器进行类别识别。 (3)基于光流法的车辆检测方案光流法 [30][31][32]基本思想是利用道路交通视频中像素在时间域上的变化,通过光流来检测和追踪运动车辆,但是此方法极易受到光照变化的影响,因此近年来在车辆检测领域的关注热度有所下降。

          由于光流法对于光照噪声过于敏感,然而车辆检测领域往往有着复杂的光照条件,因此针对光流法在车辆检测中的应用研究已日趋减少。在近年来的研究当中,Ke [33]等人则另辟蹊径,尝试利用光流法进行运动车辆前景提取,再将后端引入神经网络模型去进行车辆类别分类,最终完成车辆检测任务。以上工作虽然将光流法引入到更进一步的应用研究领域,但是却并没有改进其对光照的抗性,在实际应用中依旧存在一定缺陷。

         。4)基于特征分类器的车辆检测方案基于特征分类器的车辆检测方法通常需要选取合适的人工特征描述子(handcraft feature)和分类器(classifier),特征通常选取 Harr [34][35]特征,HOG [36]特征,SIFT 特征 [37],SURF 特征或 LBP [38][39]

          特征等,分类器则包括 Adaboost,SVM等 分 类 器 . 当 前 车 辆 检 测 领 域 当 中 较 为 成 熟 的 方 案 为 HOG+SVM 或Harr+Adaboost. 在近年来的研究当中,研究者们除了直接利用上述技术成熟的特征进行语义信息提取之外,还针对 HOG、LBP 和 Harr 等特征进行了进一步改进,使其能够更好地应用到车辆检测领域。Yan [40]等人利用双 HOG 特征算子用来产生更低维度的车辆特征,相较于原 HOG 特征可以拥有更多水平特征梯度信息与垂直特征梯度信息,随后再利用 Adaboost 分类器对车辆进行分类,从而完成车辆检测任务。Wen [41]等人则利用 Harr-like 特征并且通过对所提取的特征进行优化,减少了同类别样本之间的差异,再联合使用 RBF-SVM 分类器去识别车辆类别,完成车辆检测。Zhou [42]等人则提出了一种基于自适应背景估计的背景建模新方案,他们首先将输入图像分成互不重叠的小块,如果背景和输入图像之间的灰度级别发生了变化,则可以从小块中提取到车辆的区域提议,接下来他们利用梯度直方图对车辆进行特征提取,并使用 PCA 算法对特征进行降维处理,进一步获得更 低维度的特征,再利用提取的特征对 SVM 分类器进行分类训练,以完成车辆检测任务。Wang [43]等人则引入了改进的时空样本共识(ISTSC)的概念,首先通过时空样本共识算法检测到正在行驶的车辆,然后利用特征融合方法来识别其具体类别。

         。5)基于深度学习的车辆检测方案近年来伴随着深度学习的快速发展,基于深度学习的目标检测方法亦取得巨大突破,尤其是近年来提出的 Faster R-CNN [63], YoLoV3 [60]等优秀检测框架,将目标检测推上了一个新的研究高度。近年来一些车辆检测领域的研究者们已经尝试将上述优秀框架应用到车辆检测领域,并在此基础上进一步改进上述算法,以获得更好的检测效果,使之更好地应用到智能交通领域,并且再次引发了车辆检测领域的研究热潮。

          在近年来的研究当中,Zhang [42]等人尝试改进了 YoLoV3 检测算法,并在YoLoV3 架构基础上提出了 CMNET 检测框架进行快速车辆检测,CMNET 在实际应用中可以适应多种情况复杂的道路交通状况,并缓解了深度学习带来的尺度敏感性问题。Geng [45]等人则意识到多尺度检测研究在车辆检测中的重要性,在 R-CNN 检测算法的基础上提出了 MV-RCNN 算法进行多尺度车辆检测,能够有效地检测到视频中不同尺度的车辆,缓解了尺度敏感性问题。KIM [46]等人则尝试将特征金字塔模型(SPP)引入到 YoLoV3 之中,使其能够更好地检测不同尺寸的车辆,为了进一步解决深度学习伴随的尺度敏感性问题,KIM 等人还将YoLoV3 的预测通道提升到五个通道,从而更好地完成不同尺寸大小的车辆检测。

          Hu [47]等人亦发现深度学习网络存在的尺度敏感性问题,于是他们提出了 SINet(尺度不敏感性网络)来完成车辆检测任务,并引入 context-aware RoI pooling 来保持小尺度车辆目标的语义信息,同时设计了一个多检测通道网络来完成检测任务。Zhou [48]等人则提出了一种用于城市道路交通监控的快速车辆检测方案DAVE,DAVE 方案包含一个快速车辆提议网络(FVPN)和一个属性学习网络(ALN)。其中 FVPN 网络负责在车辆检测过程中查找待检测车辆的位置,然后使用 ALN 网络来验证车辆类别和其它信息,从而达到车辆检测的目的。与此同时,Hong [49]等人则在 YoLoV3 框架的基础上引进了基于解码器的新金字塔结构,进一步提升了 YoLoV3 在实际车辆检测中的表现性能。Sentas [50]等人则试图将Tiny-YoLo 算法引入实时车辆检测领域,并构建了用于测试的 TPSdataset 数据集供研究者们使用。以上诸多研究方案虽然通过不同方式来缓解了尺度敏感性问题(多尺度问题),但是深度学习模型却变得愈发复杂,而且并没有从根本上解决尺度敏感性问题。

          1.3 主要研究内容

          为了更好地满足智能交通系统发展的需求,本文选取了实时多类别车辆检测技术作为研究对象。研究中所需要解决的问题是分析研究不同车辆检测方案的原理与优缺点,设计并搭建高性能的车辆检测方案,并且收集交通数据集对其进行验证。本文在数据集方面,本团队收集了苏州市虎丘地区的多个交通路口的监控数据,并且引入了 CDnet2014 与 UA-DETRAC 等交通数据集对方案进行进一步测试。与此同时,本文针对车辆检测领域,总共提出了两种新的检测方案,一方面本文将传统算法与深度学习算法进行了联合使用,获得了一种鲁棒性较强且检 测性能优越的车辆检测方案;另一方面本文则针对 YoLoV3 检测方案进行了改进,利用轻量级网络对其权重模型进行了精简替换。本文研究的创新点与详细内容如下:

         。1)建立了一个基于背景差分法 MOG2 与轻量级神经网络 H-SqueezeNet 的车辆检测方案。此方案的目标是实现实时的鲁棒的多类别车辆检测,针对道路交通数据集完成车辆检测任务。首先,本文将 MOG2 算法从前景检测领域引入到区域提议领域,利用其产生鲁棒的车辆待检测区域,解决了单纯基于深度学习的检测方案出现的尺度敏感性问题。其次,本文在深度学习网络 SqueezeNet 的基础上进行了适当改进,提出了轻量级网络H-SqueezeNet用于快速识别车辆类别,以保证整体车辆检测方案的高精度和高时效性。最终,本方案在充分利用 MOG2算法与 H-SqueezeNet 网络二者优势的同时,还尽可能避免了以上算法伴随的缺点。

         。2)在上文引出轻量级网络概念的基础上,本文进一步建立了一个基于轻量级网络 SqueezeNet 的 YoLoV3 检测方案 YoLoV3_SqueezeNet.此方案的目的是完成一个轻量化的 YoLoV3 车辆检测框架,在降低 YoLoV3 模型权重的基础上,进一步加快 YoLoV3 的检测速度,从而更快更好地完成车辆检测任务。本文经过针对 YoLoV3 的研究分析,发现原 YoLoV3 检测框架存在权重模型较大,训练时间过长和推理时间较长等问题。于是我们的目标是在保证 YoLoV3 检测性能的基础上,针对 YoLoV3 的权重模型进行精简化处理。首先,本文针对其权重模型进行研究分析,认为 YoLoV3 当中使用的 DarkNet53 基准网络参数量过多,从而导 致其权重模型过大,因此本文决定引入轻量级网络 SqueezeNet 对其进行替换改进。随后,本文针对 SqueezeNet 网络进行了结构分析,在模型输入为(416,416)的基础上,很难从中提取合适的特征图供 YoLoV3 架构训练及使用,因此本文设计了多种方案改进提取的候选特征图,经过实验最终选定了深度可分离卷积来完成此任务,在尽可能控制参数量增加的基础上,成功完成了 SqueezeNet 的迁移工作。

          1.4 论文结构安排

          本文的重点是围绕实时多类别车辆检测技术研究进行展开的,重点研究在智能交通领域下,增强车辆检测的准确性和高效性,同时保证车辆检测方案的实时性和鲁棒性。论文一共分为五个章节,每章的主要内容组织如下:

          第一章,本章作为全文的引言部分,主要介绍了本文的研究意义和研究背景,随后介绍了车辆检测领域国内外当前的研究现状及进展、论文创新点、研究内容以及论文结构排版。

          第二章,基于计算机视觉的实时车辆检测基本原理概述。本章首先介绍了计算机视觉领域当中常用的图像处理技术,随后介绍了车辆检测领域当中常用的目标检测算法,包括传统的帧间差分法,背景差分法,光流法以及基于特征提取的检测方法的原理和流程。随后介绍了近年来火热的基于深度学习的检测方案,先介绍了基于深度学习的单阶段(one-stage)检测算法,包括 SSD,YoloV1,YoLoV2,YoLoV3,YoLoV4 以及 RetinaNet 等,最后介绍了基于深度学习的双阶段(twostage)检测方案,包括 R-CNN,Fast R-CNN,Faster R-CNN 以及 R-FCN 等算法原理及检测流程。

          第三章,介绍本文提出的一个基于 MOG2 与 H-SqueezeNet 的车辆检测方案。

          本章首先介绍了当前车辆检测领域存在的问题,随后提出了一个鲁棒的实时多类别车辆检测方案。首先本章将 MOG2 算法引入到区域提议领域,用于产生鲁棒的尺度不敏感的区域提议,随后本章在 SqueezeNet 的基础上提出了基于深度学习的轻量级网络 H-SqueezeNet 来进行快速类别识别。最后本章利用收集到的苏州地区交通数据,CDnet2014 等数据集对其进行了性能测试,并且与当前先进的检测方案进行了性能对比。

          第四章,介绍本文提出的 YoLoV3_SqueezeNet 车辆检测方案。本章首先介绍了当前 YoLoV3 检测方案存在的些许问题,以及 SqueezeNet 迁移到 YoLoV3 当中存在的困难和迁移带来的优越性。接下来介绍了 YoLoV3_SqueezeNet 的架构部署和改造方案。最后本章从权重模型大小,训练速度压缩等方面评价了改进效果,与此同时,利用 UA-DETRAC 交通数据集对 YoLoV3_SqueezeNet 的实际检测效果进行了测试。

          第五章,总结与展望。本章对本文研究内容进行了总结,并且针对本文不足之处与考虑欠缺的地方进行了展望。

          第 2 章 基于计算机视觉的实时车辆检测基本原理概述

          2.1 视频图像处理相关知识

          2.1.1 图像灰度化

          2.1.2 图像二值化

          2.1.3 滤波操作

          2.1.4 形态学操作

          2.2 传统车辆检测算法框架

          2.2.1 帧间差分法

          2.2.2 背景差分法

          2.2.3 光流法

          2.2.4 基于特征提取的检测算法

          2.3 基于深度学习的车辆检测算法

          2.3.1 One-Stage 算法

          2.3.2 Two-Stage 算法

          2.4 本章小结

          第 3 章 基于 MOG2 与 H-SqueezeNet 的多类别车辆检测方案

          3.1 实时多类别车辆检测方案整体架构

          3.2 基于 MOG2 的区域提议设计

          3.3 基于深度学习的轻量级网络架构设计

          3.4 实验测试与结果分析

          3.4.1 环境配置

          3.4.2 实验数据集

          3.4.3 实验参数设定

          3.4.4 MOG2 实验结果与分析

          3.4.5 H-SQUEEZENET 实验结果与分析

          3.4.6 综合实验结果与分析

          3.5 本章小结

          第 4 章 基于 SqueezeNet 的 YoLoV3 车辆检测方案

          4.1 总体框架

          4.2 基准迁移

          4.3 实验测试与结果分析

          4.3.1 实验参数设置

          4.3.2 实验数据集介绍

          4.3.3 实验结果

          4.4 本章小结

          第 5 章 总结与展望

          5.1 工作总结

          车辆检测是智能交通系统当中的一个至关重要的难题,能够帮助城市管理人员更加方便地完成交通管制,因此多类别车辆检测也成为当前学术界的研究热点之一。然而在面对当今车辆检测研究之时,传统的车辆检测方案往往难以满足高精度,多类别检测的需求,并且存在计算开销大的问题。近年来基于深度学习的车辆检测算法可以满足高精度,多类别检测的需求,但是使用深度学习网络完成区域提议任务,往往会伴随着尺度敏感性问题。本文需要解决的问题是如何设计完成高鲁棒性、高精度的实时多类别车辆检测算法,从而解决目前车辆检测领域当中遇到的种种难题。

          本文首先介绍了当前城市交通面临的种种难题,以及智能交通系统的重要性和车辆检测在智能交通当中的关键性,然后介绍了当前车辆检测领域的主流方法与研究现状,以及计算机视觉领域常用的一些图像处理方法和常用的目标检测算法原理。本文在总结现有研究工作的基础上,给当前车辆检测领域遇到的困难和问题提出了新的解决方案,同时针对车辆检测领域提出了两种新的车辆检测方案。

          在方案一当中本文针对深度学习中存在的尺度敏感性问题,将 MOG2 算法引入到区域提议领域,来产生尺度不敏感性的区域提议,随后针对高精度、多类别检测和实时性等要求,在后端提出了轻量级网络 H-SqueezeNet 来快速完成车辆类别识别。在方案二当中本文针对 YoLoV3 模型权重较大,训练时间和推理时间较长的问题,利用轻量级网络 SqueezeNet 替换 YoLoV3 的基准网络 DarkNet53,改进后的 YoLoV3_SqueezeNet 模型权重仅有原大小的 36.01%,推理速度和训练时间分别压缩了 23.1%和 15.3%左右。具体来说,本文的研究可以主要分为以下几个部分:

         。1)首先介绍了车辆检测相关研究的现状,并且针对当前现有检测方案的优缺点进行了总结,同时介绍了车辆检测领域内常用的图像处理技术和相关理论知识。

         。2)提出了基于 MOG2 + H-SqueezeNet 的多类别车辆检测方案。首先将Suzuki [71]等人的理论与 MOG2 算法相结合,将其引入到区域提议领域,用来产生鲁棒的尺度不敏感的车辆待检测区域。随后在轻量级网络 SqueezeNet 的基础上提出了 H-SqueezeNet 网络,进一步精简了模型,并且可以快速完成车辆识别任务。与此同时本文还针对所使用的交叉熵损失函数进行了改进,引入了损失因子的概念,使其可以将注意力集中在训练样本较少的类别上。随后本文针对所提方案进行了验证工作,在苏州虎丘地区,CDnet2014[77]数据集以及 Sanin [78]等人所收集的数据上进行了测试,并且和现有的检测方案进行了性能比较,分析验证了本文所提方案的性能和价值。

         。3)提出了基于 SqueezeNet 的 YoLoV3 检测方案 YoLoV3_SqueezeNet.本方法基于 YoLoV3 检测框架,使用轻量级网络 SqueezeNet 替换了其底层DarkNet53 网络模型,即以 SqueezeNet 作为 YoLoV3 的特征提取网络。与此同时,本文采用深度可分离卷积等?榻饩隽 SqueezeNet 特征图与 YoLoV3 不适配的问题,在控制参数量的基础下,成功将轻量级网络SqueezeNet迁移到YoLoV3架构当中。最终,本文针对 YoLoV3_SqueezeNet 进行了验证工作,在 UA-DETRAC数据集上进行了训练与测试工作,结果表明,YoLoV3_SqueezeNet 在保证检测效果的基础上,极大程度上降低了权重模型大小,以及加速了模型训练与模型推理时间,进一步有助于 YoLoV3 的实际项目部署。

          5.2 工作展望

          本文针对当前车辆检测领域遇到的问题进行了研究分析,同时提出了新的车辆检测方案,避免了区域提议尺度敏感性问题的同时,还获得了高精度和高性能,但是还有一些不足,需要在后续的研究当中进行进一步改进:

         。1)本文进行的多类别车辆检测,只包含了公交车(Bus),小汽车(Car),卡车(Truck)三种类别的车辆,伴随着当代车型变种的增加。在未来的研究当中,本团队将会引入更多的车辆类别进行训练和检测。

         。2)当前只将轻量级网络 SqueezeNet 引入到 YoLoV3 架构当中。在接下来的工作当中,将会进一步将 H-SqueezeNet 网络引入到 YoLoV3 架构当中。 (3)在接下来的研究工作中,本团队将针对 YoLo 系列最新检测器 YoLoV4进行研究分析,并且致力于将其与轻量级网络相结合。

          参考文献

          [1] N. Buch, S. A. Velastin and J. Orwell, "A Review of Computer Vision Techniques for theAnalysis of Urban Traffic," IEEE Transactions on Intelligent Transportation Systems[J], vol.12, pp. 920-939, 2011.

          [2] S. R. E. Datondji, Y. Dupuis, P. Subirats, and P. Vasseur, "A Survey of Vision-Based TrafficMonitoring of Road Intersections," IEEE Transactions on Intelligent Transportation Systems[J],vol. 17, pp. 2681-2698, 2016.

          [3] Z. Fang, F. Fei, Y. Fang, C. Lee, N. Xiong, L. Shu, and S. Chen, "Abnormal event detection incrowded scenes based on deep learning," Multimedia Tools and Applications[J], vol. 75, pp.14617-14639, 2016.

          [4] Wahyono and K. Jo, "Cumulative Dual Foreground Differences for Illegally Parked VehiclesDetection," IEEE Transactions on Industrial Informatics[J], vol. 13, pp. 2464-2473, 2017.

          [5] W. Huang, G. Song, H. Hong, and K. Xie, "Deep Architecture for Traffic Flow Prediction:Deep Belief Networks With Multitask Learning," IEEE Transactions on IntelligentTransportation Systems[J], vol. 15, pp. 2191-2201, 2014.

          [6] A. Mhalla, T. Chateau, S. Gazzah, and N. E. B. Amara, "An Embedded Computer-VisionSystem for Multi-Object Detection in Traffic Surveillance," IEEE Transactions on IntelligentTransportation Systems[J], vol. 20, pp. 4006-4018, 2019.

          [7] L. Hu and Q. Ni, "IoT-Driven Automated Object Detection Algorithm for Urban SurveillanceSystems in Smart Cities," IEEE Internet of Things Journal[J], vol. 5, pp. 747-754, 2018.

          [8] Chourabi H, Nam T, Walker S , et al. Understanding Smart Cities: An Integrative Framework.IEEE Computer Society, 2012.

          [9] S. Li, F. Chang and C. Liu, "Bi-Directional Dense Traffic Counting Based on Spatio-TemporalCounting Feature and Counting-LSTM Network," IEEE Transactions on IntelligentTransportation Systems[J], pp. 1-13.

          [10]Z. Dai, H. Song, X. Wang, Y. Fang, X. Yun, Z. Zhang, and H. Li, "Video-Based VehicleCounting Framework," IEEE Access[J], vol. 7, pp. 64460-64470, 2019.

          [11]Z. Wang, X. Liu, J. Feng, J. Yang, and H. Xi, "Compressed-Domain Highway Vehicle Countingby Spatial and Temporal Regression," IEEE Transactions on Circuits and Systems for VideoTechnology[J], vol. 29, pp. 263-274, 2019.

          [12]H. Wang, J. Hou and N. Chen, "A Survey of Vehicle Re-Identification Based on DeepLearning," IEEE Access[J], vol. 7, pp. 172443-172469, 2019.

          [13]N. C. Mithun, N. U. Rashid and S. M. M. Rahman, "Detection and Classification of VehiclesFrom Video Using Multiple Time-Spatial Images," IEEE Transactions on IntelligentTransportation Systems[J], vol. 13, pp. 1215-1225, 2012.

          [14]Z. Dong, Y. Wu, M. Pei, and Y. Jia, "Vehicle Type Classification Using a SemisupervisedConvolutional Neural Network," IEEE Transactions on Intelligent Transportation Systems[J],vol. 16, pp. 2247-2256, 2015.

          [15]Y. Tang, C. Zhang, R. Gu, P. Li, and B. Yang, "Vehicle detection and recognition for intelligenttraffic surveillance system," Multimedia Tools and Applications[J], vol. 76, pp. 5817-5832,2017.

          [16]Y. Li, B. Li, B. Tian, and Q. Yao, "Vehicle Detection Based on the and- or Graph for CongestedTraffic Conditions," IEEE Transactions on Intelligent Transportation Systems[J], vol. 14, pp.984-993, 2013.

          [17]Gupte S, Masoud O, Martin R , et al. Detection and classification of vehicles[J]. IEEETransactions on Intelligent Transportation Systems, 2002, pp.37-47.

          [18]K. Bengler, K. Dietmayer, B. Farber, M. Maurer, C. Stiller, and H. Winner, "Three Decades ofDriver Assistance Systems: Review and Future Perspectives," IEEE Intelligent TransportationSystems Magazine[J], vol. 6, pp. 6-22, 2014.

          [19]Z. Xu, D. Zhang and L. Du, "Moving Object Detection Based on Improved Three FrameDifference and Background Subtraction,", in International Conference on IndustrialInformatics[C], 2017, pp. 79-82.

          [20]L. He and L. Ge, "CamShift Target Tracking Based on the Combination of Inter-frameDifference and Background Difference,", in Proceedings of the 37th Chinese ControlConference[C], 2018, pp. 9461-9465.

          [21]W Ji, L Tang, D Li, et al. Video-based construction vehicles detection and its application inintelligent monitoring system[J]. CAAI Transactions on Intelligence Technology, 2016, pp.162-172.

          [22]Godbehere, Andrew B., A. Matsukawa, and K. Goldberg. "Visual tracking of human visitorsunder variable-lighting conditions for a responsive audio art installation," in IEEE AmericanControl Conference[J], 2012.

          [23]Lili Guo, Dan Xu and Zhenping Qiang. "Background Subtraction using Local SVD BinaryPattern." in IEEE Conference on Computer Vision and Pattern Recognition (CVPR)[C], pp. 86-94, 2016.

          [24]Pakorn KaewTraKulPong and Richard Bowden. An improved adaptive background mixturemodel for real-time tracking with shadow detection. In Video-Based Surveillance Systems[J],Springer, pp. 135-144, 2002.

          [25]JiaYi Wei, JianFei Zhao, YanYun Zhao and ZhiCheng Zhao, "Unsupervised AnomalyDetection for Traffic Surveillance Based on Background Modeling", in CVPRW[C], pp. 129-136, 2018.

          [26]Imane Benraya and Nadjia Benblidia, "Comparison of Background Subtraction methods," inInternational Conference on Applied Smart Systems[C], 2018.

          [27] Wahyono, A. Filonenko and K. Jo, "Unattended Object Identification for IntelligentSurveillance Systems Using Sequence of Dual Background Difference," IEEE Transactions onIndustrial Informatics[J], vol. 12, pp. 2247-2255, 2016.

          [28]M. Vargas, J. M. Milla, S. L. Toral, and F. Barrero, "An Enhanced Background EstimationAlgorithm for Vehicle Detection in Urban Traffic Scenes," IEEE Transactions on VehicularTechnology[J], vol. 59, pp. 3694-3709, 2010.

          [29]S. Kul, S. Eken and A. Sayar, "Distributed and collaborative real-time vehicle detection andclassification over the video streams," International Journal of Advanced Robotic Systems[J],vol. 14, 2017.

          [30]J. L. Barron, D. J. Fleet, S. S. Beauchemin, and T. A. Burkitt, "Performance of optical flowtechniques," in Computer Vision and Pattern Recognition[C], 1992.

          [31]S. Negahdaripour, "Revised definition of optical flow: integration of radiometric and geometriccues for dynamic scene analysis," Pattern Analysis & Machine Intelligence IEEETransactions[J], vol. 20, pp. 961-979, 1998.

          [32]S. S. Beauchemin and J. L. Barron, "The computation of optical flow," Acm ComputingSurveys[J], 1995.

          [33]R. Ke, Z. Li, J. Tang, Z. Pan, and Y. Wang, "Real-Time Traffic Flow Parameter EstimationFrom UAV Video Based on Ensemble Classifier and Optical Flow," IEEE Transactions onIntelligent Transportation Systems[J], vol. 20, pp. 54-64, 2019.

          [34]C. P. Papageorgiou, M. Oren and T. Poggio, "General framework for object detection," inComputer Vision[C], 1998.

          [35]F. C. Crow, "Summed-area tables for texture mapping," in Conference on Computer Graphics& Interactive Techniques[C], 1984.

          [36]Dalal, Navneet, and B. Triggs . "Histograms of Oriented Gradients for Human Detection." IEEEComputer Society Conference on Computer Vision & Pattern Recognition[C], 2005.

          [37]D. G. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints," InternationalJournal of Computer Vision[J], vol. 60, pp. 91-110, 2004.

          [38]T. Ojala, M. Pietikainen and D. Harwood, "Performance evaluation of texture measures withclassification based on Kullback discrimination of distributions," Pattern Recognition[J], Vol.1, 1994.

          [39]T. Ojala, M. Pietik Inen and D. Harwood, "A Comparative Study of Texture Measures withClassification Based on Feature Distributions," Pattern Recognition[J], vol. 29, pp. 51-59, 1996.

          [40]G. Yan, M. Yu, Y. Yu, and L. Fan, "Real-time vehicle detection using histograms of orientedgradients and AdaBoost classification," Optik[J], vol. 127, pp. 7941-7951, 2016.

          [41]X. Wen, L. Shao, W. Fang, and X. Yu, "Efficient Feature Selection and Classification forVehicle Detection," IEEE Transactions on Circuits And Systems For Video Technology[J], vol.25, pp. 508-517, 2015.

          [42]J. Zhou, D. Gao and D. Zhang, "Moving Vehicle Detection for Automatic Traffic Monitoring,"IEEE Transactions on Vehicular Technology[J], vol. 56, pp. 51-59, 2007.

          [43]Y. Wang, X. Ban, H. Wang, D. Wu, H. Wang, S. Yang, S. Liu, and J. Lai, "Detection andClassification of Moving Vehicle From Video Using Multiple Spatio-Temporal Features,"IEEE Access[J], vol. 7, pp. 80287-80299, 2019.

          [44]F. Zhang, F. Yang, C. Li, and G. Yuan, "CMNet: A Connect-and-Merge Convolutional NeuralNetwork for Fast Vehicle Detection in Urban Traffic Surveillance," IEEE Access[J], vol. 7, pp 72660-72671, 2019.

          [45]H. Geng, J. Guan, H. Pan, and H. Fu, "Multiple Vehicle Detection with Different Scales inUrban Surveillance Video,", in 2018 IEEE Fourth International Conference on Multimedia BigData[C], 2018.

          [46]K. Kim, P. Kim, Y. Chung, and D. Choi, "Multi-Scale Detector for Accurate Vehicle Detectionin Traffic Surveillance Data," IEEE Access[J], vol. 7, pp. 78311-78319, 2019.

          [47]X. Hu, X. Xu, Y. Xiao, H. Chen, S. He, J. Qin, and P. Heng, "SINet: A Scale-InsensitiveConvolutional Neural Network for Fast Vehicle Detection," IEEE Transactions on IntelligentTransportation Systems[J], vol. 20, pp. 1010-1019, 2019.

          [48]Y. Zhou, L. Liu, L. Shao, and M. Mellor, "Fast Automatic Vehicle Annotation for Urban TrafficSurveillance," IEEE Transactions on Intelligent Transportation Systems[J], vol. 19, pp. 1973-1984, 2018.

          [49]F. Hong, C. Lu, C. Liu, R. Liu, and J. Wei, "A Traffic Surveillance Multi-Scale VehicleDetection Object Method Base on Encoder-Decoder," IEEE Access[J], vol. 8, pp. 47664-47674,2020.

          [50]A. ?enta?, ?. Tashiev, F. Kü?ükayvaz, S. Kul, S. Eken, A. Sayar, and Y. Becerikli, "Performanceevaluation of support vector machine and convolutional neural network algorithms in real-timevehicle type and color classification," Evolutionary intelligence[J], vol. 13, pp. 83-91, 2018.

          [51]Otsu N. A Threshold Selection Method from Gray-Level Histograms. IEEE Transactions onSystems Man & Cybernetics[J], pp. 62-66, 2007.

          [52]A. Krizhevsky, I. Sutskever, and G. E. Hinton, ''ImageNet classification with deepconvolutional neural networks,'' in Proc. Neural Inf. Process. Syst[C], pp. 1097-1105, 2012.

          [53]K. Simonyan and A. Zisserman, ''Very deep convolutional networks for large-scale imagerecognition,'' in International Conference on Learning Representations (ICLR) [C], pp. 1-14,2015.

          [54]Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe, Jonathon Shlens and Zbigniew Wojna,"Rethinking the Inception Architecture for Computer Vision", arXiv: 1512.00567[J], [Online].

          Available: https://arxiv.org/abs/1512.00567, 2015.

          [55]Kaiming He, Xiangyu Zhang, Shaoqing Ren and Jian Sun, "Deep Residual Learning for ImageRecognition", arXiv: 1512.03385[J], [Online]. Available: https://arxiv.org/abs/1512.03385,2015.

          [56]W. Liu, D. Anguelov, D. Erhan, C. Szegedy, S. Reed, C.- Y. Fu, and A. C. Berg, "SSD: SingleShot Multibox Detector," in European Conference on Computer Vision (ECCV) [C], pp 21-37.Springer, 2016.

          [57]T. Y. Lin, P. Goyal, R. Girshick, K. He, and P. Dollar, "Focal Loss for Dense Object Detection,"IEEE Trans Pattern Anal Mach Intelligence[J], vol. 42, pp. 318-327, 2020.

          [58]J. Redmon, S. Divvala, R. Girshick, and A. Farhadi, ''You only look once: Unified, real-timeobject detection,'' in Proc. CVPR[C], 2016,[59]J. Redmon and A. Farhadi, "YOLO9000: Better, Faster, Stronger," in IEEE Conference onComputer Vision and Pattern Recognition (CVPR) [C], Honolulu, HI, pp. 6517-6525, 2017.

          [60]J. Redmon and A. Farhadi, ''YOLOv3: An incremental improvement,'' arXiv:1804.02767[J].

          [Online]. Available: https://arxiv.org/abs/1804.02767, 2018.

          [61]R. Girshick, J. Donahue, T. Darrell, and J. Malik, ''Rich feature hierarchies for accurate objectdetection and semantic segmentation,'' in IEEE Conference on Computer Vision and PatternRecognition (CVPR) [C], pp. 580-587, 2014.

          [62]R. Girshick, ''Fast R-CNN,'' in Proc. ICCV[C], pp. 1440-1448, 2015.

          [63]S. Ren, K. He, R. Girshick, and J. Sun, "Faster R-CNN: Towards Real-Time Object Detectionwith Region Proposal Networks," IEEE Transactions on Pattern Analysis and MachineIntelligence[J], vol. 39, pp. 1137-1149, 2017.

          [64]J. MacQueen, Some Methods for classification and Analysis of Multivariate Observations, 1967[65]A. Bochkovskiy, C. Wang and H. M. Liao, "YOLOv4: Optimal Speed and Accuracy of Object Detection," arXiv: 2004.10934[J]. [Online]. Available: https://arxiv.org/abs/2004.10934, 2020.

          [66]J. Dai, Y. Li, K. He, and J. Sun, "R-FCN: Object Detection via Region-based FullyConvolutional Networks," arXiv: 1605.06409[J]. [Online]. Available:https://arxiv.org/abs/1605.06409, 2016.

          [67]A. Neubeck and L. Van Gool, "Efficient Non-Maximum Suppression", pp. 850-855, 2006.

          [68]F. N. Iandola, S. Han, M. W. Moskewicz, K. Ashraf, W. J. Dally and K.Keutzer, "Squeezenet:AlexNet-Level Accuracy with 50x Fewer Parameters and <0.5MB Model Size," 2016,arXiv:1602.07360v4[J], [Online]. Available: https://arxiv.org/abs/1602.07360v4.

          [69]Z. Zivkovic, "Improved adaptive Gaussian mixture model for background subtraction," inInternational Conference on Pattern Recognition[C], 2004, pp. 28-31 Vol.2.

          [70]Z. Zivkovic and F. van der Heijden, "Efficient adaptive density estimation per image pixel forthe task of background subtraction," Pattern Recognition Letters[J], vol. 27, pp. 773-780, 2006.

          [71]Satoshi Suzuki and Keiichi Abe. "Topological structural analysis of digitized binary images byborder following," Computer Vision, Graphics, and Image Processing[J], 1985.

          [72]Prati, A., Mikic, I., Trivedi, M. M., and Cucchiara, R. "Detecting moving shadows: algorithmsand evaluation," IEEE Transactions on Pattern Analysis and Machine Intelligence[J], vol. 25,pp. 918-923, 2003.

          [73]J. R. R. Uijlings, K. E. A. van de Sande, T. Gevers, and A. W. M. Smeulders, "Selective Searchfor Object Recognition," International Journal of Computer Vision[J], vol. 104, pp. 154-171,2013.

          [74]A. G. Howard, M. Zhu, B. Chen, D. Kalenichenko, W. Wang, T. Weyand, M. Andreetto, andH. Adam, "Mobilenets: Efficient convolutional neural networks for mobile vision applications,"2017, arXiv:1704.04861[J], [Online]. Available: https://arxiv.org/abs/1704.04861.

          [75]X. Zhang, X. Zhou, M. Lin, and J. Sun, "Shufflenet: An extremely efficient convolutional neuralnetwork for mobile devices," arXiv:1707.01083[J], [Online]. Available:

          https://arxiv.org/abs/1707.01083, 2017,[76]Chollet, Francois. "Xception: Deep Learning with Depthwise Separable Convolutions." in IEEEConference on Computer Vision and Pattern Recognition (CVPR) [C], pp. 1800-1807, 2017.

          [77]Y. Wang, P.-M. Jodoin, F. Porikli, J. Konrad, Y. Benezeth, and P. Ishwar, "CDnet 2014: AnExpanded Change Detection Benchmark Dataset", in Proc. IEEE Workshop on ChangeDetection (CDW-2014) at CVPR-2014[C], pp. 387-394, 2014.

          [78]A. Sanin, C. Sanderson and B. C. Lovell, "Shadow detection: A survey and comparativeevaluation of recent methods," Pattern Recognition[J], vol. 45, pp. 1684-1695.

          [79]Diederik P. Kingma and Jimmy Lei Ba, "ADAM: A METHOD FOR STOCHASTICOPTIMIZATION," arXiv:1412.6980[J], [Online]. Available: https://arxiv.org/abs/1412.6980,2015.

          [80]Wen L, Du D, Cai Z, et al. "UA-DETRAC: A new benchmark and protocol for multi-objectdetection and tracking," Computer Vision and Image Understanding[J], 2015.

        (如您需要查看本篇毕业设计全文,请您联系客服索。

        相关内容
        相关标签:计算机毕业设计
        好优论文定制中心主要为您提供代做毕业设计及各专业毕业论文写作辅导服务。 网站地图
        所有论文、资料均源于网上的共享资源以及一些期刊杂志,所有论文仅免费供网友间相互学习交流之用,请特别注意勿做其他非法用途。
        如有侵犯您的版权或其他有损您利益的行为,请联系指出,论文定制中心会立即进行改正或删除有关内容!
        青浦赵巷好多年轻女的