Numerical Recognition Algorithm for Power Equipment Monitoring Based on Light-Resnet Convolutional Neural Network
-
摘要: 在智能电网中,精确监测输电、配电及供电关键设备的运行状态对在线运维至关重要。面对人工抄录和巡检的低效,以及监测装置数字化升级的复杂安装、高成本和长周期等挑战,结合图像采集装置与图像处理技术,根据计算资源合理分配任务,开发了一种基于Light-Resnet数值识别算法,该算法通过D-Add损失函数优化网络训练过程,实现电力设备监测数据的远程读取。实验表明:Light-Resnet以
6090 的参数量在MNIST数据集获得了98.8%的严格准确率,结合边端协同机制,终端侧能耗降低了20.73%。这一算法不仅证明了自身在资源受限环境下的适应性和高效性,同时D-Add损失函数的设计也显著提升了网络的准确度。-
关键词:
- light-resnet /
- D-add /
- 边端协同机制 /
- 数值识别 /
- 智能电网
Abstract: In the smart grid, precise monitoring of the operational status of critical equipment for transmission, distribution and power supply is essential for effective online maintenance. Faced with the inefficiencies of manual recording and inspection, as well as the challenges associated with the complex installation, high cost and lengthy periods required for digital upgrades of monitoring devices, a novel approach that integrates image capture devices with image processing technology has been developed. This approach, leveraging the allocation of computational resources for task distribution, introduces a Light-Resnet-based numerical recognition algorithm, which enhances network training through the optimization of the D-Add loss function, enabling remote reading of electrical equipment monitoring data. Experiments have demonstrated that Light-Resnet achieves a rigorous accuracy rate of 98.8% on the MNIST dataset with only6090 parameters. When combined with edge computing collaboration mechanisms, it resulted in a 20.73% reduction in power consumption on the terminal side. The proposed algorithm not only proves its adaptability and efficiency in resource-constrained environments but also significantly improves the network's accuracy with design of the D-Add loss function.-
Keywords:
- light-resnet /
- D-add /
- edge-end collaboration mechanism /
- numerical recognition /
- smart grid
-
0. 引言
随着物联网技术的发展,数字化智能电网的推广势在必行。国家电网公司提出在坚强智能电网体系中,“坚强”是基础,“智能”是关键,强调坚强网架与电网智能化的高度融合是现代电网的基本特征和发展趋势[1]。在智能电网中,如何远程、准确获取电力设备的监测数据是一个关键问题。传统的人工巡视、纸质记录等方式存在效率低下、易出错等问题,已经无法满足智能电网在线运维的需求[2]。为了解决这个问题,现阶段广泛采用的方式是对现有的监测设备进行数字化改造,例如变电站场景中的机械式监测装置升级为具有通信接口的智能装置。然而实际电力场景中依然存在大量不具备通信能力的监测设备,若要对全部无通信能力的监测设备进行数字化改造,则面临装卸过程复杂、更换成本巨大、改造周期长等困难。随着机器学习的发展,基于图像处理技术的远程监控方案可以提供一种更高效、准确的手段。通过在监测装置周边安装低成本图像采集装置,无须对原有设备进行拆卸,具有安装灵活、易于实施的优势。借助图像处理、模式识别等技术可以远程识别各种设备图像中的数值信息。
基于机器学习的图像处理技术通常需要完成数字检测和数字识别2个任务,数字检测是在图像上定位和识别数字的位置;数字识别是对图像中的数字进行识别。本文主要聚焦于数字识别任务的深入研究与分析。早期研究人员大多采用基于人工提取特征的算法进行图像处理,文献[3]借助车牌识别的方式,率先提出了一种基于计算机视觉的自动抄表的体系结构,该体系结构包含4个步骤:仪表图像捕获、图像预处理、模式匹配和仪表识别。文献[4]使用支持向量机进行数字识别。文献[5]提出了一种新的数字识别算法—HD_MR,使用Hausdorff(HD)距离来识别数字,然而所提出的识别算法依赖先验过程来获取合适的二值图像。文献[6]利用字符的粗网格特征和穿越次数特征进行字符识别。以上基于人工提取特征的算法对处理单元的算力需求低,在简易场景中可以获得不错的效果,但难以应付图像特征丰富且复杂的场景。因此,需要一种新的图像处理算法来提高系统的鲁棒性和准确性。
近年来,深度学习算法成为图像处理技术的研究热点。文献[7]提出了一个在自然场景中识别文本的无分割系统,使用卷积神经网络进行端到端训练,实现数字识别。文献[8]提出了一种端到端的全卷积序列识别网络,用于快速准确地读取水表数值。文献[9-10]提出了一种应用多任务学习技术来检测和识别仪表数值的算法。该算法训练了2个卷积神经网络,分别用于数字检测和数字识别。文献[11-12]分别训练了轻型卷积神经网络和改进版VGG-16进行字符识别。上述文献所使用的深度学习算法与基于人工提取特征的算法相比,大大提高了数字检测和数字识别的准确性和鲁棒性,但它们大多选用权重参数较多的深层网络模型,需要庞大的算力,难以在算力和内存受限的嵌入式设备上部署。
基于图像处理技术的远程监控系统架构通常由边侧、端侧以及传输侧组成。边侧为边缘服务器,负责数据分析和数据存储;端侧为终端,具备图像采集功能和传输功能;传输侧为传输网络,用于边侧和端侧之间的信息交互。因此,图像处理算法可以选择在边侧或在端侧部署。文献[3-4, 13]选择将算法部署于端侧,只需上传识别结果到边侧,大大减小了传输的数据量,减轻了网络传输的负担。由于端侧通常为算力和内存受限的微控制单元(MCU),难以保障图像处理的准确性和鲁棒性。为了追求高准确性和高鲁棒性,文献[14-18]选择在算力资源丰富的边侧部署复杂、深层的深度学习模型,实现了数字检测和数字识别。但这种部署方式会要求端侧上传原始图像信息,大大增加了传输数据量和带宽资源的开销。
针对在带宽有限的环境中确保算法高准确性与低功耗运行这一难题,本文提出了一种基于Light-Resnet卷积神经网络的设备监测数值识别算法,结合边端协同机制,根据任务的复杂程度以及设备的算力资源,对任务进行合理分配,显著降低了端侧设备的能耗,达到了20.73%的节能效果。此外,为了确保端侧数字识别任务的高准确性,本文设计了一种轻型数字识别网络——Light-Resnet。该算法以
6090 的参数量在MNIST数据集上数字识别准确率达到了98.8%。其中所提出的轻型网络架构目标是在保障识别性能的前提下,最小化每层卷积所需的权重参数数量,从而使得该数字识别网络可以部署于算力和内存受限的MCU上。进一步地,本文通过引入D-Add损失函数,将单任务问题转化为多任务问题,优化了数字识别网络的训练过程,进一步提高了算法的识别准确性。1. 系统架构与边端协同机制
1.1 系统架构
本文提出的基于Light-Resnet卷积神经网络的设备监测数值识别算法在图1所示的系统架构中运作。其中,边侧搭载有高算力设备;端侧核心为MCU,搭载有图像采集装置和低功耗通信模组,具有算力低、内存小、能量敏感等特点;传输侧为窄带网络,负责边侧和端侧之间的数据传输。
在图1所示的系统架构中,依据数字识别和数字检测算法的不同部署方式,端侧的能耗为
E=ρEdd+σEdr+Esend+Esensor+Eother (1) 式中:
E 为端侧总能耗;Edd 为数字检测任务产生的能耗;Edr 为数字识别任务产生的能耗,Esend 为数据发射时的能耗;Esensor 为图像采集产生的能耗;Eother 为其他过程产生的能耗,包括初始化过程、交互过程等。当ρ=σ=1 时,表示图像处理算法部署在端侧;当ρ=σ=0 时,表示图像处理算法部署在边侧;当ρ=0,σ=1 时,表示结合边端协同机制的部署方式。1.2 边端协同机制
为了降低端侧能耗,本文提出一种边端协同机制。综合考虑任务的复杂度、设备的算力资源以及网络带宽资源,将数字检测任务放在算力资源丰富的边侧,将数字识别任务放在算力受限的端侧。通过在边侧获取数字位置信息,并将其传递给端侧。端侧凭借接收到的数字位置信息将数字从原图中分离出,并将分离出的图片依次输入数字识别网络中。在得到识别结果后,将识别结果传递到边侧。
端侧安装的是一个低成本图像采集装置,且它们之间的相对位置固定,因此数字位置信息固定不变,边侧只须在系统初始时将数字位置信息传递给端侧,端侧可以依据已获取的数字位置信息进行后续的识别工作。
2. Light-Resnet算法
2.1 损失函数设计
监测装置数值识别问题的目标是识别一组数字序列,序列中数字之间通常存在一定的相关性。现有研究大多将数字序列识别问题分解为多个单任务问题,每一个单任务问题的目标则是最大化单一数字识别准确性。然而如果将数字序列识别问题作为多个单任务问题,将无法考虑任务之间的相关性。因此,本文将监测装置数值识别问题定义为一个多任务问题[19-21]。通过使用共享表示来学习多个任务,从一个任务中学到的知识可以帮助学习其他任务[21]。监测装置数字识别问题定义如下。
有标记的数据集为
D ,其中包含了多个任务数据,其中第i 个任务的数据集是Di ,每个任务有其对应的损失值Li 和分类结果ui ,多个任务的共同目标是训练一个权重共享的卷积神经网络,最小化所有任务损失值的加权和。数字序列中每个数字的识别都作为一个分类任务,并将每个任务的损失值通过加权和的方式相关联。由此,本文设计损失函数D-Add为
L=αn∑i=1βiLi (2) 式中:
L 为整体的损失值;α 为超参数;Li 为第i 个任务的损失值;βi 为第i 个任务损失值所占的权重;n 为数字序列的个数。通常来说神经网络性能对权重分配非常敏感[19],考虑到本文中任务间的差异基本可以忽略不计,并且图像处理算法部署场景的算力和内存受限,因此令βi=1 。2.2 Light-Resnet架构设计
本文所使用的骨干网结构如图2所示,网络选用ResBlock[22]的堆叠作为特征提取模块。当ResBlock的输入输出维度不匹配时,用投影捷径(projection shortcut)的方式匹配维度[22],如图3所示。单个ResBlock可表示为
yl=h(xl)+F(xl,Wl) (3) xl+1=f(yl) (4) 式中:
xl 、yl 分别为第l 个ResBlock的输入、输出特征;Wl={Wl,k|1⩽k⩽K} 为与第l 个ResBlock相关的权重(偏置项),其中K为单个ResBlock内包含的层的总数量;函数f(yl) 表示激活函数;函数F(xl,Wl) 表示要学习的残差映射;函数h(xl) 表示恒等映射,h(xl)=xl [23] 。网络训练过程会产生内部协变量转移,即由于网络中参数的变化而引起网络内部节点数据分布发生变化。内部协变量转移会导致网络的学习速率降低并且减缓网络的收敛速度。为了削弱内部协变量转移的影响,本文在每个卷积层后加上一个BN层[24],使得网络可以选择较大的学习率,起到了一定的正则化效果,并且稳定了网络中每层输入的数据分布,加快了网络收敛。
对于大小为m的批处理和大小为
p×q 的单通道特征图,使用式(5)~(8)对每层的训练参数进行批归一化操作。1)计算批归一化数据均值,即
μB←1m∼m∼∑i=1ai (5) 2)计算批归一化数据方差,即
σ2B←1m∼m∼∑i=1(ai−μB)2 (6) 3)规范化为
^ai←ai−μB√σ2B+ϵ (7) 4)尺度变换和偏移为
bi←γ^ai+β≡BNγ,β(ai) (8) 式中:
ai 为批归一化输入的第i 个参数,ai∈{a1,a2,⋯,am∼} ;bi 为批归一化输出;m∼ 为输入参数的数量,m∼=m×p×q ;γ 和β 为可学习的参数,与初始网络参数一起学习,从而表示恢复网络的能力;ϵ 为常量;μB 为输入参数的均值;σ2B 为输入参数的方差;^ai 为规范化处理后的第i 个输入参数。如图3所示,Light-Resnet选用了ReLU[25]作为激活函数。ReLU函数是分段线性函数,在前向推导和反向传播过程中只需要执行简单的阈值比较和乘法运算,计算效率高,适用于算力受限的场景。且ReLU函数具有稀疏性,可以提高卷积神经网络的泛化能力,降低存储和计算成本。同时ReLU函数可以有效防止Light-Resnet在训练过程中的梯度消失问题。
损失函数D-Add计算过程如图4所示,Light-Resnet是由1个卷积层、3个残差块、3个最大池化层、1个全局平均池化层和1个全连接层组成。Light-Resnet通过最小化每层网络所需的权重参数数量和通道数量来优化内存占用。第1卷积层的输入为
64×24 的单通道灰度图像。它由4个卷积核组成,大小为3×3 ,步幅为1。第1个残差块输入通道为4,输出通道为8。第2个残差块输入通道为8,输出通道为8。第3个残差块输入通道为8,输出通道为16。每个残差块后会跟一个2×2 的最大池化层。全局平均池化层以第3个最大池化层的输出作为输入,输出大小为1×1×16 特征图,最后输入FC层,得到1×1×10 的数据结果,代表数字0~9的10个类别的概率大小。每个数字识别任务权重参数共享,将每个任务的损失值按照式(2)计算加权和,得到整体的损失值。
反向传播总梯度G为
G=∂L∂W=αn∑i=1∂Li∂W (9) 式中:
W 为网络的权重,网络的一般形式为y=Wx 。在每一次训练中y 和Li 是固定的,反向传播算法的梯度值取决于α ,梯度值G 随着α 的增加而增加,因此相应的损失下降更快。3. 仿真实验
3.1 算法对比
3.1.1 参数设置
在本次实验中使用的是MNIST数据集,该数据集数字形状多样,数据特征复杂。其中训练集为6万张图片,验证集为
5000 张图片,测试集为5000 张图。实验的所有网络模型均是在NVIDIA GeForce GTX 1650上进行仿真和训练。输入图片大小为64×24,批大小为64,训练周期为200轮,网络的目标函数是使用SGD优化器进行优化,动量为0.8,学习率的设置上采用动态调整策略,初始学习率为0.1,当损失值在一定数量周期内稳定时,其数值将被减少至原来的1/10。
3.1.2 评价指标
1)识别准确率
NACC 。准确率的判定标准为一组数字序列中错误个数不多于1即为识别正确。Se⩽1 表示错误个数不多于1的数字序列总组数,Ssum 为测试的总组数。NACC=Se⩽1Ssum (10) 2)识别严格准确率
NSACC 。严格准确率的判定标准为一组数字序列中错误个数为0即为识别正确。Se=0 表示错误个数等于0的数字序列总组数。NSACC=Se=0Ssum (11) 3.1.3 实验结果
本节实验验证了Light-Resnet卷积神经网络的整体性能,以及其在轻型网络中的优越性。本节中的对比实验遵循的原则为:1)所选用模型的网络架构和设置与原始版本一致;2)每个模型的训练方式和设置一致;3)训练集、测试集和验证集一致。本文模型中
α 值的设定影响了模型的性能,测试了1到5以获得最佳的α 值。结果显示最佳α 值为2。首先选择在测试集上进行性能测试和一系列对比测试。性能测试上,本文所设计的Light-Resnet卷积神经网络在测试集上进行了10次独立测试,每次测试从
5000 张图片中随机抽取1000 组图片,每组5张图片。表1为不同网络结构的¯NACC 、¯NSACC 以及权重参数大小的对比,¯NACC 为10次测试的平均NACC ,可以达到100%,¯NSACC 为10次测试的平均NSACC ,可以达到98.79%。表 1 不同网络结构性能对比Table 1. Performance comparison of different network architectures网络架构 ¯NACC/% ¯NSACC/% 权重大小 CapsNet 99.99 99.23 6804384 Light-Resnet 100.00 98.79 6090 MOCNN 99.94 96.38 6538 在网络结构的对比上,本文挑选了另外2种网络架构进行对比实验,一个是参数量与Light-Resnet为同等量级的MOCNN[13],参数量为
6538 ;另一个是在MNIST数据集榜单上表现突出的CapsNet[26],其参数量是Light-Resnet的1000 倍左右。CapsNet和MOCNN采用了原文献中最优的参数设置,训练集和测试集与Light-Resnet一致,测试方式一致。结果如表1和图5所示,图5为不同网络结构10次NSACC 测试结果对比。在准确率NACC 上,Light-Resnet的¯NACC 比MOCNN高0.06%,与CapsNet效果相当。在严格准确率NSACC 上,Light-Resnet以 CapsNet 1‰的参数量,达到了与CapsNet相当的结果,其¯NSACC 仅比CapsNet低了0.44%;与MOCNN相比,其严格准确率提高了2~3个百分点。MOCNN和CapsNet均是基于单个损失函数的模型,它们在单一的分类任务中均可达到很高的分类精度。因此在准确率对比上,MOCNN和CapsNet性能与Light-Resnet相当。在严格准确性上,Light-Resnet的性能比MOCNN2~3个百分点,并且其性能与复杂度高的CapsNet相当,原因在于Light-Resnet的损失函数包含多个损失函数,将比MOCNN单个损失函数具有更好的分类准确性。并且Light-Resnet将识别的多个数字作为多任务进行训练学习,一个任务中学到的知识可以帮助学习其他任务,从而提高每个任务的学习效率和预测准确性,因此其性能可以接近复杂度高的CapsNet。
同时本文选取了3种不同的损失函数与D-Add进行对比实验,3种损失函数分别是平均损失函数(AVG)、交叉熵损失函数(CEL)和混合回归损失函数(HRC)[16]。交叉熵损失函数常用于分类任务中,平均损失函数和混合回归损失函数均用于多任务学习中。实验中,4种损失函数所使用的网络结构均为Light-Resnet卷积神经网络。实验结果如表2和图6所示。结果表明,对于
¯NACC ,4种损失函数的结果相当;对于¯NSACC ,D-Add损失函数表现比HRC和AVG高约1个百分点,比CEL高约0.3个百分点。表 2 多种损失函数性能对比Table 2. Performance comparison of multiple loss functions损失函数 ¯NACC/% ¯NSACC/% CEL 99.97 98.45 HRC 99.99 97.82 D-ADD 100.00 98.79 AVG 99.99 97.95 HRC将回归问题分解为分类问题,并为不同的分类问题分配不同的权重,由不同的分支解决,高权重分支在总损失的梯度值中占据较大比例,低权重分支在总损失的梯度值中占据比例较小。但本文设计的Light-Resnet卷积神经网络为轻量型卷积神经网络,网络的权重参数数量较少,难以学习数字序列中的深层语义信息,也无法区分各个分支的差异,因此这样的权重分配方式会导致权重小的分支欠拟合,训练效率低下,从而影响分类准确度。AVG稀释了模型的整体权重。CEL是单任务学习,其目标是最大化单一任务的性能,没有考虑数字间的相关性。本文设计的D-Add损失函数将一组数字序列作为一个整体看待,其目标是提高每个任务的学习效率和预测准确性。
3.2 能耗对比
本次实验端侧所使用的微控制单元(MCU)为HC32 F4 A0 SITB,其主频为240 MHz,采用LoRa收发信号,图像采集装置选用的是OV5640,采集图片大小为300×400。本文在端侧模拟了3种部署方式的处理流程,并搭建了测试平台用于测试每部分的能耗以及总能耗,测试结果如表3所示。
表 3 端侧能耗对比Table 3. Terminal-side power consumption comparison单位:J 位置 Edr Edd Esend Esensor Eother E 边 0 0 49.624 1.462 6.819 57.905 端 2.218 2.878 2.709 1.517 6.427 15.749 边端协同 2.211 0 2.721 1.514 6.599 13.045 可以看出3种部署方式的能耗差异主要体现在Edr、Edd和Esend,Esensor和Eother差距不大。其中,边端协同部署方式的总能耗比在端侧部署的方式降低了20.73%,比在边侧部署的方式降低了77.47%。与边侧部署方式相比,边端协同部署方式的Esend远小于边侧部署方式,原因在于边端协同的方式无须发送大量数据,节省了大量的传输能耗;与端侧部署方式相比,边端协同的方式无须在端侧进行数字检测算法,节省了数字检测的能耗开销,并且随着数字检测算法复杂度的提高,其能耗也会随之升高。
4. 结语
本研究通过深入分析和实验验证,展示了所提出的基于Light-Resnet卷积神经网络的设备监测数值识别算法的有效性。然而,在将此算法应用于实际场景时,存在几个潜在的挑战和改进方向。首先,算法的训练过程高度依赖于数据集的质量和多样性,这可能限制其在面对实际场景时的泛化能力。其次,电力场景的情况通常更为复杂,且可能受到各种干扰,要求算法具备一定的容错处理能力。针对这些问题,建议未来的研究可以探索更先进的数据增强技术,来增强算法的泛化能力。同时,加入数据反馈循环技术,建立从边侧到端侧的数据反馈循环机制,以在实际场景中不断优化和更新端侧的识别算法。此外,建议增加异常检测和报警机制,在边侧部署异常检测和报警机制,利用历史数据对未来数据进行预测。一旦发现数据偏差过大,立即触发报警并进行人工干预。
-
表 1 不同网络结构性能对比
Table 1 Performance comparison of different network architectures
网络架构 ¯NACC/% ¯NSACC/% 权重大小 CapsNet 99.99 99.23 6804384 Light-Resnet 100.00 98.79 6090 MOCNN 99.94 96.38 6538 表 2 多种损失函数性能对比
Table 2 Performance comparison of multiple loss functions
损失函数 ¯NACC/% ¯NSACC/% CEL 99.97 98.45 HRC 99.99 97.82 D-ADD 100.00 98.79 AVG 99.99 97.95 表 3 端侧能耗对比
Table 3 Terminal-side power consumption comparison
单位:J 位置 Edr Edd Esend Esensor Eother E 边 0 0 49.624 1.462 6.819 57.905 端 2.218 2.878 2.709 1.517 6.427 15.749 边端协同 2.211 0 2.721 1.514 6.599 13.045 -
[1] 李博, 高志远. 人工智能技术在智能电网中的应用分析和展望[J]. 中国电力, 2017, 50(12): 136–140. LI Bo, GAO Zhiyuan. Analysis and prospect on the application of artificial intelligence technologies in smart grid[J]. Electric Power, 2017, 50(12): 136–140.
[2] 白钒, 胡杰, 何鹏, 等. 基于物联网技术的智能电网基础设施建设数字化管理平台研究[J]. 机械与电子, 2022, 40(10): 77–80. BAI Fan, HU Jie, HE Peng, et al. Research on digital management platform for smart grid infrastructure construction based on Internet of Things technology[J]. Machinery & Electronics, 2022, 40(10): 77–80.
[3] ZHAO S T, LI B S, YUAN J S, et al. Research on remote meter automatic reading based on computer vision[C]//2005 IEEE/PES Transmission & Distribution Conference & Exposition: Asia and Pacific. Dalian, China. IEEE, 2005: 1–4.
[4] EDWARD V C P. Support vector machine based automatic electric meter reading system[C]//2013 IEEE International Conference on Computational Intelligence and Computing Research. Enathi, India. IEEE, 2013: 1–5.
[5] RODRİGUEZ M, BERDUGO G, JABBA D, et al. HD_MR: a new algorithm for number recognition in electrical meters[J]. Turkish Journal of Electrical Engineering & Computer Sciences, 2014, 22: 87–96.
[6] 陈英, 李磊, 汪文源, 等. 家用水表字符的识别算法研究[J]. 现代电子技术, 2018, 41(18): 99–103. CHEN Ying, LI Lei, WANG Wenyuan, et al. Research on character recognition algorithm for domestic water meter[J]. Modern Electronics Technique, 2018, 41(18): 99–103.
[7] GÓMEZ L, RUSIÑOL M, KARATZAS D. Cutting sayre’s knot: reading scene text without segmentation. application to utility meters[C]//2018 13th IAPR International Workshop on Document Analysis Systems (DAS). Vienna, Austria. IEEE, 2018: 97-102.
[8] YANG F, JIN L W, LAI S X, et al. Fully convolutional sequence recognition network for water meter number reading[J]. IEEE Access, 2019, 7: 11679–11687. DOI: 10.1109/ACCESS.2019.2891767
[9] DA SILVA MARQUES R C, COSTA SERRA A, FERREIRA FRANÇA J V, et al. Image-based electric consumption recognition via multi-task learning[C]//2019 8th Brazilian Conference on Intelligent Systems (BRACIS). Salvador, Brazil. IEEE, 2019: 419–424.
[10] 龚安, 张洋, 唐永红. 基于YOLOv3网络的电能表示数识别方法[J]. 计算机系统应用, 2020, 29(1): 196–202. GONG An, ZHANG Yang, TANG Yonghong. Automatic reading method of electric energy meter based on YOLOv3[J]. Computer Systems & Applications, 2020, 29(1): 196–202.
[11] 顾允迪, 徐望明, 何钦. 字轮式仪表智能图像抄表系统的设计[J]. 液晶与显示, 2023, 38(7): 985–996. GU Yundi, XU Wangming, HE Qin. Design of image-based intelligent meter reading system for wheel meters[J]. Chinese Journal of Liquid Crystals and Displays, 2023, 38(7): 985–996.
[12] 吉训生, 谭凯凯. 基于卷积神经网络的水表读数识别方法[J]. 传感器与微系统, 2020, 39(12): 130–133. JI Xunsheng, TAN Kaikai. Water meter character recognition method based on CNN[J]. Transducer and Microsystem Technologies, 2020, 39(12): 130–133.
[13] HAN D, KIM H. A number recognition system with memory optimized convolutional neural network for smart metering devices[C]//2018 International Conference on Electronics, Information, and Communication (ICEIC). Honolulu, HI, USA. IEEE, 2018: 1–4.
[14] LI C S, SU Y K, YUAN R, et al. Light-weight spliced convolution network-based automatic water meter reading in smart city[J]. IEEE Access, 2019, 7: 174359–174367. DOI: 10.1109/ACCESS.2019.2956556
[15] JUNAGADE S, JAIN P, SARANGI S, et al. Digital display recognition towards connected sensing systems for precision agriculture[C]//2021 IEEE Global Humanitarian Technology Conference (GHTC). Seattle, WA, USA. IEEE, 2021: 155–162.
[16] XIU H, HE J, ZHANG X T, et al. HRC-mCNNs: a hybrid regression and classification multibranch CNNs for automatic meter reading with smart shell[J]. IEEE Internet of Things Journal, 2022, 9(24): 25752–25766. DOI: 10.1109/JIOT.2022.3197930
[17] FAN Z Z, SHI L R, XI C, et al. Real time power equipment meter recognition based on deep learning[J]. IEEE Transactions on Instrumentation and Measurement, 2022, 71: 5017015.
[18] DONG Z P, GAO Y, YAN Y H, et al. Vector detection network: an application study on robots reading analog meters in the wild[J]. IEEE Transactions on Artificial Intelligence, 2021, 2(5): 394–403. DOI: 10.1109/TAI.2021.3105936
[19] CIPOLLA R, GAL Y, KENDALL A. Multi-task learning using uncertainty to weigh losses for scene geometry and semantics[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA. IEEE, 2018: 7482–7491.
[20] EVGENIOU T, PONTIL M. Regularized multi: task learning[C]//Proceedings of the tenth ACM SIGKDD international conference on Knowledge discovery and data mining. Seattle, WA, USA. ACM, 2004: 109–117.
[21] CARUANA R. Multitask learning[M]//Learning to Learn. Boston, MA: Springer US, 1998: 95–133.
[22] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA. IEEE, 2016: 770–778.
[23] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Identity mappings in deep residual networks [C]//Computer Vision – ECCV 2016. Cham: Springer International Publishing, 2016, 630: 45.
[24] IOFFE S, SZEGEDY C. Batch normalization: accelerating deep network training by reducing internal covariate shift[C]//Proceedings of the 32nd International Conference on Machine Learning - Volume 37. Lille, France. ACM, 2015: 448–456.
[25] GLOROT X, BORDES A, BENGIO Y. Deep sparse rectifier neural networks[J]. Journal of Machine Learning Research, 2011, 15: 315–323.
[26] SABOUR S, FROSST N, HINTON G E. Dynamic routing between capsules[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. Long Beach, California, USA. ACM, 2017: 3859–3869.