Loading [MathJax]/jax/output/SVG/jax.js

基于Gabor滤波器的电泳电子纸图像滤波系统设计

何文耀, 刘林威, 黄圳煜, 易子川, 周国富, 水玲玲

何文耀, 刘林威, 黄圳煜, 易子川, 周国富, 水玲玲. 基于Gabor滤波器的电泳电子纸图像滤波系统设计[J]. 华南师范大学学报(自然科学版), 2020, 52(2): 14-18. DOI: 10.6054/j.jscnun.2020021
引用本文: 何文耀, 刘林威, 黄圳煜, 易子川, 周国富, 水玲玲. 基于Gabor滤波器的电泳电子纸图像滤波系统设计[J]. 华南师范大学学报(自然科学版), 2020, 52(2): 14-18. DOI: 10.6054/j.jscnun.2020021
HE Wenyao, LIU Linwei, HUANG Zhenyu, YI Zichuan, ZHOU Guofu, SHUI Lingling. The Design of Electronic Paper Image Filtering Based on Gabor Filters[J]. Journal of South China Normal University (Natural Science Edition), 2020, 52(2): 14-18. DOI: 10.6054/j.jscnun.2020021
Citation: HE Wenyao, LIU Linwei, HUANG Zhenyu, YI Zichuan, ZHOU Guofu, SHUI Lingling. The Design of Electronic Paper Image Filtering Based on Gabor Filters[J]. Journal of South China Normal University (Natural Science Edition), 2020, 52(2): 14-18. DOI: 10.6054/j.jscnun.2020021

基于Gabor滤波器的电泳电子纸图像滤波系统设计

基金项目: 

国家重点研发计划项目 2018YFB0407100-02

国家重点研发计划项目 2016YFB0401502

广东省科技计划项目 2014A010103024

广东省教育厅项目 2018KQNCX334

中山市引进创新创业科研团队项目 180809162197886

详细信息
    通讯作者:

    水玲玲,教授,Email:shuill@m.scnu.edu.cn

  • 中图分类号: TN911.73

The Design of Electronic Paper Image Filtering Based on Gabor Filters

  • 摘要: 采集电泳电子纸(EPD)的边缘纹理、鬼影图像时,需避免外界光照条件的干扰,包括光源方向、明暗和色彩等.针对EPD显示画面采集过程中受到的光干扰问题,设计了一种基于Gabor滤波器的图像滤波系统.对于受光干扰的单一灰阶图像,先通过Gabor滤波器降低光照变化和噪声对图像的影响,再通过闭运算进行边缘补偿;对于受光干扰的彩色图像,先提取图像的RGB分量,分别对各分量进行Gabor滤波,最后将3组分量重新组合成彩色图像.结果表明:该系统在单一灰阶图像、彩色图像中对光干扰的消除率分别达到39.9%和39.7%.研究结果对降低采集EPD图像时的光干扰具有重要意义.
    Abstract: The collection of the edge textures and the ghost image in electrophoretic display (EPD) requires avoiding the interference of outside light conditions, including the direction of the light source, lighting and shade, color and so on. A image filtering method based on Gabor filters is proposed to reduce the lighting interference in the process of collecting EPD images. For a single gray-scale image which is interfered by the lighting, the Gabor filters are used to reduce the influence of illumination variation and noise in the image, and then the edge compensation is performed by the closed operation. For the color image subjected to light interference, the R, G and B components of the image are extracted first. The components are then subjected to filtering with the Gabor filters, and finally the three components are recombined into the color image. The experimental results show that the elimination rate of light interference in single gray-scale image and color image is 39.9% and 39.7% respectively. The results of this study are of great significance in reducing the light interference introduced in EPD image collection.
  • 快速且准确地从遥感影像中检测和提取建筑物,在变化检测、城市规划、防灾避险和三维建模等应用中都有着重要的意义[1-2]。随着遥感技术的不断发展,遥感影像的空间分辨率显著提高,高分辨率遥感影像已经成为建筑物数据的重要来源之一。然而,遥感影像中的地物信息、几何结构和纹理特征等更加丰富和精细,对建筑物提取技术提出了更高的要求[3-4],因此,如何实现更加高效高精度且自动化的遥感影像建筑物提取具有非常重要的研究意义和实际价值。

    目前,传统的用于建筑物提取的方法主要有监督分类[5]、知识约束[6]和模板匹配[7]。其中,监督分类是采取人工手段对建筑物的特征进行设计,然后对随机森林[8]、支持向量机[9]和ISO聚类[10]等分类器进行训练,最后使用训练好的分类器对实验数据进行分类, 从而提取有效建筑物;知识约束是面对某些待测问题,以特定的条件来约束并处理,得到更好的提取结果,其中以矩形约束[11]、几何辐射[12]和菱形约束[13]等知识约束方法为典型代表;模板匹配是确定明确的建筑物参数模板并对建筑物信息进行描述,再根据相关度寻找最合适的算法匹配得到最优结果[14]

    近年来,计算机处理能力得到大幅度提高,海量学习样本数据集不断更新,以卷积神经网络(Convolutional Neural Network,CNN)[15]为代表的深度学习技术在基于遥感影像的建筑物提取领域得到了广泛应用[16]。这种方法省去了人力操作,自动从包含大量训练样本的图像数据集中学习相关语义特征,从而得到精确的结果,其适用性优于传统方法。然而,基于经典的CNN模型进行批量处理时会存在内存开销上涨、计算效率低下和感知区受限制等问题[17]。为解决上述问题,LONG等[18]提出了全卷积神经网络(Fully Convolutional Networks,FCN),该网络不仅提高了对光谱特征和空间特征的提取能力,还去除了全连接层,提高了影像分割效率,降低了计算复杂度。然而,基于FCN模型提取图像时,前向传播过程中特征图像的分辨率不断下降,这种仅采用末端特征上采样生成的分割结果的边缘精度较低,丢失了若干细节信息。2015年,RONNEBERGER等[19]提出了U-Net模型,该模型以FCN模型为基础,通过对称式的结构融合了传统网络中的低维特征和高维特征,在图像分割上有更好的效果。2019年,朱辉和秦品乐[20]设计了一种基于多尺度特征结构的改进U-Net卷积神经网络肺结节检测算法,更准确地定位肺部病灶区;刘浩等[21]提出了一种基于特征压缩激活U-Net模型的建筑物提取方法,对相应尺度的空间信息进行恢复,更好地识别形状各异的建筑物。U-Net模型在建筑物提取领域展现了优异的性能,但该模型在反卷积层进行采样操作时会损失影像中的建筑物特征,从而造成建筑物边缘模糊的问题[22]。为解决此问题,学者们在U-Net模型中引入全连接条件随机场(Fully Connected Conditional Random Fields,CRFs),以对建筑物边缘进行优化。如:张浩然等[23]提出基于CRFs模型对U-Net模型分割的影像结果进行后处理,从而提高了建筑物边缘的分割精度。然而,基于U-Net模型和CRFs的语义分割算法只优化了U-Net模型的最终输出,忽略了中间层中包含的空间信息和边缘信息,而空间信息和边缘信息的恢复对提高语义分割的性能起着重要的作用。

    基于以上分析,本文提出一种改进的U-Net模型(U-Net+级联CRFs),以进行遥感影像建筑物自动提取。该模型在U-Net模型的解码部分,通过融合多级CRFs,将当前层CRFs的输出作为后一层CRFs的输入之一,形成级联关系,从而补充边界的语义信息和空间信息, 提高解码器模块的边界恢复能力。并以广东省佛山市为研究区,基于SVM、U-Net、U-Net+CRFs、U-Net+级联CRFs模型进行建筑物提取对比实验,以验证U-Net+级联CRFs模型的边界提取优势。

    本文首先对样本数据进行预处理,随后基于U-Net网络构建建筑物提取模型,继而在网络解码层加入级联CRFs,构建完整的级联CRFs,对每一个解码层的输出进行处理,并将所有CRFs的输出进行整合,得到最终的提取结果。下面给出关键模型和方法。

    U-Net网络(图 1)扩展了全卷积神经网络的低维特征和高维特征相融合的思想,网络左半部分中每一层的内部使用了2次3×3的卷积操作,并保持卷积核的数目相同,通过递减的方式控制输入数据的空间维度,提取高层典型特征;右半部分自下而上通过反卷积层逆向进行多次上采样,逐步还原低层空间维度的细节信息。同时,针对模型易发生梯度消失和梯度爆炸的问题,在网络中引入了批量归一化(BN)层[24];针对模型中参数过多而训练样本较少时产生的过拟合现象,在网络中引入了Dropout层[25]。U-Net模型构建后,设置模型参数即可用于数据集训练。

    图  1  U-Net网络结构示意图
    Figure  1.  The schematic diagram of U-Net network structure

    在设置好模型参数后,将训练数据集输入模型,对U-Net模型进行训练。首先,通过U-Net模型的左半部分对输入的数据进行卷积和池化操作,得到高维的特征金字塔。然后,通过模型的右半部分对影像进行反卷积和上采样操作,逐步恢复影像的细节信息和位置信息,得到与输入数据尺寸相同的输出影像。训练过程中,采用Adam优化算法来缩小loss值,直至loss值小于某一阈值,训练停止。

    为了完善建筑物边界分割的空间信息和边缘信息,本文提出了级联CRFs结构,以对U-Net网络解码层信息进行逐层处理。传统CRFs通过分析单个像素与其他所有像素之间的关系,引入像元颜色信息作为参考依据,在相邻像元之间建立全连接依赖关系,并基于基本模型预测的结果计算像元归类的概率[23]。该模型是对初步提取结果进行后处理,而级联CRFs是对解码层逐层处理(图 2),即将当前层CRFs处理的结果作为后一层CRFs的输入之一,从而增强上下层特征之间的关系,弥补中间层丰富的语义信息。网络结构的深层包含更丰富、更抽象的高层语义信息,而浅层包含更多的低层信息。传统的目标提取模型的跳跃连接是通过从深层堆叠到浅层的方式来增加更详细的特征,而级联CRFs则采用由浅层向深层叠加的特征:在级联CRFs的解码阶段,浅层译码器包含更多的高级语义信息,特征之间的关系通过CRFs得到增强;对于深层编码器,通过一系列上采样操作逐步恢复浅层特征。此时,利用级联CRFs对特征图进行处理,可以优化目标边界轮廓,同时增加图像空间信息。

    图  2  级联CRFs的抽象结构
    Figure  2.  The abstract structure of the cascaded CRFs

    本文基于建筑物边界处相邻像素的颜色和位置属性信息,建立每一层CRFs的能量函数,根据其中的颜色和距离的相似性及特征关系,判断每一像素与其他所有像素之间的关系,实现每层图像边界的极大细化和分割,并在级联的结构下,逐一完善语义信息和空间信息。假设每层CRFs的输出为ol,每个解码层输出为upl, 则定义每层CRFs的能量函数为:

    E(ol)=Ni=1φu(oli)+ijφp(oli,olj),

    其中:o为每个像素i的标签,代表i类别;φu(oil)为反映地表真实地物gil与预测结果地物oil之间相似性的一元势能函数,定义如下:

    φu(oli)=(glioli)2,gli=upl+ol1;

    φp(oil, ojl)为能量函数的二元势能函数,用于为相似的像素分配相似的标签,定义如下:

    φp(oli,olj)=μ(oli,olj)Km=1ω(m)k(m)G(fliflj)2,

    其中:filfjl分别为特征空间中第l层像素ij的特征向量,代表像素的2种属性;kG(m)为高斯核;kG(m)(fil-fjl)2为高斯核函数;ω(m)为第m层权重值;μ(oil, ojl)为标签兼容性函数,用于计算相同含义下不同类别像素对oilojl之间的兼容性。

    本文中,CRFs使用2个对比明显的高斯核函数来实现建筑物与非建筑物的分割和标记:

    θ1(fli,flj)=ω(1)exp(|pipj|22θ2α|XiXj|22θ2β),
    θ2(fli,flj)=ω(2)exp(|pipj|22θ2γ),
    k(m)G(fliflj)2=θ1(fli,flj)+θ2(fli,flj),

    其中:pipj表示像素ij的位置,XiXj表示像素ij的原始颜色值,ω(1)ω(2)θαθβθγ均为模型的可学习参数,θαθβθγ可以调整2个像素之间的接近度和相似性。第1个核函数θ1(fil, fjl)认为颜色相似的相邻像素很可能属于同一类,第2个核函数θ2(fil, fjl)用于去除孤立的区域。

    本文将级联CRFs加入到U-Net网络的解码阶段,完成整个级联CRFs的构建。理论上,级联CRFs的构造可以从任意编码器开始。但由于第一层解码器的输入来自编码阶段,与后一层解码器相比,可以认为编码阶段包含的语义信息最多,而边缘和空间信息较少,因此,本研究使用CRFs优化后的4层解码器。

    图 3所示,每层CRFs的输入来自于2个部分:当前解码层和上一层CRFs。本文定义了每个解码层的输出是此解码层对应的CRFs的输入之一,可定义为upl(l=1, 2, 3, 4, 5)。所以,CRFs1的输出可以定义为o1=crf(up1, up2)。其他CRFs的输入来自当前解码层和之前的CRFs,因此,这些CRFs的输出可以定义为ol=crf(upl, ol+1)。

    图  3  级联CRFs的U-Net网络结构
    Figure  3.  The U-Net network structure of the cascaded CRFs

    综上所述,可以得到CRFs4的输出,即整个级联CRFs的输出:

    o4=crf(up5,crf(up4,crf(up3,crf(up1,up2))))

    级联CRFs虽然包含一些CRFs,但只有一个能量函数。结合ol和每个CRFs的能量函数定义级联CRFs结构的能量函数为:

    E(ol)=Ni=1ϕ(oli)+ijφ(oli,olj),

    其中,ϕ(·)、φ(·,·)分别为能量函数的一元势能函数、二元势能函数。

    级联CRFs中的CRFs之间存在水平相关性,即当前CRFs的输出将是下一层CRFs的输入之一。不仅如此,CRFs的输入upl也具有水平相关性。由于每个解码层都有卷积和上采样操作,因此,2个相邻解码层的输出可以近似定义为:

    upl=Upsample(f(ωlupl+1+bl)),

    其中,Upsample(·)表示上采样工作,f(·)代表ReLU,{ωlbl}表示权重和偏差。所以,CRFs的输出可以重写为ol=crf(Upsample(f(ωl·upl+1+bl)),ol+1)(l=3, 2, 1)。

    级联CRFs将多层输出与CRFs处理的过程连接起来,图像中包含的高级语义特征和空间边界特征由多个解码层逐步恢复,使得最后一个解码层包含的语义信息最多,可以为级联CRFs的输出补充更详细的语义信息。因此,在级联CRFs建构后,可以看到级联CRFs不仅逐层补充了图像的深、浅层信息,而且更准确地定位了物体的边界轮廓。

    以广东省佛山市(112°23′05″ E~113°23′17″ E,22°38′43″ N~23°34′33″ N)为研究区域(图 4)进行实验,实验所用数据包括高空间分辨率遥感影像数据与建筑物矢量数据,其中,高空间分辨率遥感影像数据为2020年Worldview系列的全色卫星图像,有3个光谱波段(RGB),地面分辨率最高为0.27 m。建筑物矢量数量来自2020年第三次全国土地利用调查数据库(http://www.mnr.gov.cn/),能有效保证建筑物矢量数据的准确性、客观性和时效性。使用ArcGIS软件将建筑物矢量数据转换为深度学习所需的标签图像,图 5为建筑物数据集中的部分影像和对应的建筑物标签。

    图  4  研究区域位置图
    注:此图基于自然资源部标准地图服务网站的标准地图(审图号:GS(2016)2556号)绘制, 底图无修改。
    Figure  4.  The location map of the study area
    图  5  研究区部分影像建筑物及标签数据集
    Figure  5.  Some image buildings and label data in the study area

    为提高样本数量并使其正确输入模型中,需要对原始实验数据进行预处理,以得到训练数据集和验证数据集。样本预处理主要包括数据格式转换、无缝切割、样本筛选、训练数据集及验证数据集的制作等。首先,将建筑物矢量数据转换为用于U-Net模型训练所需的栅格标注数据;然后,将遥感影像数据和建筑物栅格数据同步切片成同样大小,使得遥感影像切片数据与建筑物栅格切片数据一一对应;其次,计算每个建筑物栅格切片数据中建筑物的面积占比,剔除建筑物面积占比较小的切片数据;最后,将样本数据集按一定比例划分为训练数据和验证数据,便于将预处理后的样本数据输入到U-Net模型中。

    使用U-Net+级联CRFs模型与U-Net+CRFs、U-Net、SVM模型,在相同的研究区域进行建筑物提取对比实验。由提取结果(图 6)可知: 基于U-Net+CRFs、U-Net、SVM模型的提取结果中,存在较为明显的误提和漏提现象,容易将道路、停车场和裸露基岩等与建筑物材质相同的其他不透水面提取为建筑,对于建筑物边界的提取不清晰,且U-Net模型和SVM模型的提取结果中存在较多的“椒盐现象”;基于U-Net+级联CRFs模型提取的建筑物结果最接近地面真实情况,能更好地区分建筑物与背景,得到更丰富明显的边界信息,提高了目标边界定位能力,语义信息也得到了一定补充,建筑物提取准确度更高。

    图  6  基于4种模型的建筑物提取可视化对比
    Figure  6.  The visual comparison of building extraction with four models

    由3个区域的建筑物局部提取结果(图 7)可知: (1)对于表面特征单一、建筑物自身存在阴影的建筑物(图 7区域a),4种模型均能正确识别建筑物,但SVM模型受阴影的影响较大,建筑物的形态分割效果较差,而U-Net+级联CRFs模型一定程度上提高了语义分割性能和边界定位能力,较为准确且完整地提取到影像中的建筑物,且提取到的细节信息多于U-Net+CRFs模型提取的。(2)对于周围环境较为简单、自身结构略微复杂的建筑物(图 7区域b),U-Net+CRFs模型和U-Net模型分割边界较为粗略,SVM模型难以正确识别建筑物,存在明显的漏检情况,而U-Net+级联CRFs模型可以较为准确清晰地提取建筑物,处理细节方面更具优势。(3)对于结构较为复杂、周围环境较为复杂的建筑物(图 7区域c),U-Net+CRFs模型存在些许细节的误差,U-Net模型丢失部分边界信息,SVM模型无法很好地区分建筑物和背景,存在明显的误检,而U-Net+级联CRFs模型可以检测到建筑物的精确轮廓,增强了复杂场景下的目标定位能力和语义分割精度。

    图  7  基于4种模型的不同建筑物的提取对比效果
    Figure  7.  The comparison of the effect of extracting different buildings with four models

    对建筑物边界提取效果的细节对比结果(图 8)表明U-Net+级联CRFs模型提取精度高于其他3种模型:(1)利用U-Net+CRFs、U-Net、SVM模型所提取的建筑物边界结果中,存在较为明显的分割边界模糊粗糙的情况:受建筑物周边阴影及部分不透水面材质的影响,建筑物边界的部分语义信息丢失。特别是基于SVM模型的提取结果中存在较多的误提及漏提,不能很好定位到建筑物边缘。(2)与其他3种模型相比,基于U-Net+级联CRFs模型提取的建筑物边界分割结果更为光滑平整,包含了更充分的语义信息和更准确的空间位置信息,细节处理方面更有优势。

    图  8  基于4种模型的建筑物边界分割细节
    Figure  8.  The details of building boundary division extracted with four models

    分别计算了4种模型提取结果的准确度(Precision)、召回率(Recall)、F1值和交并比(IoU),据此进行提取结果的精度对比。

    由结果(图 9)可知:(1)在图 6所示的3个实验区域中,U-Net+级联CRFs模型在准确度、召回率、F1值和交并比4个指标上的均值分别达到了93.1%、87.5%、91.4%和85.1%,均优于其他3种模型;(2)在召回率检验中,因为SVM模型的建筑物提取结果中,漏检像素数量最多,所以其召回率最低;(3)U-Net+级联CRFs模型的漏检像素最少,因此其召回率最高,尤其是在区域2。

    图  9  4种模型的精度评价结果
    Figure  9.  The results of accuracy evaluation of four models

    4种模型的精度评价结果进一步表明:基于浅层机器学习算法(如SVM模型)进行目标地物的提取时,仅利用了影像中像元的光谱信息与像元之间的关系进行影像分类。但是,在有限的计算单元内,面对大规模高空间分辨率遥感影像数据和复杂多样的地物特征,其难以准确地表达真实的目标场景。深度学习方法(如U-Net模型)的提取结果精度高于SVM模型的,U-Net+CRFs模型在高空间分辨率遥感影像的建筑物提取中也体现了良好效能,但U-Net+级联CRFs模型在提高目标边界定位和语义分割能力方面更具优越性。U-Net+级联CRFs模型包含向下的收缩路径和向上的扩张路径,且利用CRFs对解码层进行逐层处理,完善建筑物边界分割的空间信息和边缘信息,在影像中检测到建筑物更为精细的细节,使得分割结果更加清晰完整。因此,采用U-Net+级联CRFs模型,在提取高分辨率影像的建筑物时,提取速度和提取效果均有提升。

    针对遥感影像建筑物提取中存在建筑物边界分割结果粗糙的问题,本文将级联CRFs引入U-Net模型中,提出了一种改进的U-Net模型(U-Net+级联CRFs),以用于遥感影像建筑物自动提取:构建级联CRFs, 并将其引入到U-Net模型的解码层中,将当前层CRFs的输出作为后一层CRFs的输入之一, 实现从不同层次学习对象边界信息的目的, 以逐层弥补语义信息和边界信息,增强模型对建筑物边界的分割能力,优化模型分类结果。以广东省佛山市为研究区的实验结果表明:U-Net+级联CRFs模型能有效提高建筑物边界定位能力,可精确提取建筑物边缘信息,其提取性能指标均优于SVM、U-Net、U-Net+CRFs模型。

    通过修改模型训练样本数据,U-Net+级联CRFs模型可以应用于道路、水体和耕地等其他遥感影像目标提取领域。但是,U-Net+级联CRFs模型仍有继续深入研究和改进之处,特别是深度学习方法对样本量要求较高,样本集的构建耗费大量的人力和物力,在接下来的研究中,应充分融合各类开源数据集来构建样本集。同时,U-Net+级联CRFs模型虽然在一定程度上改善了语义分割结果,但并没有完全解决语义分割结果中对象边界不清晰的问题,因此,在后续的工作中还需要进一步探索。

  • 图  1   硬件系统工作流程

    Figure  1.   The hardware system workflow

    图  2   系统硬件框架与软件流程

    Figure  2.   The system hardware framework and the software workflow

    图  3   Gabor滤波前后的图像对比

    Figure  3.   The image comparison before and after Gabor filtering

    图  4   Gabor滤波和闭运算得到的三维模拟图

    Figure  4.   The 3-dimensional simulation curves obtained with Gabor filtering and closed operation

    图  5   本文方法与其他方法的滤波效果对比

    Figure  5.   The filtering effect with the current method in compa-rison with that with other methods

    图  6   本文方法与其他方法的滤波效果对比

    Figure  6.   The filtering effect with the current method in comparison with that with other methods

    表  1   图像灰度值的方差比较

    Table  1   The comparison of image gray scale variance

    图像处理 单一灰阶图像 彩色图像
    灰度方差 方差下降率/% 灰度方差 方差下降率/%
    滤波前 80.2 - 3 000 -
    本文Gabor滤波 48.2 39.9 1 810 39.7
    灰度化 128.9 -60.7 - -
    高斯低通滤波[8] 79.9 0.4 2 886 0.4
    下载: 导出CSV
  • [1] 周国富, 易子川, 王利, 等.电泳电子纸驱动波形研究现状与前景[J].华南师范大学学报(自然科学版), 2013, 45(6):60-65. http://journal-n.scnu.edu.cn/article/id/3245

    ZHOU G F, YI Z C, WANG L, et al. Present situation and prospect of the driving waveform for electrophoretic display[J]. Journal of South China Normal University(Natural Science Edition), 2013, 45(6):60-65. http://journal-n.scnu.edu.cn/article/id/3245

    [2]

    DANNER G M, FISKE T G, SILVERSTEIN L D. Display performance for mobile device applications[C]//Proceeding of the 21st International Display Research Conference. Utsunomiya: The Society for Information Display, 2001: 1635-1638.

    [3]

    HERTEL D, PENCZEK J. Predicting the viewing direction performance of e-paper displays with front light under ambient lighting conditions[J]. Journal of the Society for Information Display, 2015, 23(11):510-522. doi: 10.1002/jsid.392

    [4]

    COMISKEY B, ALBERT J D, YOSHIZAWA H, et al. An electrophoretic ink for all-printed reflective electronic displays[J]. Nature, 1998, 394:253-255. doi: 10.1038/28349

    [5]

    PITT M G, ZEHNER R W, AMUNDSON K A, et al. Power consumption of microencapsulated electrophoretic display for smart handheld applications[J]. SID Symposium Digert of Technical Paper, 2002, 33(1):1378-1381. doi: 10.1889/1.1830204

    [6]

    ZHOU G F, JOHNSON M T, CORTIE R, et al. Driving schemes for active matrix electrophoretic displays[C]//Proceeding of the 21st International Display Workshops. Utsunomiya: The Society for Information Display, 2003: 239-242.

    [7]

    YUAN Q P, YANG X P, GAO L J, et al. Color image single-channel encryption based on tricolor grating theory[J]. Optoelectronics Letters, 2009, 5(2):147-149. doi: 10.1007/s11801-009-8198-4

    [8] 杨颖, 戴彬.基于高斯频域低通滤波和图像差分的字符图像光照不均校正法[J].华中师范大学学报(自然科学版), 2013, 47(2):181-184. doi: 10.3969/j.issn.1000-1190.2013.02.009

    YANG Y, DAI B. Character images uneven illumination correction method based on Gaussian frequency low pass filtering and image difference[J]. Journal of Huazhong Normal University, 2013, 47(2):181-184. doi: 10.3969/j.issn.1000-1190.2013.02.009

    [9]

    WANG L, YI Z C, JIN M L, et al. Improvement of video playback performance of electrophoretic displays by optimized waveforms with shortened refresh time[J]. Displays, 2017, 49:95-100. doi: 10.1016/j.displa.2017.07.007

    [10] 刘先明, 王利, 易子川, 等.基于直流平衡的电子纸驱动方法的研究[J].华南师范大学学报(自然科学版), 2015, 47(3):10-13. doi: 10.6054/j.jscnun.2015.03.001

    LIU X M, WANG L, YI Z C, et al. Research on electronic paper driving schemes based on DC balance[J]. Journal of South China Normal University(Natural Science Edition), 2015, 47(3):10-13. doi: 10.6054/j.jscnun.2015.03.001

    [11]

    HSU P C, LIN F C, HUANG Y P, et al. In-plane lateral driving phenomena in electrophoretic displays[J]. SID Symposium Digest of Technical Papers, 2012, 43(1):1357-1360. doi: 10.1002/j.2168-0159.2012.tb06056.x

    [12]

    YI Z C, BAI P F, WANG L, et al. An electrophoretic display driving waveform based on improvement of activation pattern[J]. Journal of Central South University, 2014, 21(8):3133-3137. doi: 10.1007/s11771-014-2285-9

    [13]

    KAO W C, CHANG W T, YE J A. Driving waveform design based on response latency analysis of electrophoretic displays[J]. Journal of Display Technology, 2012, 8(10):596-601. doi: 10.1109/JDT.2012.2205896

    [14]

    KAO W C, LIU C H, LIU S C, et al. Towards video display on electronic papers[J]. Journal of Display Techno-logy, 2017, 12(2):129-135. http://cn.bing.com/academic/profile?id=751399dcdb8976684faf0877bb5252af&encoded=0&v=paper_preview&mkt=zh-cn

    [15]

    KAO W C, TSAI J C. Driving method of three-particle electrophoretic displays[J]. IEEE Transactions on Electron Devices, 2018, 99:1-6. http://cn.bing.com/academic/profile?id=f629bc68c896ad7bc8519e66ca695c4a&encoded=0&v=paper_preview&mkt=zh-cn

    [16]

    KAO W C, LIU C H. Display performance for mobile device applications animations on electronic papers[C]//IEEE International Conference on Consumer Electronics. New York: IEEE, 2015: 599-600.

    [17] 尹倩, 白鹏飞, 周国富.电泳电子纸驱动方式的优化[J].电子技术应用, 2016, 42(4):33-35. http://d.old.wanfangdata.com.cn/Periodical/dzjsyy201604008

    YIN QIAN, BAI P F, ZHOU G F. Driving waveform optimization based on electrophoretic displays[J]. Application of Electronic Technique, 2016, 42(4):33-35. http://d.old.wanfangdata.com.cn/Periodical/dzjsyy201604008

    [18]

    SHEN S T, GONG Y X, JIN M L, et al. Improving electrophoretic particle motion control in electrophoretic displays by eliminating the fringing effect via driving waveform design[J]. Micromachine, 2018, 9(4):143-156. doi: 10.3390/mi9040143

图(6)  /  表(1)
计量
  • 文章访问数: 
  • HTML全文浏览量: 
  • PDF下载量: 
  • 被引次数: 0
出版历程
  • 收稿日期:  2019-08-26
  • 网络出版日期:  2021-03-21
  • 刊出日期:  2020-04-24

目录

/

返回文章
返回