• 中国科技核心期刊
  • JST收录期刊
  • Scopus收录期刊
  • DOAJ收录期刊

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于UNDERWATER-CUT模型的水下图像增强算法

姚鹏 刘玉会

姚鹏, 刘玉会. 基于UNDERWATER-CUT模型的水下图像增强算法[J]. 水下无人系统学报, 2022, 30(5): 605-611 doi: 10.11993/j.issn.2096-3920.202111004
引用本文: 姚鹏, 刘玉会. 基于UNDERWATER-CUT模型的水下图像增强算法[J]. 水下无人系统学报, 2022, 30(5): 605-611 doi: 10.11993/j.issn.2096-3920.202111004
YAO Peng, LIU Yu-hui. Underwater Image Enhancement Based on UNDERWATER-CUT Model[J]. Journal of Unmanned Undersea Systems, 2022, 30(5): 605-611. doi: 10.11993/j.issn.2096-3920.202111004
Citation: YAO Peng, LIU Yu-hui. Underwater Image Enhancement Based on UNDERWATER-CUT Model[J]. Journal of Unmanned Undersea Systems, 2022, 30(5): 605-611. doi: 10.11993/j.issn.2096-3920.202111004

基于UNDERWATER-CUT模型的水下图像增强算法

doi: 10.11993/j.issn.2096-3920.202111004
基金项目: 国家自然科学基金项目资助(51909252).
详细信息
    作者简介:

    姚鹏:姚 鹏(1989-), 男, 博士, 副教授, 主要研究方向为无人系统智能规划与自主控制

  • 中图分类号: U675.81; TJ630

Underwater Image Enhancement Based on UNDERWATER-CUT Model

  • 摘要: 针对水下图像的颜色失真和对比度失衡问题, 提出了一种基于UNDERWATER-CUT模型的弱监督水下图像增强算法。该算法网络训练时无需成对训练集, 通过图像分块的方式构建对比学习正负样本, 约束了图像生成的内容。使用了结构相似性损失函数对水下图像增强进行约束, 确保CUT模型在对水下图像域到脱水图像域进行转换过程中的物体结构不变。同时还使用alignment和uniformity 2个简单函数的线性组合来近似逼近CUT模型的InfoNCE损失函数, 使得改进后的模型训练更容易收敛到最优值。实验结果证明经过文中算法增强后的图像, 颜色失真得到极大的修正, 图像中的物体结构和修复前的图像基本一致。

     

  • 视觉传感器可以提供丰富的环境色彩信息, 利用视觉信息对障碍物进行检测和定位, 进而对周围环境进行三维重建, 对水下机器人的导航及探索活动具有重要应用价值。然而, 水下环境的图像存在对比度低、清晰度不足等问题, 对后续任务造成了阻碍。不同于空气中的不清晰图像(如雾化图像), 水中图像主要是由水中折射导致的成像不清晰。光线波长影响光线在水中的衰减, 波长越短, 传输性能越好, 因此波长短的光线占成像光线的大部分, 导致了水下图像大多呈蓝绿色[1], 难以直接对水下图像进行目标识别等后续任务。同时水下存在大量漂浮颗粒物, 导致环境光和背景光被吸收, 进一步加剧了水下图像对比度低和噪声严重等问题, 因此必须对水下图像进行增强。

    水下图像增强通常采用基于物理模型和非物理模型2种方式。基于物理模型的图像增强方法对水下图像的退化过程建立数学模型, 并估算出模型的基本参数, 然后通过该模型反演图像的退化过程, 获得理想状态下的未退化图像[1-3]。然而, 由于水下环境多样, 难以用具体模型建模, 所以该类方法泛化性不强, 无法修复多种水域图像。

    近年来, 随着深度学习的发展, 基于深度学习的图像增强算法得到了极大的进步。Li等[4]提出了WaterGAN两阶段模型, 第1阶段构建生成式模型, 根据成对的陆上图像和深度信息, 生成对应的水下图像, 第2阶段构建另一个生成模型, 将生成的水下图像和原本的陆上图像作为成对的训练集, 训练结束后, 第2阶段的生成模型对水下图像进行脱水增强。Li等[5]提出了一种基于循环神经网络的算法, 该方法在循环生成对抗网络(cycle generative adversarial network, CycleGAN)[6]的基础上添加结构相似性(structural similarity, SSIM)损失约束[7], 训练时无需水下数据集和脱水数据集成对训练, 而且泛化性强, 对于不同水域的水下图像, 均有不错的增强效果。该方法通过维护水下图像域X到脱水图像域Y和脱水图像域Y到水下图像域X这2个方向的映射, 避免了多个X域图像映射到同一Y域图像的情形, 但同时也引入了不必要的映射。为了修正颜色失真的水下图像, 仅需要维护从水下图像到脱水图像的单射, 而不是2个域图像的双射。李庆忠等[8]在CycleGAN模型的基础上添加了图像强边缘结构相似度约束, 同时分两阶段训练网络, 第1阶段进行改进的CycleGAN模型的训练, 第2阶段, 进行少量样本的强监督训练, 得到了优于文献的结果, 但由于引入了强监督的样本, 不利于实际场景的应用。

    针对文献[5]存在不必要的双射约束以及文献[8]中存在的需要成对样本参与训练的缺陷, 文中基于CUT模型[9]提出了一种水下图像颜色修正的算法(UNDERWATER-CUT模型)。CUT模型是CycleGAN模型的一个增强模型, 仅维护水下图像域到脱水图像域的单射, 同时只需要非成对样本参与训练, 在图像域转换等方面取得很好的效果, 但是CUT模型未针对水下图像特点进行专门优化, 对于水下图像增强效果不佳。文中提出的UNDERWATER-CUT算法为了保证颜色增强后图像中物体的结构相似性, 添加了SSIM损失进行约束。此外, 原始CUT模型使用了InfoNCE损失函数进行对比学习的约束[10], 但是InfoNCE函数形式复杂, 不利于神经网络收敛, 因此文中使用alignment和uniformity 2个简单函数的线性组合作为损失函数来进行模型的约束[9], 得到了优于CUT模型的结果。

    图1为UNDERWATER-CUT网络结构, 模型主体是对抗式生成网络[11], 由生成器和判别器两部分组成, 该网络主要作用为通过非成对的水下数据集和脱水数据集(或陆上数据集)的无监督训练, 实现水下图像域到脱水图像域的转换。不同于CycleGAN, 文中的方法只需单向网络即可保证高效转换。设水下图像域为X, 脱水图像域为Y, 为了完成X域到Y域的转换, 需要同时训练生成器G和判别器D。生成器需要是一个映射$ G: X\to Y $, 一方面生成器构造映射$ \tilde {y}=G\left(x\right) $, 另一方面判别器衡量生成的质量$ D(y,\tilde {y}) $, 指引生成器梯度向更优的方向移动, 当判别器不能分辨生成器产生的图像时, 此时达到最优。同时, 为了防止模型将多个不同X域图像映射为相同的Y域图片, 使用对比学习的方式约束图像的生成, 强迫模型学习到的映射$ G:X\to Y $X域到Y域的单射。

    图  1  UNDERWATER-CUT模型网络结构
    Figure  1.  Network structure of UNDERWTAER-CUT model

    生成器的具体结构如图2所示, 总共分为3部分子网络: 第1部分由3层卷积层网络组成, 主要作用为从$ 255\times 255\times 3 $的图像中抽取出高维特征; 第2部分由6层ResNet[12]组成, 主要用来对前一阶段提取出来的高维特征进行特征融合, 学习到各层网络之间的隐层关系; 最后一部分也由3层卷积神经网络组成, 其主要作用为将上游网络层中的高维特征还原至3个颜色通道的彩色图像。

    图  2  生成器模型网络结构
    Figure  2.  Network structure of generator model

    为了同时捕捉到图像中的颜色高频分量和低频分量, 从而完整且客观地权衡图像的真实度, 使用文献[13]中的PatchGAN判别器结构, 将图像分为$ 70\times 70 $的块(patch), 对于每一块分别预测真假, 最终将所有块的预测值取均值得到最终对整幅图像的预测值。这种判别器具体结构如图3所示, 一共有5层卷积神经网络组成, 和用于图像二分类任务的常规模型不同, 文中使用的PatchGAN最后一层不使用全连接神经网络, 而是使用卷积层进行预测值的转换, 前4层的主要作用是进行特征提取和融合, 最后一层卷积神经网络将隐层特征转化为$ N\times N\times 1 $的预测值, 文中选取N=70。

    图  3  判别器模型网络结构
    Figure  3.  Network structure of discriminator model

    损失函数对于网络模型至关重要, 合适的损失函数意味着合适的约束, 才能指引网络学习到最优的情况, UNDERWATER-CUT的损失函数主要由对抗生成损失、对比学习损失和SSIM损失三部分组成。

    1) 对抗生成损失

    结合非成对数据集的水下图像数据分布与脱水图像数据分布, 对抗生成损失的主要作用是使得生成器和判别器达成纳什均衡, 最优时生成器可以生成高质量的脱水水下图像, 即

    $$ {L_{{\text{GAN}}}}(D,G) = {E_{y\sim Y}} \log (D(y)) + {E_{x\sim X}}\log (1 - D(G(x)) $$ (1)

    2) 对比学习损失

    对比学习损失的目的是最大化保留输入的特征信息, 将图像分为多个块, 同时将生成器的前半部分${{\boldsymbol{G}}_{{\text{enc}}}}$作为编码器, 便于压缩图像为一个向量表示, 为了得到不同特征维度的信息, 选取了L层来共同进行信息提取, 为了最大化保留向量信息, 会在每个$ l\in L $层后面添加2层的多层感知器(multilayer perceptron, MLP)网络$ {H}_{l} $, 最终将L个编码向量共同组合成${\left\{{{z}}_{{l}}\right\}}_{{L}}{=}{\left\{{{H}}_{{l}}\left({\boldsymbol{G}}_{\text{enc}}^{{l}}\left({x}\right)\right)\right\}}_{{L}}$, $ {\boldsymbol{G}}_{\mathrm{e}\mathrm{n}\mathrm{c}}^{l} $为第l层的输出向量, 同样的, 对于生成器的输出也存在$\hat{y} = {\left\{{\hat{z}}_{l}\right\}}_{L} = {\left\{{H}_{l}\left({\boldsymbol{G}}_{\mathrm{e}\mathrm{n}\mathrm{c}}^{l}\left(G\left(x\right)\right)\right)\right\}}_{L}$, 原始CUT使用InfoNCE函数作为基本损失函数, 即

    $$ {L_{{\text{NCE}}}}(z,{z^ + },z_n^ - ) = \log \bigg[\frac{{\exp (z \cdot {z^ + }/\tau )}}{{\exp (z \cdot {z^ + }/\tau ) + \exp (z \cdot z_n^ - /\tau )}}\bigg] $$ (2)

    使用图像块作为基本样本, 原图像对应位置作为正样本, 其他位置作为负样本, 同时对于多层进行计算。损失函数为

    $$ {L_{{\text{patch NCE}}}}(G,H,X) = {E_{x\sim X}}\sum\limits_{l = 1}^L {\sum\limits_{s = 1}^{{S_l}} {{L_{{\text{NCE}}}}(\hat z_l^s,z_l^s,z_l^{S/s})} } $$ (3)

    式(3)中对于每一层, 将图像向量分成$ {S}_{l} $份, 每一份图像块$ s\in {S}_{l} $, $ \hat Z_l^s \in {R^{{C_l}}} $为第l层位置序号为s的生成图像块, $ Z_l^s \in {R^{{C_l}}} $为第l层位置序号为s的原图像块, $z_l^{S/s} \in {R^{({S_l} - 1) \times {C_l}}}$为第l层位置不为s的其他生成图像块。式(2)由于函数形式复杂使得函数优化比较困难, 难以收敛至最优值。使用文献[14]提出的性质, InfoNCE函数存在2个性质, 即相似样本的相互拉近和其他样本的均匀分布, 故使用alignment和uniformity 2个简单函数的线性组合来达到对比约束的效果, 该损失函数为

    $$ \begin{aligned} {L_{{\text{CON}}}} = & {\lambda _a}E||f(x) - f(y)|{|_2} + \\ & {\lambda _u}\log E[\exp ( - t||f(x) - f(y)|{|_2})] \\ \end{aligned} $$ (4)

    将式(4)替换式(3)中的InfoNCE函数, 得出一个优化的PatchNCE函数, 称为Opt-PatchNCE, 即

    $$ {L_{{\text{patch NCE}}}}(G,H,X) = {E_{x\sim X}}\sum\limits_{l = 1}^L {\sum\limits_{s = 1}^{{S_l}} {{L_{{\text{CON}}}}(\hat z_l^s,z_l^s,z_l^{S/s})} } $$ (5)

    3) SSIM损失

    为了更多的保留水下图像的结构, 使用结构一致函数, 用于约束原水下图像中的物体结构和增强图像中物体结构一致, 其定义为

    $$ S S I M(p) = \frac{{2{\mu _x}{\mu _y} + {C_1}}}{{\mu _x^2 + \mu _y^2 + {C_2}}}\cdot\frac{{2{\sigma _{xy}} + {C_2}}}{{\sigma _x^2 + \sigma _y^2 + {C_2}}} $$ (6)

    式中: p为图像块的中心像素; xX域中大小为13×13的图像块; yG(x)域中大小为13×13的图像块; $ {u}_{x},{u}_{y} $分别为$ x,y $的均值; $ {\sigma }_{x},{\sigma }_{y} $分别为x,y的方差; $ {\sigma }_{xy} $x, y的协变量。SSIM损失函数主要用于衡量xG(x)的结构误差, 具体为

    $$ {L_{{\text{SSIM}}}}(x,G(x)) = 1 - \dfrac{1}{N}\sum\limits_{p = 1}^N {S S I M({x_p},G{{(x)}_p})} $$ (7)

    4) UNDERWATER-CUT总损失

    UNDERWATER-CUT的总损失函数为对抗生成损失、对比学习损失和SSIM损失三部分的线性组合, 具体为

    $$ \begin{split} {L_{{\text{total}}}}(D,G,X,Y) = & {L_{{\text{GAN}}}}(D,G,X,Y) + \\ & {\lambda _1}{L_{{\text{Opt - PatchNCE}}}}(X,Y,G(X)) + \\ &{\lambda _2}{L_{{\text{SSIM}}}}(X,G(X)) \end{split} $$ (8)

    式中: $ {\lambda }_{1} $$ {\lambda }_{2} $分别为约束对比学习损失和SSIM损失的超参数, 选择$ {\lambda }_{1} $=10, $ {\lambda }_{2} $=2.5。训练时为了得到最优的生成器, 按照下式进行总损失函数的优化

    $$ {G^*} = \mathop {\min }\limits_G \mathop {\max }\limits_D {L_{{\text{total}}}}(D,G,X,Y) $$ (9)

    每一次训练迭代都分为2个部分, 第1部分, 对水下图像域X和脱水图像域Y分别随机采样m个样本, 固定生成器参数不变, 对判别器的参数进行梯度下降的计算; 第2部分, 只对水下图像域X进行随机采样, 由于第1部分已经对判别器参数进行了优化, 所以这一部分只优化生成器的模型参数。每次训练判别器和生成器都能根据前一次迭代参数, 得以进一步优化, 这两部分不断互相指引对方的梯度向更优的方向优化, 最终在有限次迭代次数中, 二者达到最优, 此时生成器增强的图像最为清晰自然。

    具体训练配置如下: 每次迭代选取8个样本作为1批(batch), 总的迭代次数(epoch)为200, 网络输入为$ 255\times 255\times 3 $, 梯度下降算法为Adam(adaptive moment estimation)算法, 其中$ \gamma $=0.0002, $\; {\beta }_{1} $=0.5, $ \;{\beta }_{2} $=0.999。训练集选取水下图像增强基准(underwater image enhancement benchmark, UIEB)数据集[15], 训练时选取800幅水下图像和脱水图像进行非成对训练。文中算法具体实现使用PyTorch[16]框架, 使用NVIDIA GeForce RTX 2080Ti型号GPU进行训练, 操作系统为Ubuntu 18.04。

    为了验证方法的有效性, 将从图像生成效果和客观指标评价两部分来共同评价。图像生成效果上将文中算法和原始CUT、CycleGAN和SSIM-CycleGAN进行视觉效果上的比较, 同时为了证明各个组成部分的有效性, 进行了消融实验, 比较了SSIM-CUT和UNDERWATER-CUT的效果。在客观指标评价上, 由于单一指标评测有局限性, 例如峰值信噪比(peak signal to noise ratio, PSNR)在某些情况下会出现图像质量很高, 但是PSNR分数不高的情况[17], 故采用了FID[18], 水下图像质量评价指标(undewater color image quality evaluation, UCIQE) [19]和PSNR 3种指标来综合评价, 使用UIEB数据集[15]作为训练数据和测试数据, 其中800幅图片为训练集, 90幅图片为测试集, 训练集和测试集中的图片分辨率均为256×256。

    为了客观衡量图像增量后的效果, 使用FID, UCIQE和PSNR 3种评价指标进行定量比较。FID主要被用来衡量生成模型生成的图像增强结果, FID的值代表了增强后的图像集和陆上图像集的距离, 值越小代表距离越近, 同时也代表了脱水后的效果越好。FID将生成器生成的增强图像和原输入图像看作2个多维高斯分布, 分别用$ N\left(\mu,\sigma \right) $$ N({\mu }_{w},{\sigma }_{w}) $表示, 然后计算2个高斯分布的Wasserstein距离, 具体为

    $$ F I D = |\mu - {\mu _w}{|^2} + tr[\sigma + {\sigma _w} - 2{(\sigma {\sigma _w})^{1/2}}] $$ (10)

    式中, tr代表矩阵的迹。

    UCIQE指标是色彩浓度、饱和度和对比度的线性组合, 用来定量评价水下图像非均匀的色偏、模糊和低对比度的情况, UCIQE的值和图像质量成正比关系, 值越高图像质量越高, 具体为

    $$ U C I Q E = {c_1}{\sigma _1} + {c_2}co{n_l} + {c_3}{\mu _s} $$ (11)

    PSNR反映了两幅图像之间的相似性, 值越大表示增强后的图像与陆上图像越接近, 即真实性越好, 其定义为

    $$ P S N R = 10 \cdot \lg \frac{{MAX_I^2}}{{MSE}} $$ (12)

    式中, MSE为均方误差函数, 其具体定义为

    $$ M S E = \frac{1}{{3mn}}\sum\limits_{R,G,B} {} \sum\limits_{i = 0}^{m - 1} {} \sum\limits_{j = 0}^{n - 1} {{{[I(i,j) - K(i,j)]}^2}} $$ (13)

    式中: I为原始水下图像; K为增强后的水下图像; mn分别为图像的长度和宽度; MAXI为图像点颜色的最大值, 文中图像每个采样点用8位表示, 所以MAXI=255。

    各方法增强结果见表1。根据表1中结果可知, UNDERWATER-CUT的FID指标在5种图像增强算法中最低, 说明增强后的图像概率分布和原本水下图像的概率分布最为接近, 也就是生成的图像保存信息最为完整; 同时, 文中方法的UCIQE分数也是最高的, 说明在图像的色度、饱和度和清晰度相比其他算法有着更好的表现; 此外, 文中方法的PSNR分数接近SSIM-CUT模型的分数, 并都超过了其他算法, 综上, 文中算法在PSNR分数接近的情形下, FID和UCIQE均领先于其余算法, 故可以认为经过UNDERWATER-CUT增强的图像质量优于其余算法。

    表  1  各方法增强后图像指标对比
    Table  1.  Comparison of the image indicators enhanced by each method
    模型FIDUCIQEPSNR
    CycleGAN129.630.551 914.99
    SSIM-CycleGAN107.770.557 814.85
    CUT182.380.551 613.48
    SSIM-CUT113.660.625 218.62
    UNDERWATER-CUT104.530.634 218.18
    下载: 导出CSV 
    | 显示表格

    为了直观比较各算法的增强效果, 将原始图像和各个算法增强后的图像进行对比, 结果如图4所示。原始CycleGAN算法可以一定程度上增强水下图像, 但原始CycleGAN算法未针对水下环境进行特殊处理, 导致水下图像中蓝绿色失衡的问题仍然没有被解决; 添加SSIM的CycleGAN可以明显提升图像质量, 但是由于使用了SSIM损失函数, 只约束了图像中的物体结构, 并未对图像的色度和对比度进行处理, 图像颜色依然不够真实自然; 经过原始CUT算法处理后, 图像中的物体边缘发生了变化, 和原始图像相差较大, 同时蓝绿色失衡的问题依然存在; 对CUT添加SSIM约束之后, 可以看到增强后的图像和原始图像的物体结构一致, 图像较为清晰自然, 但是色度和对比度偶有失衡, 在结果中可以看到部分增强后的图像背景被错误增强成了红色; 最后, UNDERWATER-CUT效果最为清晰自然, 颜色失真得到极大修正, 因为使用了SSIM损失函数又保证了图像中的物体结构不改变, 同时使用了相对比较容易优化的损失函数, 模型更容易收敛到最优。

    图  4  不同方法在相同数据集下的增强效果
    Figure  4.  Enhanced results of different methods in the same dataset

    文中提出了一种基于UNDERWATER-CUT模型的弱监督水下图像增强算法, 不需要水下图像和脱水图像的成对训练, 非常适合实际的水下任务。针对水下图像特征, 使用SSIM约束确保修复后的图像不丢失物体结构信息, 保证修复后的图像和修复前的结构信息的一致性, 同时优化了对比学习损失, 使得网络进行梯度下降学习时更容易收敛到最优。实验结果证明, 经过UNDERWATER-CUT修复后的图像在校正水下图像颜色效果失真的基础上, 最大限度保存了水下物体的结构特征, 增强后的图像自然且清晰, 有助于其他水下视觉任务如目标识别精度的提升。

  • 图  1  UNDERWATER-CUT模型网络结构

    Figure  1.  Network structure of UNDERWTAER-CUT model

    图  2  生成器模型网络结构

    Figure  2.  Network structure of generator model

    图  3  判别器模型网络结构

    Figure  3.  Network structure of discriminator model

    图  4  不同方法在相同数据集下的增强效果

    Figure  4.  Enhanced results of different methods in the same dataset

    表  1  各方法增强后图像指标对比

    Table  1.   Comparison of the image indicators enhanced by each method

    模型FIDUCIQEPSNR
    CycleGAN129.630.551 914.99
    SSIM-CycleGAN107.770.557 814.85
    CUT182.380.551 613.48
    SSIM-CUT113.660.625 218.62
    UNDERWATER-CUT104.530.634 218.18
    下载: 导出CSV
  • [1] 杨爱萍, 曲畅, 王建, 等. 基于水下成像模型的图像清晰化算法[J]. 电子与信息学报, 2018, 40(2): 298-305.

    Yang Ai-ping, Qu Chang, Wang Jian, et al. Underwater Image Visibility Restoration Based on Underwater Imaging Model[J]. Journal of Electronics & Information Technology, 2018, 40(2): 298-305.
    [2] He K, Sun J, Tang X. Single Image Haze Removal Using Dark Channel Prior[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 33(12): 2341-2353.
    [3] Wen H, Tian Y, Huang T, et al. Single Underwater Image Enhancement with a New Optical Model[C]//2013 IEEE International Symposium on Circuits and Systems(ISCAS). Beijing, China: IEEE, 2013: 753-756.
    [4] Li J, Skinner K A, Eustice R M, et al. WaterGAN: Unsupervised Generative Network to Enable Real-time Color Correction of Monocular Underwater Images[J]. IEEE Robotics and Automation Letters, 2017, 3(1): 387-394.
    [5] Li C, Guo J, Guo C. Emerging from Water: Underwater Image Color Correction Based on Weakly Supervised Color Transfer[J]. IEEE Signal Processing Letters, Institute of Electrical and Electronics Engineers Inc., 2018, 25(3): 323-327.
    [6] Zhu J Y, Park T, Isola P, et al. Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks[C]//2017 IEEE International Conference on Computer Vision (ICCV). Venice, Italy: IEEE, 2017.
    [7] Wang Z, Bovik A C, Sheikh H R, et al. Image Quality Assessment: from Error Visibility to Structural Similarity[J]. IEEE Transactions on Image Processing, 2004, 13(4): 600-612. doi: 10.1109/TIP.2003.819861
    [8] 李庆忠, 白文秀, 牛炯. 基于改进CycleGAN的水下图像颜色校正与增强[J/OL]. 自动化学报, 2020, 46(x): 1-11.[2021-10-10]. http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c200510.

    Li Qing-Zhong, Bai Wen-Xiu, Niu Jiong. Underwater Image Color Correction and Enhancement Based on Improved Cycle-consistent Generative Adversarial Networks[J/OL]. Acta Automatica Sinica, 2020, 46(x): 1−11. [2021-10-10]. http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c200510.
    [9] Park T, Efros A A, Zhang R, et al. Contrastive Learning for Unpaired Image-to-Image Translation[EB/OL]. (2020-08-20)[2021-11-10]. https://arxiv.org/abs/2007.15651.
    [10] Van den Oord A, Li Y, Vinyals O. Representation Learning with Contrastive Predictive Coding[EB/OL]. (2019-01-22)[2021-11-10]. http://export.arxiv.org/abs/1807.03748.
    [11] Goodfellow I J, Pouget-Abadie J, Mirza M, et al. Generative Adversarial Networks[EB/OL]. (2017-04-03)[2021-11-10]. https://doi.org/10.48550/arXiv.1701.00160.
    [12] He K, Zhang X, Ren S, et al. Deep Residual Learning for Image Recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Las Vegas, NV, USA: IEEE, 2016: 770-778.
    [13] Isola P, Zhu J-Y, Zhou T, et al. Image-to-Image Translation with Conditional Adversarial Networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, HI, USA: IEEE, 2018.
    [14] Wang T, Isola P. Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere[EB/OL]. (2020-11-10)[2021-12-17]. https://doi.org/10.48550/arXiv.2005.10242.
    [15] Li C, Guo C, Ren W, et al. An Underwater Image Enhancement Benchmark Dataset and Beyond[J]. IEEE Transactions on Image Processing, 2020, 29: 4376-4389. doi: 10.1109/TIP.2019.2955241
    [16] Paszke A, Gross S, Massa F, et al. PyTorch: An Imperative Style, High-Performance Deep Learning Library[EB/OL]. (2019-12-03)[2021-11-07]. https://doi.org/10.48550/arXiv.1912.01703.
    [17] Huynh-Thu Q, Ghanbari M. Scope of Validity of PSNR in Image/Video Quality Assessment[J]. Electronics Letters, IET, 2008, 44(13): 800-801. doi: 10.1049/el:20080522
    [18] Heusel M, Ramsauer H, Unterthiner T, et al. GANs Trained by a Two Time-Scale Update Rule Converge to a Local Nash Equilibrium[EB/OL]. (2018-01-12)[2021-11-07]. https://doi.org/10.48550/arXiv.1706.08500.
    [19] Yang M, Sowmya A. An Underwater Color Image Quality Evaluation Metric[J]. IEEE Transactions on Image Processing, 2015, 24(12): 6062-6071. doi: 10.1109/TIP.2015.2491020
  • 期刊类型引用(2)

    1. 张鸿彬. 基于畸变图像校正的装配式建筑拼装接缝检测. 建筑机械. 2024(06): 124-129 . 百度学术
    2. 宁泽萌,林森,李兴然. 散射光补偿结合色彩保持与对比度均衡的水下图像增强. 水下无人系统学报. 2024(05): 823-832 . 本站查看

    其他类型引用(1)

  • 加载中
图(4) / 表(1)
计量
  • 文章访问数:  486
  • HTML全文浏览量:  211
  • PDF下载量:  71
  • 被引次数: 3
出版历程
  • 收稿日期:  2021-11-16
  • 修回日期:  2022-01-21
  • 录用日期:  2022-08-12
  • 网络出版日期:  2022-09-05

目录

/

返回文章
返回
服务号
订阅号