Underwater Image Enhancement Based on UNDERWATER-CUT Model
-
摘要: 针对水下图像的颜色失真和对比度失衡问题, 提出了一种基于UNDERWATER-CUT模型的弱监督水下图像增强算法。该算法网络训练时无需成对训练集, 通过图像分块的方式构建对比学习正负样本, 约束了图像生成的内容。使用了结构相似性损失函数对水下图像增强进行约束, 确保CUT模型在对水下图像域到脱水图像域进行转换过程中的物体结构不变。同时还使用alignment和uniformity 2个简单函数的线性组合来近似逼近CUT模型的InfoNCE损失函数, 使得改进后的模型训练更容易收敛到最优值。实验结果证明经过文中算法增强后的图像, 颜色失真得到极大的修正, 图像中的物体结构和修复前的图像基本一致。
-
关键词:
- 水下图像增强 /
- 结构相似性 /
- InfoNCE损失函数
Abstract: A weakly supervised underwater image enhancement algorithm based on the UNDERWATER-CUT model was proposed to address color distortion and contrast imbalance in underwater images. The algorithm network was trained without paired training sets, and the contrast learning positive and negative samples were constructed by image chunking, which constrains the image generation content. The structural similarity(SSIM) loss function was used to constrain the image enhancement to ensure that the structure of the objects remains unchanged during the transformation of the CUT model from the underwater image domain to the dewatered image domain. A linear combination of two simple functions was used to approximate the InfoNCE loss of the CUT model, converging the improved model training to the optimal value easily. The experimental results demonstrate that color distortion is significantly corrected in the enhanced image using this algorithm, and the object structure in the restored image is the same as that in the original image. -
0. 引言
视觉传感器可以提供丰富的环境色彩信息, 利用视觉信息对障碍物进行检测和定位, 进而对周围环境进行三维重建, 对水下机器人的导航及探索活动具有重要应用价值。然而, 水下环境的图像存在对比度低、清晰度不足等问题, 对后续任务造成了阻碍。不同于空气中的不清晰图像(如雾化图像), 水中图像主要是由水中折射导致的成像不清晰。光线波长影响光线在水中的衰减, 波长越短, 传输性能越好, 因此波长短的光线占成像光线的大部分, 导致了水下图像大多呈蓝绿色[1], 难以直接对水下图像进行目标识别等后续任务。同时水下存在大量漂浮颗粒物, 导致环境光和背景光被吸收, 进一步加剧了水下图像对比度低和噪声严重等问题, 因此必须对水下图像进行增强。
水下图像增强通常采用基于物理模型和非物理模型2种方式。基于物理模型的图像增强方法对水下图像的退化过程建立数学模型, 并估算出模型的基本参数, 然后通过该模型反演图像的退化过程, 获得理想状态下的未退化图像[1-3]。然而, 由于水下环境多样, 难以用具体模型建模, 所以该类方法泛化性不强, 无法修复多种水域图像。
近年来, 随着深度学习的发展, 基于深度学习的图像增强算法得到了极大的进步。Li等[4]提出了WaterGAN两阶段模型, 第1阶段构建生成式模型, 根据成对的陆上图像和深度信息, 生成对应的水下图像, 第2阶段构建另一个生成模型, 将生成的水下图像和原本的陆上图像作为成对的训练集, 训练结束后, 第2阶段的生成模型对水下图像进行脱水增强。Li等[5]提出了一种基于循环神经网络的算法, 该方法在循环生成对抗网络(cycle generative adversarial network, CycleGAN)[6]的基础上添加结构相似性(structural similarity, SSIM)损失约束[7], 训练时无需水下数据集和脱水数据集成对训练, 而且泛化性强, 对于不同水域的水下图像, 均有不错的增强效果。该方法通过维护水下图像域X到脱水图像域Y和脱水图像域Y到水下图像域X这2个方向的映射, 避免了多个X域图像映射到同一Y域图像的情形, 但同时也引入了不必要的映射。为了修正颜色失真的水下图像, 仅需要维护从水下图像到脱水图像的单射, 而不是2个域图像的双射。李庆忠等[8]在CycleGAN模型的基础上添加了图像强边缘结构相似度约束, 同时分两阶段训练网络, 第1阶段进行改进的CycleGAN模型的训练, 第2阶段, 进行少量样本的强监督训练, 得到了优于文献的结果, 但由于引入了强监督的样本, 不利于实际场景的应用。
针对文献[5]存在不必要的双射约束以及文献[8]中存在的需要成对样本参与训练的缺陷, 文中基于CUT模型[9]提出了一种水下图像颜色修正的算法(UNDERWATER-CUT模型)。CUT模型是CycleGAN模型的一个增强模型, 仅维护水下图像域到脱水图像域的单射, 同时只需要非成对样本参与训练, 在图像域转换等方面取得很好的效果, 但是CUT模型未针对水下图像特点进行专门优化, 对于水下图像增强效果不佳。文中提出的UNDERWATER-CUT算法为了保证颜色增强后图像中物体的结构相似性, 添加了SSIM损失进行约束。此外, 原始CUT模型使用了InfoNCE损失函数进行对比学习的约束[10], 但是InfoNCE函数形式复杂, 不利于神经网络收敛, 因此文中使用alignment和uniformity 2个简单函数的线性组合作为损失函数来进行模型的约束[9], 得到了优于CUT模型的结果。
1. UNDERWATER-CUT模型结构
图1为UNDERWATER-CUT网络结构, 模型主体是对抗式生成网络[11], 由生成器和判别器两部分组成, 该网络主要作用为通过非成对的水下数据集和脱水数据集(或陆上数据集)的无监督训练, 实现水下图像域到脱水图像域的转换。不同于CycleGAN, 文中的方法只需单向网络即可保证高效转换。设水下图像域为X, 脱水图像域为Y, 为了完成X域到Y域的转换, 需要同时训练生成器G和判别器D。生成器需要是一个映射
$ G: X\to Y $ , 一方面生成器构造映射$ \tilde {y}=G\left(x\right) $ , 另一方面判别器衡量生成的质量$ D(y,\tilde {y}) $ , 指引生成器梯度向更优的方向移动, 当判别器不能分辨生成器产生的图像时, 此时达到最优。同时, 为了防止模型将多个不同X域图像映射为相同的Y域图片, 使用对比学习的方式约束图像的生成, 强迫模型学习到的映射$ G:X\to Y $ 为X域到Y域的单射。生成器的具体结构如图2所示, 总共分为3部分子网络: 第1部分由3层卷积层网络组成, 主要作用为从
$ 255\times 255\times 3 $ 的图像中抽取出高维特征; 第2部分由6层ResNet[12]组成, 主要用来对前一阶段提取出来的高维特征进行特征融合, 学习到各层网络之间的隐层关系; 最后一部分也由3层卷积神经网络组成, 其主要作用为将上游网络层中的高维特征还原至3个颜色通道的彩色图像。为了同时捕捉到图像中的颜色高频分量和低频分量, 从而完整且客观地权衡图像的真实度, 使用文献[13]中的PatchGAN判别器结构, 将图像分为
$ 70\times 70 $ 的块(patch), 对于每一块分别预测真假, 最终将所有块的预测值取均值得到最终对整幅图像的预测值。这种判别器具体结构如图3所示, 一共有5层卷积神经网络组成, 和用于图像二分类任务的常规模型不同, 文中使用的PatchGAN最后一层不使用全连接神经网络, 而是使用卷积层进行预测值的转换, 前4层的主要作用是进行特征提取和融合, 最后一层卷积神经网络将隐层特征转化为$ N\times N\times 1 $ 的预测值, 文中选取N=70。2. UNDERWATER-CUT网络损失函数和训练策略
2.1 UNDERWATER-CUT网络损失函数
损失函数对于网络模型至关重要, 合适的损失函数意味着合适的约束, 才能指引网络学习到最优的情况, UNDERWATER-CUT的损失函数主要由对抗生成损失、对比学习损失和SSIM损失三部分组成。
1) 对抗生成损失
结合非成对数据集的水下图像数据分布与脱水图像数据分布, 对抗生成损失的主要作用是使得生成器和判别器达成纳什均衡, 最优时生成器可以生成高质量的脱水水下图像, 即
$$ {L_{{\text{GAN}}}}(D,G) = {E_{y\sim Y}} \log (D(y)) + {E_{x\sim X}}\log (1 - D(G(x)) $$ (1) 2) 对比学习损失
对比学习损失的目的是最大化保留输入的特征信息, 将图像分为多个块, 同时将生成器的前半部分
${{\boldsymbol{G}}_{{\text{enc}}}}$ 作为编码器, 便于压缩图像为一个向量表示, 为了得到不同特征维度的信息, 选取了L层来共同进行信息提取, 为了最大化保留向量信息, 会在每个$ l\in L $ 层后面添加2层的多层感知器(multilayer perceptron, MLP)网络$ {H}_{l} $ , 最终将L个编码向量共同组合成${\left\{{{z}}_{{l}}\right\}}_{{L}}{=}{\left\{{{H}}_{{l}}\left({\boldsymbol{G}}_{\text{enc}}^{{l}}\left({x}\right)\right)\right\}}_{{L}}$ ,$ {\boldsymbol{G}}_{\mathrm{e}\mathrm{n}\mathrm{c}}^{l} $ 为第l层的输出向量, 同样的, 对于生成器的输出也存在$\hat{y} = {\left\{{\hat{z}}_{l}\right\}}_{L} = {\left\{{H}_{l}\left({\boldsymbol{G}}_{\mathrm{e}\mathrm{n}\mathrm{c}}^{l}\left(G\left(x\right)\right)\right)\right\}}_{L}$ , 原始CUT使用InfoNCE函数作为基本损失函数, 即$$ {L_{{\text{NCE}}}}(z,{z^ + },z_n^ - ) = \log \bigg[\frac{{\exp (z \cdot {z^ + }/\tau )}}{{\exp (z \cdot {z^ + }/\tau ) + \exp (z \cdot z_n^ - /\tau )}}\bigg] $$ (2) 使用图像块作为基本样本, 原图像对应位置作为正样本, 其他位置作为负样本, 同时对于多层进行计算。损失函数为
$$ {L_{{\text{patch NCE}}}}(G,H,X) = {E_{x\sim X}}\sum\limits_{l = 1}^L {\sum\limits_{s = 1}^{{S_l}} {{L_{{\text{NCE}}}}(\hat z_l^s,z_l^s,z_l^{S/s})} } $$ (3) 式(3)中对于每一层, 将图像向量分成
$ {S}_{l} $ 份, 每一份图像块$ s\in {S}_{l} $ ,$ \hat Z_l^s \in {R^{{C_l}}} $ 为第l层位置序号为s的生成图像块,$ Z_l^s \in {R^{{C_l}}} $ 为第l层位置序号为s的原图像块,$z_l^{S/s} \in {R^{({S_l} - 1) \times {C_l}}}$ 为第l层位置不为s的其他生成图像块。式(2)由于函数形式复杂使得函数优化比较困难, 难以收敛至最优值。使用文献[14]提出的性质, InfoNCE函数存在2个性质, 即相似样本的相互拉近和其他样本的均匀分布, 故使用alignment和uniformity 2个简单函数的线性组合来达到对比约束的效果, 该损失函数为$$ \begin{aligned} {L_{{\text{CON}}}} = & {\lambda _a}E||f(x) - f(y)|{|_2} + \\ & {\lambda _u}\log E[\exp ( - t||f(x) - f(y)|{|_2})] \\ \end{aligned} $$ (4) 将式(4)替换式(3)中的InfoNCE函数, 得出一个优化的PatchNCE函数, 称为Opt-PatchNCE, 即
$$ {L_{{\text{patch NCE}}}}(G,H,X) = {E_{x\sim X}}\sum\limits_{l = 1}^L {\sum\limits_{s = 1}^{{S_l}} {{L_{{\text{CON}}}}(\hat z_l^s,z_l^s,z_l^{S/s})} } $$ (5) 3) SSIM损失
为了更多的保留水下图像的结构, 使用结构一致函数, 用于约束原水下图像中的物体结构和增强图像中物体结构一致, 其定义为
$$ S S I M(p) = \frac{{2{\mu _x}{\mu _y} + {C_1}}}{{\mu _x^2 + \mu _y^2 + {C_2}}}\cdot\frac{{2{\sigma _{xy}} + {C_2}}}{{\sigma _x^2 + \sigma _y^2 + {C_2}}} $$ (6) 式中: p为图像块的中心像素; x是X域中大小为13×13的图像块; y是G(x)域中大小为13×13的图像块;
$ {u}_{x},{u}_{y} $ 分别为$ x,y $ 的均值;$ {\sigma }_{x},{\sigma }_{y} $ 分别为x,y的方差;$ {\sigma }_{xy} $ 为x, y的协变量。SSIM损失函数主要用于衡量x和G(x)的结构误差, 具体为$$ {L_{{\text{SSIM}}}}(x,G(x)) = 1 - \dfrac{1}{N}\sum\limits_{p = 1}^N {S S I M({x_p},G{{(x)}_p})} $$ (7) 4) UNDERWATER-CUT总损失
UNDERWATER-CUT的总损失函数为对抗生成损失、对比学习损失和SSIM损失三部分的线性组合, 具体为
$$ \begin{split} {L_{{\text{total}}}}(D,G,X,Y) = & {L_{{\text{GAN}}}}(D,G,X,Y) + \\ & {\lambda _1}{L_{{\text{Opt - PatchNCE}}}}(X,Y,G(X)) + \\ &{\lambda _2}{L_{{\text{SSIM}}}}(X,G(X)) \end{split} $$ (8) 式中:
$ {\lambda }_{1} $ 和$ {\lambda }_{2} $ 分别为约束对比学习损失和SSIM损失的超参数, 选择$ {\lambda }_{1} $ =10,$ {\lambda }_{2} $ =2.5。训练时为了得到最优的生成器, 按照下式进行总损失函数的优化$$ {G^*} = \mathop {\min }\limits_G \mathop {\max }\limits_D {L_{{\text{total}}}}(D,G,X,Y) $$ (9) 2.2 网络模型训练策略
每一次训练迭代都分为2个部分, 第1部分, 对水下图像域X和脱水图像域Y分别随机采样m个样本, 固定生成器参数不变, 对判别器的参数进行梯度下降的计算; 第2部分, 只对水下图像域X进行随机采样, 由于第1部分已经对判别器参数进行了优化, 所以这一部分只优化生成器的模型参数。每次训练判别器和生成器都能根据前一次迭代参数, 得以进一步优化, 这两部分不断互相指引对方的梯度向更优的方向优化, 最终在有限次迭代次数中, 二者达到最优, 此时生成器增强的图像最为清晰自然。
具体训练配置如下: 每次迭代选取8个样本作为1批(batch), 总的迭代次数(epoch)为200, 网络输入为
$ 255\times 255\times 3 $ , 梯度下降算法为Adam(adaptive moment estimation)算法, 其中$ \gamma $ =0.0002,$\; {\beta }_{1} $ =0.5,$ \;{\beta }_{2} $ =0.999。训练集选取水下图像增强基准(underwater image enhancement benchmark, UIEB)数据集[15], 训练时选取800幅水下图像和脱水图像进行非成对训练。文中算法具体实现使用PyTorch[16]框架, 使用NVIDIA GeForce RTX 2080Ti型号GPU进行训练, 操作系统为Ubuntu 18.04。3. 实验结果和分析
为了验证方法的有效性, 将从图像生成效果和客观指标评价两部分来共同评价。图像生成效果上将文中算法和原始CUT、CycleGAN和SSIM-CycleGAN进行视觉效果上的比较, 同时为了证明各个组成部分的有效性, 进行了消融实验, 比较了SSIM-CUT和UNDERWATER-CUT的效果。在客观指标评价上, 由于单一指标评测有局限性, 例如峰值信噪比(peak signal to noise ratio, PSNR)在某些情况下会出现图像质量很高, 但是PSNR分数不高的情况[17], 故采用了FID[18], 水下图像质量评价指标(undewater color image quality evaluation, UCIQE) [19]和PSNR 3种指标来综合评价, 使用UIEB数据集[15]作为训练数据和测试数据, 其中800幅图片为训练集, 90幅图片为测试集, 训练集和测试集中的图片分辨率均为256×256。
3.1 图像增强有效性分析
为了客观衡量图像增量后的效果, 使用FID, UCIQE和PSNR 3种评价指标进行定量比较。FID主要被用来衡量生成模型生成的图像增强结果, FID的值代表了增强后的图像集和陆上图像集的距离, 值越小代表距离越近, 同时也代表了脱水后的效果越好。FID将生成器生成的增强图像和原输入图像看作2个多维高斯分布, 分别用
$ N\left(\mu,\sigma \right) $ 和$ N({\mu }_{w},{\sigma }_{w}) $ 表示, 然后计算2个高斯分布的Wasserstein距离, 具体为$$ F I D = |\mu - {\mu _w}{|^2} + tr[\sigma + {\sigma _w} - 2{(\sigma {\sigma _w})^{1/2}}] $$ (10) 式中, tr代表矩阵的迹。
UCIQE指标是色彩浓度、饱和度和对比度的线性组合, 用来定量评价水下图像非均匀的色偏、模糊和低对比度的情况, UCIQE的值和图像质量成正比关系, 值越高图像质量越高, 具体为
$$ U C I Q E = {c_1}{\sigma _1} + {c_2}co{n_l} + {c_3}{\mu _s} $$ (11) PSNR反映了两幅图像之间的相似性, 值越大表示增强后的图像与陆上图像越接近, 即真实性越好, 其定义为
$$ P S N R = 10 \cdot \lg \frac{{MAX_I^2}}{{MSE}} $$ (12) 式中, MSE为均方误差函数, 其具体定义为
$$ M S E = \frac{1}{{3mn}}\sum\limits_{R,G,B} {} \sum\limits_{i = 0}^{m - 1} {} \sum\limits_{j = 0}^{n - 1} {{{[I(i,j) - K(i,j)]}^2}} $$ (13) 式中: I为原始水下图像; K为增强后的水下图像; m和n分别为图像的长度和宽度; MAXI为图像点颜色的最大值, 文中图像每个采样点用8位表示, 所以MAXI=255。
各方法增强结果见表1。根据表1中结果可知, UNDERWATER-CUT的FID指标在5种图像增强算法中最低, 说明增强后的图像概率分布和原本水下图像的概率分布最为接近, 也就是生成的图像保存信息最为完整; 同时, 文中方法的UCIQE分数也是最高的, 说明在图像的色度、饱和度和清晰度相比其他算法有着更好的表现; 此外, 文中方法的PSNR分数接近SSIM-CUT模型的分数, 并都超过了其他算法, 综上, 文中算法在PSNR分数接近的情形下, FID和UCIQE均领先于其余算法, 故可以认为经过UNDERWATER-CUT增强的图像质量优于其余算法。
表 1 各方法增强后图像指标对比Table 1. Comparison of the image indicators enhanced by each method模型 FID UCIQE PSNR CycleGAN 129.63 0.551 9 14.99 SSIM-CycleGAN 107.77 0.557 8 14.85 CUT 182.38 0.551 6 13.48 SSIM-CUT 113.66 0.625 2 18.62 UNDERWATER-CUT 104.53 0.634 2 18.18 3.2 图像增强效果对比
为了直观比较各算法的增强效果, 将原始图像和各个算法增强后的图像进行对比, 结果如图4所示。原始CycleGAN算法可以一定程度上增强水下图像, 但原始CycleGAN算法未针对水下环境进行特殊处理, 导致水下图像中蓝绿色失衡的问题仍然没有被解决; 添加SSIM的CycleGAN可以明显提升图像质量, 但是由于使用了SSIM损失函数, 只约束了图像中的物体结构, 并未对图像的色度和对比度进行处理, 图像颜色依然不够真实自然; 经过原始CUT算法处理后, 图像中的物体边缘发生了变化, 和原始图像相差较大, 同时蓝绿色失衡的问题依然存在; 对CUT添加SSIM约束之后, 可以看到增强后的图像和原始图像的物体结构一致, 图像较为清晰自然, 但是色度和对比度偶有失衡, 在结果中可以看到部分增强后的图像背景被错误增强成了红色; 最后, UNDERWATER-CUT效果最为清晰自然, 颜色失真得到极大修正, 因为使用了SSIM损失函数又保证了图像中的物体结构不改变, 同时使用了相对比较容易优化的损失函数, 模型更容易收敛到最优。
4. 结束语
文中提出了一种基于UNDERWATER-CUT模型的弱监督水下图像增强算法, 不需要水下图像和脱水图像的成对训练, 非常适合实际的水下任务。针对水下图像特征, 使用SSIM约束确保修复后的图像不丢失物体结构信息, 保证修复后的图像和修复前的结构信息的一致性, 同时优化了对比学习损失, 使得网络进行梯度下降学习时更容易收敛到最优。实验结果证明, 经过UNDERWATER-CUT修复后的图像在校正水下图像颜色效果失真的基础上, 最大限度保存了水下物体的结构特征, 增强后的图像自然且清晰, 有助于其他水下视觉任务如目标识别精度的提升。
-
表 1 各方法增强后图像指标对比
Table 1. Comparison of the image indicators enhanced by each method
模型 FID UCIQE PSNR CycleGAN 129.63 0.551 9 14.99 SSIM-CycleGAN 107.77 0.557 8 14.85 CUT 182.38 0.551 6 13.48 SSIM-CUT 113.66 0.625 2 18.62 UNDERWATER-CUT 104.53 0.634 2 18.18 -
[1] 杨爱萍, 曲畅, 王建, 等. 基于水下成像模型的图像清晰化算法[J]. 电子与信息学报, 2018, 40(2): 298-305.Yang Ai-ping, Qu Chang, Wang Jian, et al. Underwater Image Visibility Restoration Based on Underwater Imaging Model[J]. Journal of Electronics & Information Technology, 2018, 40(2): 298-305. [2] He K, Sun J, Tang X. Single Image Haze Removal Using Dark Channel Prior[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 33(12): 2341-2353. [3] Wen H, Tian Y, Huang T, et al. Single Underwater Image Enhancement with a New Optical Model[C]//2013 IEEE International Symposium on Circuits and Systems(ISCAS). Beijing, China: IEEE, 2013: 753-756. [4] Li J, Skinner K A, Eustice R M, et al. WaterGAN: Unsupervised Generative Network to Enable Real-time Color Correction of Monocular Underwater Images[J]. IEEE Robotics and Automation Letters, 2017, 3(1): 387-394. [5] Li C, Guo J, Guo C. Emerging from Water: Underwater Image Color Correction Based on Weakly Supervised Color Transfer[J]. IEEE Signal Processing Letters, Institute of Electrical and Electronics Engineers Inc., 2018, 25(3): 323-327. [6] Zhu J Y, Park T, Isola P, et al. Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks[C]//2017 IEEE International Conference on Computer Vision (ICCV). Venice, Italy: IEEE, 2017. [7] Wang Z, Bovik A C, Sheikh H R, et al. Image Quality Assessment: from Error Visibility to Structural Similarity[J]. IEEE Transactions on Image Processing, 2004, 13(4): 600-612. doi: 10.1109/TIP.2003.819861 [8] 李庆忠, 白文秀, 牛炯. 基于改进CycleGAN的水下图像颜色校正与增强[J/OL]. 自动化学报, 2020, 46(x): 1-11.[2021-10-10]. http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c200510.Li Qing-Zhong, Bai Wen-Xiu, Niu Jiong. Underwater Image Color Correction and Enhancement Based on Improved Cycle-consistent Generative Adversarial Networks[J/OL]. Acta Automatica Sinica, 2020, 46(x): 1−11. [2021-10-10]. http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c200510. [9] Park T, Efros A A, Zhang R, et al. Contrastive Learning for Unpaired Image-to-Image Translation[EB/OL]. (2020-08-20)[2021-11-10]. https://arxiv.org/abs/2007.15651. [10] Van den Oord A, Li Y, Vinyals O. Representation Learning with Contrastive Predictive Coding[EB/OL]. (2019-01-22)[2021-11-10]. http://export.arxiv.org/abs/1807.03748. [11] Goodfellow I J, Pouget-Abadie J, Mirza M, et al. Generative Adversarial Networks[EB/OL]. (2017-04-03)[2021-11-10]. https://doi.org/10.48550/arXiv.1701.00160. [12] He K, Zhang X, Ren S, et al. Deep Residual Learning for Image Recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Las Vegas, NV, USA: IEEE, 2016: 770-778. [13] Isola P, Zhu J-Y, Zhou T, et al. Image-to-Image Translation with Conditional Adversarial Networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, HI, USA: IEEE, 2018. [14] Wang T, Isola P. Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere[EB/OL]. (2020-11-10)[2021-12-17]. https://doi.org/10.48550/arXiv.2005.10242. [15] Li C, Guo C, Ren W, et al. An Underwater Image Enhancement Benchmark Dataset and Beyond[J]. IEEE Transactions on Image Processing, 2020, 29: 4376-4389. doi: 10.1109/TIP.2019.2955241 [16] Paszke A, Gross S, Massa F, et al. PyTorch: An Imperative Style, High-Performance Deep Learning Library[EB/OL]. (2019-12-03)[2021-11-07]. https://doi.org/10.48550/arXiv.1912.01703. [17] Huynh-Thu Q, Ghanbari M. Scope of Validity of PSNR in Image/Video Quality Assessment[J]. Electronics Letters, IET, 2008, 44(13): 800-801. doi: 10.1049/el:20080522 [18] Heusel M, Ramsauer H, Unterthiner T, et al. GANs Trained by a Two Time-Scale Update Rule Converge to a Local Nash Equilibrium[EB/OL]. (2018-01-12)[2021-11-07]. https://doi.org/10.48550/arXiv.1706.08500. [19] Yang M, Sowmya A. An Underwater Color Image Quality Evaluation Metric[J]. IEEE Transactions on Image Processing, 2015, 24(12): 6062-6071. doi: 10.1109/TIP.2015.2491020 期刊类型引用(2)
1. 张鸿彬. 基于畸变图像校正的装配式建筑拼装接缝检测. 建筑机械. 2024(06): 124-129 . 百度学术
2. 宁泽萌,林森,李兴然. 散射光补偿结合色彩保持与对比度均衡的水下图像增强. 水下无人系统学报. 2024(05): 823-832 . 本站查看
其他类型引用(1)
-