摘要:色域压缩是大色域向小色域进行转换时保持色彩信息的关键技术。经典算法虽计算快速,但处理结果缺乏细节且没有考虑人眼的感知特性,难以满足人们对色彩品质不断提升的要求。迭代算法处理效果更佳,但极其耗时,无法投入实际应用。针对上述问题,首次提出了轻量化的深度色域压缩方法,该方法可在逼近迭代算法计算效果的同时保持接近经典算法的速度。首先,为色域压缩算法设计了LightGCNet模型,该网络中的双层卷积由DSC与DW卷积组合而成,相比常规U-Net,参数量与计算复杂度急剧降低。此外,为进一步提高模型先验性,将预训练得到的DW卷积中多个核通道进行重聚焦操作以建立联系,最终权重由重聚焦权重和预训练权重组成。其次,针对色相、明度、彩度这三个色彩属性,设计了色域压缩专用的损失函数。该函数不仅考虑了像素级损失,而且融合了图像感知损失,并联合色彩属性的多尺度信息进行加权,解决了深度色域压缩过程中细节丢失的问题。最后,基于迭代算法生成标签以训练网络,联合学习目标色域特征与图像信息,实现了与迭代算法相当的效果。实验结果表明:该方法与业界经典的SGCK算法相比,iCID值降低了17.08%,SSIM值提高了5.30%。相比常规U-Net模型,LightGCNet参数量减少了82.96%,乘加次数从8.5G大幅下降至2.2G,使改良模型更适于低端设备部署。该模型在CPU上处理单幅512×512图像仅需0.208秒,计算时间比迭代类算法减少99.92%。
文章目录
1 相关工作
1.1 逐点色域压缩
1.2 空间色域压缩
1.3 深度色域拓展
2 深度色域压缩算法
2.1 LightGCNet整体结构
2.2 轻量化残差块
2.3 损失函数
2.4 基于iCID的标签生成过程
3 实验结果和分析
3.1 数据集
3.2 实验环境及训练策略
3.3 实验结果
3.3.1 轻量化模块以及损失函数消融实验
3.3.2 损失函数权重实验
3.3.3 深度色域压缩和传统算法的对比
4 结束语