(47-5) 05 * << * >> * Русский * English * Содержание * Все выпуски
Получение цветных изображений системой на основе трех дифракционных линз
С.О. Степаненко 1,2, В.В. Евдокимова 1,2, М.В. Петров 1,2, Р.В. Скиданов 1,2, А.В. Никоноров 1,2
1 Самарский национальный исследовательский университет имени академика С.П. Королёва,
443086, Россия, г. Самара, Московское шоссе, д. 34;
2 Институт систем обработки изображений РАН – филиал ФНИЦ «Кристаллография и фотоника» РАН,
443001, Россия, г. Самара, ул. Молодогвардейская, д. 151
PDF, 2561 kB
DOI: 10.18287/2412-6179-CO-1258
Страницы: 716-724.
Аннотация:
Возможность существенно снизить массу и стоимость систем технического зрения приводит к появлению большого числа работ, посвященных разработке новых изображающих систем на основе дифракционной оптики. В рамках настоящей работы предложена новая изображающая система из трех дифракционных линз, каждая из которых формирует один канал цветного RGB-изображения. Такой подход позволяет существенно сузить спектральный диапазон каждой линзы и таким образом существенно снизить искажения изображения, вызванные хроматической аберрацией, присущей дифракционной оптике. Показано, что такая схема позволяет провести нейросетевую реконструкцию, существенно повышающую качество получаемого изображения. Для минимизации артефактов реконструкции на изображениях реальных сцен в работе используется аугментация обучающей выборки, а также предложен критерий ложных контуров, позволяющий учитывать реальные данные в процессе обучения сети.
Ключевые слова:
цветовая коррекция, цветовая стабилизация, глобальная оптимизация, нейросетевая реконструкция изображений.
Благодарности
Работа выполнена при поддержке гранта РНФ 22-19-00364.
Цитирование:
Степаненко, С.О. Получение цветных изображений системой на основе трех дифракционных линз / С.О. Степаненко, В.В. Евдокимова, М.В. Петров, Р.В. Скиданов, А.В. Никоноров // Компьютерная оптика. – 2023. – Т. 47, № 5. – С. 716-724. – DOI: 10.18287/2412-6179-CO-1258.
Citation:
Stepanenko SO, Evdokimova VV, Petrov MV, Skidanov RV, Nikonorov AV. Color imaging using a system based on 3 diffractive lenses. Computer Optics 2023; 47(5): 716-724. DOI: 10.18287/2412-6179-CO-1258.
References:
- Chen MK, Liu X, Sun Y, Tsai DP. Artificial intelligence in meta-optics. Chem Rev 2022; 122(19): 15356-15413.
- Genevet P, Capasso F, Aieta F, Khorasaninejad M, Devlin R. Recent advances in planar optics: from plasmonic to dielectric metasurfaces. Optica 2017; 4(1): 139-152.
- Banerji S, et al. Imaging with flat optics: metalenses or diffractive lenses? Optica 2019; 6(6): 805-810.
- Nikonorov A, Evdokimova V, Petrov M, Yakimov P, Bibikov S, Yuzifovich Y, Skidanov R, Kazanskiy N. Deep learning-based imaging using single-lens and multi-aperture diffractive optical systems. 2019 IEEE/CVF Int Conf on Computer Vision Workshop (ICCVW) 2019: 3969-3977. DOI: 10.1109/ICCVW.2019.00491.
- Kazanskii NL, Khonina SN, Skidanov RV, Morozov AA, Kharitonov SI, Volotovskiy SG. Formation of images using multilevel diffractive lens. Computer Optics 2014; 38(3): 425-434. DOI: 10.18287/0134-2452-2014-38-3-425-434.
- Nikonorov A, Skidanov R, Fursov V, Petrov M, Bibikov S, Yuzifovich Y. Fresnel lens imaging with post-capture image processing. 2015 IEEE Conf on Computer Vision and Pattern Recognition Workshops (CVPRW) 2015: 33-41. DOI: 10.1109/CVPRW.2015.7301373.
- Nikonorov A, Petrov M, Bibikov S, Yakimov P, Kutikova V, Yuzifovich Y, Morozov A, Skidanov R, Kazanskiy N. Toward ultralightweight remote sensing with harmonic lenses and convolutional neural networks. IEEE J Sel Top Appl Earth Obs Remote Sens 2018; 11(9): 3338-3348. DOI: 10.1109/JSTARS.2018.2856538.
- Nikonorov AV, Skidanov RV, Kutikova VV, Petrov MV, Alekseev AP, Bibikov SA, Kazanskiy NL. Towards multi-aperture imaging using diffractive lens. Proc SPIE 2019; 11146: 111460Y. DOI: 10.1117/12.2526923.
- Nikonorov A, Petrov M, Bibikov S, Yuzifovich Y, Yakimov P, Kazanskiy N, Skidanov R, Fursov V. Comparative evaluation of deblurring techniques for fresnel lens computational imaging. 2016 23rd Int Conf on Pattern Recognition (ICPR) 2016: 775-780. DOI: 10.1109/ICPR.2016.7899729.
- Peng Y, Fu Q, Amata H, Su Sh, Heide F, Heidrich W. Computational imaging using lightweight diffractive-refractive optics. Opt Express 2015; 23(24): 31393-31407.
- Skidanov R, Strelkov Y, Volotovsky S, Blank V, Ganchevskaya S, Podlipnov V, Ivliev N, Kazanskiy N. Compact imaging systems based on annular harmonic lenses. Sensors 2020; 20(14): 3914. DOI: 10.3390/s20143914.
- Sales TRM, Morris GM. Diffractive-refractive behavior of kinoform lenses. Appl Opt 1997; 36: 253-257.
- Mohammad N, Meem M, Shen B, Wang P, Menon R. Broadband imaging with one planar diffractive lens. Sci Rep 2018; 8: 2799.
- Kim G, Domínguez-Caballero JA, Menon R. Design and analysis of multi-wavelength difractive optics. Opt Express 2012; 20: 2814-2823.
- Blank V, Skidanov R, Doskolovich L, Kazanskiy N. Spectral diffractive lenses for measuring a modified red edge simple ratio index and a water band index. Sensors 2021; 21(22): 7694. DOI: 10.3390/s21227694.
- Blank VA, Skidanov RV, Doskolovich LL. Investigation of a spectral lens for the formation of a normalized difference vegetation index NDVI0.705. J Opt Technol 2022; 89(3): 137-141. DOI: 10.1364/JOT.89.000137.
- Doskolovich LL, Golub MA, Kazanskiy NL, Khramov AG, Pavelyev VS, Seraphimovich PG, Soifer VA, Volotovskiy SG. Software on diffractive optics and computer generated holograms. Proc. SPIE 1995; 2363: 278-284. DOI: 10.1117/12.199645.
- Kazanskiy NL. Modeling diffractive optics elements and devices. Proc SPIE 2018; 10774: 107740O. DOI: 10.1117/12.2319264.
- Kazanskiy NL. Research & Education Center of Diffractive Optics. Proc SPIE 2012; 8410: 84100R. DOI: 10.1117/12.923233.
- Kazanskiy NL, Skidanov RV. Technological line for creation and research of diffractive optical elements. Proc. SPIE 2019; 11146: 111460W. DOI: 10.1117/12.2527274.
- Zhang Y, Li Ku, Li K, Wang L, Zhong B, Fu Y. Image super-resolution using very deep residual channel attention networks. In Book: Ferrari V, Hebert M, Sminchisescu C, Weiss Y, eds. Computer Vision – ECCV 2018. Cham: Springer Nature Switzerland AG; 2018: 286-301.
- Kim J, Lee JK, Lee KM. Accurate image super-resolution using very deep convolutional networks. 2016 IEEE Conf on Computer Vision and Pattern Recognition (CVPR) 2016: 1646-1654.
- Zhang Y, Tian Y, Kong Y, Zhong B, Fu Y. Residual dense network for image super-resolution. 2018 IEEE/CVF Conf on Computer Vision and Pattern Recognition 2018: 2472-2481.
- Wang L, Wang Y, Dong X, Xu Q, Yang J, An W, Guo Y. Unsupervised degradation representation learning for blind superresolution. 2021 IEEE/CVF Conf on Computer Vision and Pattern Recognition (CVPR) 2021: 10576-10585. DOI: 10.1109/CVPR46437.2021.01044.
- Wang Z, Chen J, Hoi SCH. Deep learning for image super-resolution: A survey. IEEE Trans Pattern Anal Mach Intell 2020: 43(10): 3365-3387. DOI: 10.1109/TPAMI.2020.2982166.
- Dong C, Loy CC, He K, Tang X. Learning a deep convolutional network for image super-resolution. In Book: Fleet D, Pajdla T, Schiele B, Tuytelaars T, eds. Computer Vision – ECCV 2014. Cham: Springer International Publishing Switzerland; 2014: 184-199.
- Zhang Y, Li K, Li K, Wang L, Zhong B, Fu Y. Image super-resolution using very deep residual channel attention networks. In Book: Ferrari V, Hebert M, Sminchisescu C, Weiss Y, eds. Computer Vision – ECCV 2018. Cham: Springer Nature Switzerland AG; 2018: 294-310.
- Zhang K, Zuo W, Zhang L. Learning a single convolutional super-resolution network for multiple degradations. 2018 IEEE/CVF Conf on Computer Vision and Pattern Recognition 2018: 3262-3271.
- Wang X, Xie L, Dong C, Shan Y. Real-ESRGAN: Training real-world blind super-resolution with pure synthetic data. IEEE/CVF Int Conf on Computer Vision Workshops (ICCVW) 2021: 1904-1914.
- Soh JW, Cho S, Cho NI. Meta-transfer learning for zero-shot super-resolution. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2020: 3513-3522. DOI: 10.1109/CVPR42600.2020.00357.
- Evdokimova VV, Petrov MV, Klyueva MA, Zybin EY, Kosianchuk VV,Mishchenko IB, Novikov VM, Selvesiuk NI, Ershov EI, Ivliev NA, Skidanov RV, Kazanskiy NL, Nikonorov AV. Deep learning-based video stream reconstruction in mass production diffractive optical systems. Computer Optics 2021; 45(1): 130-141. DOI: 10.18287/2412-6179-CO-834.
- Ivliev N, Evdokimova V, Podlipnov V, Petrov M, Ganchevskaya S, Tkachenko I, Abrameshin D, Yuzifovich Y, Nikonorov A, Skidanov R, Kazanskiy N, Soifer V. First Earth-imaging CubeSat with harmonic diffractive lens. Remote Sens 2022; 14(9): 2230. DOI: 10.3390/rs14092230.
- Ronneberger O. U-Net: Convolutional networks for biomedical image segmentation. In Book: Navab N, Hornegger J, Wells WM, Frangi AF, eds. Medical image computing and computerassisted intervention – MICCAI. New York, Dordrecht, London: Springer, 2015: 234-241. DOI: 10.1007/978-3-319-24574-4_28.
- Dun X, Ikoma H, Wetzstein G, Wang Z, Cheng X, Peng Y. Learned rotationally symmetric diffractive achromat for full-spectrum computational imaging. Optica 2020; 7: 913-922.
- Peng Y, Sun Q, Dun X, Wetzstein G, Heidrich W, Heide F. Learned large field-of-view imaging with thin-plate optics. ACM Trans Graph 2019; 38(6): 219. DOI: 10.1145/3355089.3356526.
- Foi A, Trimeche M, Katkovnik V, Egiazarian K. Practical Poissonian-Gaussian noise modeling and fitting for single-image raw-data. IEEE Trans Image Process 2008; 17(10): 1737-1754. DOI: 10.1109/TIP.2008.2001399.
- Guo S, Yan Z, Zhang K, Zuo W, Zhang L. Toward convolutional blind denoising of real photographs. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2019: 1712-1722. DOI: 10.1109/CVPR.2019.00181.
- Do more with less data. 2023. Source: <https://albumentations.ai/>.
- Ying Z, Li G, Ren Y, Wang R, Wang W. A new low-light image enhancement algorithm using camera response model. IEEE Int Conf on Computer Vision Workshops (ICCVW) 2017: 3015-3022. DOI: 10.1109/ICCVW.2017.356.
- Karpeev SV, Alferov SV, Khonina SN, Kudryashov SI. Study of the broadband radiation intensity distribution formed by diffractive optical elements. Computer Optics 2014; 38(4): 689-694. DOI: 10.18287/0134-2452-2014-38-4-689-694.
© 2009, IPSI RAS
Россия, 443001, Самара, ул. Молодогвардейская, 151; электронная почта: journal@computeroptics.ru; тел: +7 (846) 242-41-24 (ответственный секретарь), +7 (846) 332-56-22 (технический редактор), факс: +7 (846) 332-56-20