Funciones de pérdida motivadas perceptivamente para pantallas holográficas generadas por computadora

Noticias

HogarHogar / Noticias / Funciones de pérdida motivadas perceptivamente para pantallas holográficas generadas por computadora

Jun 01, 2023

Funciones de pérdida motivadas perceptivamente para pantallas holográficas generadas por computadora

Scientific Reports volumen 12, Número de artículo: 7709 (2022) Cite este artículo 3056 Accesos 2 Detalles de Altmetric Metrics Comprender y mejorar la calidad percibida de las imágenes reconstruidas es clave

Scientific Reports volumen 12, número de artículo: 7709 (2022) Citar este artículo

3056 Accesos

2 altmétrico

Detalles de métricas

Comprender y mejorar la calidad percibida de las imágenes reconstruidas es clave para desarrollar algoritmos holográficos generados por computadora para pantallas holográficas de alta fidelidad. Sin embargo, los algoritmos actuales suelen optimizarse utilizando el error cuadrático medio, que es ampliamente criticado por su escasa correlación con la calidad de percepción. En nuestro trabajo, presentamos un análisis integral del empleo de métricas de calidad de imagen (IQM) contemporáneas como funciones de pérdida en el proceso de optimización de hologramas. Una evaluación exhaustiva objetiva y subjetiva de imágenes reconstruidas experimentalmente revela el rendimiento relativo de las pérdidas de IQM para la optimización de hologramas. Nuestros resultados revelan que la calidad de la imagen percibida mejora considerablemente cuando se utiliza la función de pérdida IQM adecuada, destacando el valor de desarrollar funciones de pérdida motivadas perceptualmente para la optimización de hologramas.

La holografía ofrece una capacidad única para controlar la luz, lo que tiene un profundo impacto en diversas aplicaciones, desde telecomunicaciones ópticas1, almacenamiento de datos2, microscopía3 hasta pantallas bidimensionales y tridimensionales4,5. Los avances en algoritmos y capacidad computacional han permitido calcular numéricamente hologramas generados por computadora (CGH) simulando la difracción y la interferencia de la luz. El CGH obtenido se muestra en un modulador de luz espacial (SLM), que modula la iluminación coherente para reproducir las escenas deseadas. El objetivo de los algoritmos CGH es calcular un holograma que pueda visualizarse en un SLM y que produzca una distribución de intensidad que se aproxime mejor a la imagen deseada.

Los CGH se muestran comúnmente en SLM de cristal líquido nemático, que aumentan la eficiencia de la luz superior pero se limitan a modular solo la fase del haz incidente. Para resolver la restricción de solo fase impuesta por estos SLM, los métodos de doble fase4,6 y de difusión de errores7,8,9 codifican directamente campos de difracción de amplitud compleja en hologramas de solo fase. Otro enfoque, conocido como algoritmo de recuperación de fase de un solo paso (OSPR)10,11, muestra múltiples hologramas de solo fase dentro de un corto intervalo de tiempo para promediar estadísticamente los errores en el campo de reproducción. Los algoritmos CGH entrenados basados ​​en aprendizaje profundo también se emplean como soluciones no iterativas12,13,14. Los algoritmos iterativos de CGH, como la búsqueda directa (DS)15 y el recocido simulado (SA)16, alteran píxeles individuales en el holograma para encontrar el holograma óptimo. También se han explorado métodos de recuperación de fase como el algoritmo de Gerchberg-Saxton (GS)17 y el método híbrido de entrada-salida (HIO)18,19.

Recientemente, el método de descenso de gradiente se ha aplicado a la optimización CGH de fase única12,13,14,20,21,22,23,24. El gradiente de una función objetivo predefinida se calcula y se utiliza para actualizar la fase del holograma en cada iteración. Este método se puede combinar aún más con una cámara como estrategia de optimización de la retroalimentación para eliminar artefactos ópticos en configuraciones experimentales13,22. La función de pérdida específica seleccionada es esencial en estos enfoques de optimización iterativa para llevar la fase del holograma a su estado óptimo. Una elección estándar de la función de pérdida es el error cuadrático medio (MSE) debido a su simplicidad de uso y su claro significado físico. Aunque MSE cuantifica el error por píxel en la imagen reconstruida, es ampliamente criticado por su escasa correlación con la calidad de percepción25,26,27,28.

Un enfoque prometedor pero relativamente menos explotado es utilizar métricas de calidad de imagen (IQM) en el proceso de optimización CGH de fase única. La función tradicional de los IQM en holografía digital es monitorear dinámicamente el proceso de optimización y evaluar la calidad perceptiva de las imágenes obtenidas29,30,31,32. El modelo IQM moderno evalúa la calidad visual basándose en conocimientos a priori sobre el sistema visual humano o utiliza modelos aprendidos entrenados con grandes conjuntos de datos. Utilizan características de la imagen en espacios de percepción apropiados28,33 para la evaluación de la calidad de la imagen, pero aún no se han explotado por completo en el proceso de optimización de CGH. Aquí, nos centramos en el uso de IQM como una alternativa al omnipresente MSE para la pérdida de entrenamiento, con la intención de utilizar el gradiente de estas métricas de percepción para esforzarnos por lograr un mejor algoritmo de optimización de CGH. El uso de funciones de pérdida motivadas por la percepción ha ganado atención recientemente en la CGH foveada34,35, centrándose específicamente en la supresión del speckle en la región foveal y la percepción periférica. Otras aplicaciones de restauración de imágenes no holográficas también han explorado las pérdidas de percepción, aunque se observa que no existe una función de pérdida única que supere a todas las demás en diferentes aplicaciones36,37,38.

En este artículo, presentamos una comparación exhaustiva de diferentes IQM como pérdidas para la optimización de CGH mediante descenso de gradiente. Específicamente, primero elegimos diez IQM adecuados para la optimización junto con el error absoluto medio (MAE) y MSE para generar CGH. Estos IQM no se han aplicado al diseño del holograma y se seleccionan entre la gran cantidad de métricas existentes debido a su buen establecimiento y a su diferenciabilidad, un requisito para su uso en el método de descenso de gradiente. Construimos un prototipo de pantalla holográfica para adquirir un conjunto de datos de reconstrucción óptica de hologramas de fase de optimización IQM. Utilizamos este conjunto de datos para realizar un análisis en profundidad del desempeño relativo de las pérdidas de IQM basado en extensas evaluaciones de calidad objetivas, así como comparaciones subjetivas informadas por juicios de percepción humana. Finalmente, presentamos un procedimiento riguroso para evaluar la calidad perceptual de imágenes holográficas y resaltamos el valor de desarrollar funciones de pérdida motivadas perceptualmente para la optimización de hologramas.

La generación de CGH basada en el método de descenso de gradiente se puede generalizar como modelo de optimización. En el pase directo, el modelo propaga un holograma de fase al plano de reproducción para producir una imagen reconstruida, que se utiliza para calcular la pérdida comparándola con la imagen de destino. En el paso hacia atrás, el modelo retrocede desde la salida, recopila las derivadas de la función de pérdida con respecto al holograma de fase y actualiza el holograma para minimizar la pérdida. El modelo pasa iterativamente por el pase hacia adelante y hacia atrás para obtener el holograma de fase optimizado. Este proceso se ilustra en la Fig. 1.

Modelo de optimización CGH basado en el método de descenso de gradiente.

En el avance, consideramos el método del espectro angular39,40 con onda luminosa plana para modelar la función de propagación de difracción:

Aquí, \(\phi \left(x,y\right)\) es el holograma de fase que se ha cuantificado para que pueda visualizarse en un SLM binario o de 8 bits, \(\lambda\) es la longitud de onda, \({f}_{x}, {f}_{y}\) son frecuencias espaciales y \(z\) es la distancia de propagación entre el plano del holograma y el plano del campo de reproducción. \(\mathcal{F}\) y \({\mathcal{F}}^{-1}\) denotan la transformada de Fourier y la transformada de Fourier inversa, respectivamente. El campo resultante \(f\left(\phi \right)\) es un campo de reproducción complejo, cuya amplitud está relacionada con la intensidad de la imagen reconstruida por \(I\left(\mu ,\nu \right)= {\left |f\left(\phi \right)\right|}^{2}\). Para evaluar la calidad de la imagen percibida, la amplitud del campo de reproducción \({A}_{rpf}\) se compara con la amplitud objetivo \({A}_{target}\) usando una función de pérdida \(\mathcal{ L}\). Aunque las funciones objetivas basadas en la intensidad también se pueden utilizar para la evaluación de la calidad de la imagen, se ha descubierto que las funciones objetivas basadas en la amplitud producen un mejor rendimiento algorítmico y son preferibles en la optimización de hologramas41,42. Por lo tanto, el algoritmo de optimización CGH tiene como objetivo encontrar el holograma de fase cuantificado óptimo \(\widehat{\phi }\) que minimice la función de pérdida \(\mathcal{L}\) que describe la calidad visual, calculada a partir de la amplitud de la imagen reconstruida \ (\left|f\left(\phi \right)\right|\) y la amplitud de la imagen objetivo deseada \({A}_{target}\):

donde \(s\) es un factor de escala para la normalización. El error cuadrático medio (MSE) para \(m\) por \(n\) puntos de muestreo se usa comúnmente como función de pérdida, calculada promediando las diferencias de amplitud al cuadrado de los píxeles de la imagen reconstruida y de destino:

En el paso hacia atrás, el modelo calcula el gradiente \(\partial \mathcal{L}/\partial {\phi }^{k-1}\) de la función de pérdida con respecto a la estimación actual del holograma de fase \( {\phi }^{k-1}\) para actualizar la siguiente fase de estimación \({\phi }^{k}\). El gradiente se puede calcular mediante la regla de la cadena, que implica el cálculo de derivadas complejas:

En el análisis complejo, el requisito holomórfico para que las funciones sean diferenciables complejas es muy estricto. El cálculo de Wirtinger relaja este requisito y permite calcular más fácilmente derivadas complejas aproximadas de funciones no holomorfas utilizando un sistema de coordenadas conjugadas21,43,44. Recientemente, el cálculo de Wirtinger se ha implementado en paquetes de diferenciación automática en bibliotecas de aprendizaje automático como TensorFlow y PyTorch. Estos paquetes de diferenciación automática mantienen un registro de todos los datos y operaciones que se han realizado en el paso hacia adelante en un gráfico acíclico directo y calculan automáticamente los gradientes utilizando la regla de la cadena. Para una tasa de aprendizaje \(\eta\), el siguiente holograma de fase estimada \({\phi }^{\left(k\right)}\) viene dado por:

Varias estrategias de actualización, como Adagrad45 y Adam46, proponen reglas de actualización de la tasa de aprendizaje para mejorar la precisión y la velocidad de convergencia.

Los IQM desempeñan un papel vital en el desarrollo y optimización de algoritmos de procesamiento y restauración de imágenes. Generalmente, los IQM se pueden clasificar en métodos de referencia completa, métodos de referencia reducida y métodos sin referencia según la disponibilidad de la imagen de referencia original. Dado que la imagen de destino está disponible en el modelo de optimización CGH, solo consideramos los métodos de referencia completa como funciones de pérdida. Los IQM son función de una serie de parámetros, y diferentes implementaciones de IQM pueden producir resultados significativamente diferentes, lo que afecta el rendimiento de la optimización de CGH. Por lo tanto, consideramos diez IQM de referencia completa diferenciables de las bibliotecas existentes IQA37 y PIQ47, comparadas con bases de datos comunes, que creemos que incluyen una amplia gama de IQM de referencia completa de última generación. También incluimos MAE y MSE como estándares para comparación. Por lo tanto, esta colección IQM incluye tres métodos de visibilidad de errores: MSE, MAE y NLPD33, seis métodos de similitud estructural: SSIM26, MS-SSIM48, FSIM49, MS-GMSD50, VSI51, HaarPSI52, un método teórico de la información: VIF53 y dos métodos de aprendizaje. Métodos basados ​​en: LPIPS25 y DISTS54. Los métodos de visibilidad de errores calculan el error de la imagen píxel por píxel. Los métodos de similitud estructural consideran la variación percibida, incluida la luminancia, el contraste y la estructura, para evaluar la distorsión de la imagen. Los métodos de teoría de la información cuantifican la cantidad de pérdida de información en las imágenes distorsionadas con respecto a las imágenes objetivo. Los métodos basados ​​en el aprendizaje proponen redes neuronales entrenadas con numerosas imágenes para evaluar la calidad de la imagen. La Tabla 1 resume la biblioteca de IQM considerados, así como el principio subyacente. El IQM se reformula cuando es necesario para que una puntuación más baja indique una mayor calidad prevista. Por ejemplo, si el IQM seleccionado es \(SSIM\), entonces \(\mathcal{L}\) se reescribe como \({\mathcal{L}}_{SSIM}= 1 - SSIM\).

Generamos CGH para 100 imágenes de alta resolución en el conjunto de datos DIV2K55,56 preprocesados ​​para dar una amplitud objetivo monocromática que se muestra en la Fig. 2. Esto se hace para cada IQM y, por lo tanto, generamos un conjunto de datos con un total de 1200 hologramas. En cada caso, propagamos hacia adelante, comparamos con el objetivo y luego propagamos hacia atrás para obtener el gradiente para la pérdida de IQM, que utiliza el optimizador Adam para encontrar iterativamente el holograma de fase óptimo. En todos los casos utilizamos el optimizador Adam con un tamaño de paso de 0,05 y tasas de caída exponencial predeterminadas de β1 = 0,9 y β2 = 0,999. El número total de iteraciones se establece empíricamente en 1000 y las 15 iteraciones iniciales utilizan MSE como función de pérdida. Aplicamos este paso de preprocesamiento básico ya que las predicciones iniciales pueden tener un impacto significativo en el rendimiento de algunos IQM. Este paso es necesario para producir resultados de optimización aceptables y reducir el tiempo de capacitación para los IQM basados ​​en el aprendizaje. Durante cada iteración, normalizamos la amplitud del campo de reproducción ya que varios IQM requieren datos de entrada dentro del rango [0, 1].

Amplitudes de la imagen de destino monocromática del conjunto de datos DIV2K.

La generación CGH se realiza en una máquina con una CPU Intel i7-8700 a 3,20 GHz y una GPU GeForce GTX 1080. PyTorch 1.9.0 y CUDA 10.2 se utilizan para implementar la optimización del descenso de gradiente de amplitud compleja en la GPU. La computación requiere aproximadamente 190 horas de GPU para generar los 1200 hologramas necesarios para evaluar los 12 IQM. Los detalles de la capacitación y el tiempo de cálculo para cada pérdida de IQM se incluyen en el material complementario.

Para verificar la calidad de nuestra imagen a partir de la simulación, desarrollamos un sistema de visualización óptica física. Mostramos los hologramas en un SLM y reconstruimos ópticamente los campos de reproducción capturados con una cámara. El sistema de proyección holográfica propuesto se muestra en la Fig. 3. Nuestro sistema utiliza un SLM de solo fase de 8 bits (FSLM-2K55-P) con un tamaño de píxel de 6,4 µm y una resolución de 1920 × 1080. El SLM está hecho por la empresa del Instituto de Óptica y Mecánica de Precisión de Xi'an y está precalibrado de fábrica en modo de reflexión. El primer brazo consta de una fuente láser de 532 nm (Thorlabs CPS532), una placa de media onda, un sistema de lentes 4F y un polarizador. El sistema de lentes 4F consta de dos lentes (lente 1 y lente 2) con distancias focales de 13 mm y 75 mm respectivamente, que se utilizan para expandir el haz. Luego, el haz expandido se polariza linealmente e ilumina el SLM. El segundo brazo comprende un divisor de haz y un sistema de lentes 4F con un filtro espacial para reducir el componente DC del campo de reproducción y otros órdenes de difracción superiores no deseados. Las distancias focales de estas dos lentes (lente 3 y lente 4) son 30 mm y 50 mm. El segundo brazo se ajusta para proyectar las imágenes reconstruidas en el sensor de la cámara. Se puede insertar un filtro de densidad neutra en el segundo brazo para reducir la intensidad del campo de repetición.

Configuración del sistema de visualización holográfica. (a) Nuestro prototipo de pantalla de hardware con una cámara Canon para adquisición de imágenes. (b) Diagrama esquemático del sistema óptico.

Las imágenes reconstruidas se capturan con una cámara Canon EOS 6D sin lente de cámara adjunta. La resolución de salida de la cámara es 5472 por 3648 con una configuración de ganancia de ISO 125 para minimizar el ruido del amplificador. Para una comparación justa, realizamos una calibración de la cámara utilizando un holograma de patrón de cuadrícula circular reconstruido y ajustamos la media de los valores de amplitud de la imagen capturada para que coincidan con los valores de amplitud de la imagen objetivo. Las imágenes de destino se recortan a 1680 × 960 píxeles para que coincidan con las imágenes capturadas experimentalmente. Todas las imágenes reconstruidas se promedian en tres imágenes capturadas en sRGB, el espacio de color nativo de la cámara. Además, aplicamos el proceso de linealización de la imagen que convierte la imagen capturada de intensidad sRGB en amplitud de espacio lineal monocromático13,57.

Para diferenciar subjetivamente las variaciones de calidad de los modelos probados, recopilamos juicios de percepción humana empleando un método de elección forzada de 2 alternativas (2AFC). El experimento pide a los sujetos que indiquen cuál de las dos imágenes distorsionadas está perceptivamente más cerca de la imagen de referencia. La Figura 4 ilustra la interfaz de este experimento: se presenta simultáneamente un triplete de imágenes con un par de imágenes capturadas experimentalmente y la imagen de referencia correspondiente. Se pide a los sujetos que seleccionen la mejor imagen entre dos distorsionadas. Después de la selección, dos nuevas imágenes capturadas experimentalmente, optimizadas según diferentes pérdidas de IQM, aparecen en la pantalla superior en orden aleatorio de izquierda a derecha. Se indica el progreso y hay disponible una función de pausa para reducir la fatiga visual. La pantalla tiene una resolución de 1920 × 1080 píxeles, con una resolución de imagen mostrada de \(875\veces 500\). La interfaz de usuario admite una función de zoom para una inspección cuidadosa de los detalles de la imagen.

La interfaz de usuario para recopilar opiniones humanas sobre la optimización CGH basada en IQM. El par de imágenes capturadas experimentalmente a partir de dos pérdidas de IQM y la imagen de referencia correspondiente se muestran en el cuadro azul y verde respectivamente.

Los participantes son en su mayoría estudiantes universitarios y reciben instrucciones adecuadas, incluida una explicación del procedimiento experimental y una sesión de demostración. Para evitar la fatiga, pausamos la interfaz de usuario cada 15 minutos y permitimos que los sujetos tomen un descanso en cualquier momento durante el experimento. Los experimentos se realizan con un nivel de luz interior normal con condiciones ambientales variables razonables de acuerdo con las recomendaciones de ITU-R BT 50058. Este experimento subjetivo fue aprobado por el comité de Ética de Investigación en Ingeniería de Cambridge y se llevó a cabo de acuerdo con la Declaración de Helsinki. Obtuvimos el consentimiento informado y recopilamos comparaciones pareadas de 20 sujetos. Cada sujeto respondió a todas las combinaciones posibles de imágenes generadas para un par de imágenes objetivo, haciéndolo para diez pares de imágenes objetivo, produciendo \(\left(\genfrac{}{}{0pt}{}{12}{2}\ derecha)\veces 10=660\) estímulos. Los datos, incluido el tiempo dedicado a cada juicio, el orden de visualización de las imágenes emparejadas y los resultados de las comparaciones por pares, se guardan para su análisis. La imagen preferida del par mostrado contribuye con un punto a la puntuación de su pérdida de IQM. Por lo tanto, para las 10 imágenes de muestra seleccionadas, cada comparación pareada podría recibir de 0 a 10 puntos como puntuación subjetiva del sujeto. Para excluir resultados anormales, verificamos varios centinelas en cada dato de observación que consisten en pares con un contraste de calidad visual obvio. En total, recibimos 13.200 sentencias en 12 pérdidas de IQM, y cada pérdida se clasifica 1.100 veces. El tiempo medio para un juicio es de aproximadamente 3 s.

Empleamos el modelo Bradley-Terry59,60 para agregar comparaciones por pares y obtener una clasificación global de las pérdidas de IQM para la optimización de CGH basada en los datos subjetivos. A partir de los ordenamientos parciales proporcionados en los datos, deseamos inferir no solo el orden de clasificación de las pérdidas probadas sino también las puntuaciones subjetivas de calidad visual asociadas con las pérdidas mismas. Si denotamos \(s=[{s}_{1},{s}_{2},{s}_{3},\dots {s}_{m}]\) como puntuaciones subjetivas de los evaluados Pérdidas IQM, el modelo Bradley-Terry supone que la probabilidad de elegir la pérdida \(i\) sobre la pérdida \(j\) es:

Dado el número observado de veces que la pérdida IQM \(i\) se ve favorecida sobre la pérdida IQM \(j\) como \({w}_{ij}\), entonces podemos obtener la probabilidad de \(i\) sobre \(j\) como \({p}_{ij}^{{w}_{ij}}\). Por lo tanto, asumiendo que los resultados de cada comparación pareada son estadísticamente independientes, la función de probabilidad de todos \((i, j)\) pares se define por:

La puntuación subjetiva para la pérdida de IQM \({s}_{i}\) se puede estimar conjuntamente maximizando la probabilidad logarítmica de todas las observaciones de comparación por pares:

Los resultados de la reconstrucción simulada basados ​​en modelos de optimización IQM se muestran en la Fig. 5. Los hologramas de fase correspondientes, así como los resultados experimentales capturados en el espacio sRGB, se muestran en la segunda y tercera filas respectivamente.

Resultados simulados y capturados para la optimización de CGH utilizando doce pérdidas IQM diferentes. Mostramos la imagen reconstruida en la parte superior para cada pérdida con el holograma de fase en el medio y sus correspondientes resultados capturados en la parte inferior.

Primero hacemos una comparación cualitativa entre todos los métodos optimizados para IQM para obtener resultados experimentales. Como se muestra en la Fig. 6, la mayoría de los modelos de optimización basados ​​en IQM convergen en una calidad visual razonable. Observamos que MAE, MSE, NLPD, SSIM y MS-SSIM funcionan bien pero tienen ruido local indeseable, que se puede observar en los parches de imagen seleccionados de las imágenes reconstruidas. FSIM y VIF amplifican la información de alta frecuencia, lo que lleva a una mejora estructural excesiva. VSI, MS-GMSD y HaarPSI preservan las estructuras generales con una apariencia suave, pero reducen artificialmente el contraste local con artefactos notables. Los modelos basados ​​en métodos de aprendizaje profundo como LPIPS y DISTS pueden recuperar los detalles de la imagen de destino pero superponer texturas a la imagen.

Resultados de reconstrucción capturados. Para las imágenes de destino, mostramos hologramas de fase optimizados por pérdidas IQM. Los resultados de las reconstrucciones de las pérdidas de IQM se capturan con nuestro prototipo de pantalla holográfica para comparar la calidad de la imagen.

Las imágenes reconstruidas ópticamente exhiben ruido de moteado láser y están sujetas a aberraciones ópticas, lo que da como resultado algunos artefactos comunes notables en todos los IQM, incluidos efectos fantasma y ondulantes. El rango dinámico de la cámara es limitado y las imágenes capturadas son propensas a sufrir distorsiones fotométricas, incluido un contraste y una saturación reducidos.

Utilizamos los IQM propuestos como medidas de calidad para evaluar el rendimiento de la optimización CGH basada en el descenso de gradiente utilizando diferentes pérdidas de IQM. Todos los IQM se utilizan para evaluar objetivamente los resultados capturados. Las puntuaciones se promedian sobre las 100 imágenes para cada métrica y para cada pérdida basada en IQM que se muestra en la Tabla 2. Cada elemento indica la puntuación de una pérdida de IQM evaluada utilizando otro IQM como predictor de calidad.

Al inspeccionar cada fila de la tabla de métricas, encontramos que MAE, NLPD, SSIM y MS-SSIM mantienen el mejor rendimiento entre todas las pérdidas de IQM como lo predijo previamente la comparación cualitativa. La pérdida de MS-SSIM produce una calidad de reconstrucción superior y objetivamente se ubica como el modelo de optimización CGH basado en IQM con mejor rendimiento en la mayoría de las métricas de evaluación, mientras que FSIM se ubica como el método menos preferido. Varias otras pérdidas de IQM, incluidas NLPD, MAE, SSIM, HaarPSI y MS-GMSD, también superan la pérdida de MSE, lo que valida objetivamente el uso de IQM para la optimización de CGH.

Dado que la biblioteca PIQ implementa sus propias métricas SSIM y MS-SSIM para la evaluación de la calidad de la imagen, podemos evaluar aún más nuestros modelos de mayor rendimiento utilizando estas métricas, como se muestra en la Tabla 3. Aunque tanto las bibliotecas IQA como PIQ se han comparado en un conjunto de bases de datos comunes y tienen resultados de clasificación casi consistentes en la evaluación del modelo, existe desacuerdo con los valores reales de la evaluación del desempeño, y la biblioteca IQM generalmente obtiene puntuaciones más bajas. Por lo tanto, en ausencia de una implementación IQM estándar, resulta más difícil comparar el rendimiento de diferentes algoritmos.

Implementamos el modelo Bradley-Terry en R para resolver iterativamente la ecuación dada (Ec. (8) y obtenga la estimación óptima \({s}_{i}\) para cada modelo. Las puntuaciones del modelo Bradley-Terry se normalizan cambiando a medias cero, lo que da como resultado una clasificación global del rendimiento de optimización perceptual. Además, realizamos pruebas t independientes de dos colas y dos muestras para investigar si las diferencias entre el rendimiento subjetivo de las pérdidas de IQM son estadísticamente significativas. Específicamente, consideramos que las observaciones obtenidas de los participantes se distribuyen normalmente bajo la hipótesis nula y comparamos las puntuaciones de clasificación para cualquiera de las dos pérdidas. Si la comparación no puede rechazar la hipótesis nula de que no hay diferencias en el nivel de significancia estándar \(\alpha =0.05,\), colocamos las pérdidas evaluadas en el mismo grupo ya que son estadísticamente indistinguibles. La Figura 7 muestra el diagrama de dispersión del rendimiento objetivo y subjetivo combinado de las pérdidas de IQM probadas para la optimización de CGH. Los puntos de dispersión del mismo color están en el mismo grupo de significación estadística para las pruebas subjetivas. La puntuación de clasificación global objetiva para cada pérdida de IQM se puede obtener sumando órdenes de clasificación de todas las métricas de calidad derivadas de la Tabla 2 y normalizándolas a media cero. Las puntuaciones se han reformulado para garantizar que una puntuación más alta indique una calidad prevista más alta.

Comparación cuantitativa de la optimización CGH basada en IQM. Los puntos de dispersión representan las pérdidas por optimización de CGH. Los puntos del mismo color son estadísticamente indistinguibles para resultados subjetivos. Los ejes vertical y horizontal indican el desempeño objetivo y el desempeño subjetivo de cada pérdida respectivamente.

El diagrama de dispersión indica que MS-SSIM es la función de pérdida de mayor rango, según lo acordado por evaluaciones tanto subjetivas como objetivas. Las pérdidas NLPD y SSIM son estadísticamente indistinguibles de la pérdida MSE para el rendimiento subjetivo. La pérdida MSE logra inesperadamente un mayor rendimiento en la prueba subjetiva que HaarPSI y las pérdidas MAE, a pesar de tener un rendimiento mucho peor en el rendimiento objetivo. También se produce una tendencia similar en las pérdidas de VSI y VIF frente a las pérdidas de FSIM. Este desacuerdo se debe a diferentes estrategias de ponderación objetivas y subjetivas sobre la similitud de la estructura de la imagen, la suavidad de la imagen, la luminancia y el contraste.

Además, calculamos el coeficiente de correlación de orden de rango (SRCC) de Spearman entre puntuaciones objetivas y subjetivas, como se muestra en la Tabla 4. Las puntuaciones SRCC más altas indican una mejor correlación de una métrica con calificaciones subjetivas. Aunque la mayoría de las métricas de calidad de imagen modernas muestran un rendimiento superior en las bases de datos de imágenes existentes, observamos que para CGH tienen menos correlación que las métricas basadas en errores de píxeles con los juicios humanos. Esto puede deberse a que las bases de datos de imágenes más comunes para la evaluación comparativa, como LIVE61, TID200862 y TID201363, comprenden imágenes de origen con imágenes distorsionadas sintéticamente. Los tipos de distorsión sintética, incluido el ruido blanco gaussiano, la compresión JPEG2000 y el desenfoque gaussiano con distintos niveles de distorsión, intentan reflejar diversas deficiencias de la imagen que se encuentran en el procesamiento de imágenes. Las imágenes experimentales reconstruidas con CGH, como las que se ven aquí, pueden ser bastante más complejas y se producen más tipos de distorsiones durante la reconstrucción óptica y la adquisición de imágenes. Además, los CGH están predominantemente contaminados por el ruido, mientras que algunos IQM se desarrollaron para reconocer objetos borrosos, inferir detalles en objetos borrosos o tareas de imágenes de súper resolución. Los IQM actuales no están bien evaluados específicamente para esas distorsiones del mundo real y del CGH. Para una iluminación de luz coherente parcial en el sistema óptico holográfico que podría generar un efecto más borroso y una reducción del contraste en el campo de reproducción57,64, los IQM modernos pueden aprovechar la inferencia de información borrosa y con contraste reducido. Por lo tanto, el uso de IQM puede tener potencialmente un mejor rendimiento en pantallas holográficas coherentes parciales.

En este trabajo, hemos realizado un estudio exhaustivo del rendimiento en el mundo real del uso de IQM como funciones de pérdida en el proceso de optimización de CGH. Al realizar una evaluación comparativa con un conjunto de datos de reconstrucción óptica estándar, hemos recopilado los resultados de la aplicación de 12 IQM distintos como funciones de pérdida en calificaciones tanto objetivas como subjetivas. Los resultados del estudio comparativo muestran que las pérdidas IQM pueden lograr una mejor calidad de imagen que la pérdida MSE al generar hologramas, y la pérdida MS-SSIM supera a todas las demás pérdidas. Esta extensa comparación proporciona orientación para encontrar una función de pérdida motivada perceptualmente específica para la generación de CGH.

Más allá de este estudio, las pérdidas individuales de IQM se pueden combinar aún más en función de su complementariedad para incorporar las distorsiones específicas de CGH. Reconocemos que nuestro análisis se limita a la reconstrucción de hologramas 2D. Para aplicaciones holográficas 3D, los autores creen que existen varias extensiones del trabajo realizado en este estudio, como el uso de distorsión borrosa, que podría ser un factor de percepción importante a considerar en la optimización de hologramas.

Los conjuntos de datos generados y/o analizados durante el estudio actual están disponibles en el repositorio de GitHub, https://github.com/fy255/perceptual_cgh.

El código para la generación y evaluación de hologramas está disponible públicamente en el repositorio de GitHub, https://github.com/fy255/perceptual_cgh. Hay códigos adicionales disponibles de los autores correspondientes previa solicitud razonable.

Huang, C. y col. Superficies MIMO holográficas para redes inalámbricas 6G: oportunidades, desafíos y tendencias. Cable IEEE. Comunitario. 27, 118 (2020).

Artículo de Google Scholar

Li, L. y col. Hologramas de metasuperficie de codificación electromagnética reprogramable. Nat. Comunitario. 8, 1–7 (2017).

Anuncios Google Scholar

Marquet, P. y col. Microscopía holográfica digital: una técnica de imágenes de contraste no invasiva que permite la visualización cuantitativa de células vivas con precisión axial por debajo de la longitud de onda. Optar. Letón. 30(5), 468–470 (2005).

Artículo ADS PubMed Google Scholar

Maimone, A., Georgiou, A. y Kollin, JS Pantallas holográficas cercanas al ojo para realidad virtual y aumentada. Transmisión ACM. Grafico. (TOG) 36, 1-16 (2017).

Artículo de Google Scholar

Yaraş, F., Kang, H. & Onural, L. Estado del arte en pantallas holográficas: un estudio. IEEE/OSA J. Tecnología de visualización. 6, 443 (2010).

ADS del artículo Google Scholar

Hsueh, CK & Sawchuk, AA Hologramas de doble fase generados por computadora. Aplica. Optar. 17, 3874 (1978).

Artículo ADS CAS PubMed Google Scholar

Tsang, PWM, Cheung, WK, Poon, T.-C. & Zhou, C. Método novedoso para convertir un holograma digital de Fresnel en un holograma de sólo fase basado en la difusión de errores bidireccional. Optar. Exp. 21(20), 23680–23686 (2013).

Artículo CAS Google Scholar

Eschbach, R. Comparación de métodos de difusión de errores para hologramas generados por computadora. Aplica. Optar. 30, 3702–3710 (1991).

Artículo ADS CAS PubMed Google Scholar

Pang, H. y col. Generación de hologramas de Fourier de fase única y no iterativa con alta calidad de imagen. Optar. Exp. 25, 14323–14333 (2017).

Artículo de Google Scholar

Buckley, E. Artículo invitado: Tecnología de proyección láser holográfica. Simposios SID. Digerir. Tecnología. Papilla. 39, 1074-1079 (2008).

Artículo de Google Scholar

Cable, AJ y cols. Generación de hologramas binarios en tiempo real para aplicaciones de proyección de vídeo de alta calidad. Simposios SID. Tecnología de resumen. Papilla. 35, 1431-1433 (2004).

Artículo de Google Scholar

Shi, L., Li, B., Kim, C., Kellnhofer, P. y Matusik, W. Hacia una holografía 3D fotorrealista en tiempo real con redes neuronales profundas. Naturaleza 591, 234–239 (2021).

Artículo ADS CAS PubMed Google Scholar

Peng, Y., Choi, S., Padmanaban, N. y Wetzstein, G. Holografía neuronal con entrenamiento con cámara en bucle. Transmisión ACM. Grafico. 39, 1-14 (2020).

Artículo de Google Scholar

Eybposh, MH, Caira, NW, Atisa, M., Chakravarthula, P. & Pégard, NC DeepCGH: holografía 3D generada por computadora mediante aprendizaje profundo. Optar. Exp. 28, 26636–26650 (2020).

Artículo CAS Google Scholar

Seldowitz, MA, Allebach, JP & Sweeney, DW Síntesis de hologramas digitales mediante búsqueda binaria directa. Aplica. Optar. 26, 2788–2798 (1987).

Artículo ADS CAS PubMed Google Scholar

Kirk, AG y Hall, TJ Diseño de hologramas binarios generados por computadora mediante recocido simulado: densidad de codificación y error de reconstrucción. Optar. Comunitario. 94, 491–496 (1992).

ADS del artículo Google Scholar

Gerchberg, RW & Saxton, WO Un algoritmo práctico para la determinación de fase a partir de imágenes y planos de difracción. Optik (Stuttg) 35, 237–246 (1971).

Google Académico

Fienup, JR Algoritmos de recuperación de fase: una comparación. Aplica. Optar. 21, 2758–2769 (1982).

Artículo ADS CAS PubMed Google Scholar

Bauschke, HH, Combettes, PL y Luke, DR Método híbrido de proyección-reflexión para recuperación de fase. JOSÉ A 20, 1025-1110 (2003).

Artículo ADS PubMed Google Scholar

Liu, S. y Takaki, Y. Optimización de hologramas generados por computadora de fase única basados ​​en el método de descenso de gradiente. Aplica. Ciencia. 10, 4283 (2020).

Artículo CAS Google Scholar

Chakravarthula, P., Peng, Y., Kollin, J., Fuchs, H. y Heide, F. Holografía de Wirtinger para pantallas cercanas al ojo. Transmisión ACM. Grafico. (TOG) 38, 1-13 (2019).

Artículo de Google Scholar

Chakravarthula, P., Tseng, E., Srivastava, T., Fuchs, H. y Heide, F. Recuperación de fase de hardware en el bucle aprendida para pantallas holográficas cercanas al ojo. Transmisión ACM. Grafico. (TOG) 39, 1-18 (2020).

Artículo de Google Scholar

Chen, C. y col. Generación de hologramas de profundidad múltiple mediante un algoritmo de descenso de gradiente estocástico con función de pérdida compleja. Optar. Exp. 29, 15089–15103 (2021).

Artículo CAS Google Scholar

Zhang, J., Pégard, N., Zhong, J., Adesnik, H. & Waller, L. Holografía generada por computadora en 3D mediante optimización no convexa. Óptica 4, 1306-1313 (2017).

ADS del artículo Google Scholar

Zhang, R., Isola, P., Efros, AA, Shechtman, E. y Wang, O. La eficacia irrazonable de los rasgos profundos como métrica perceptiva. en la Conferencia IEEE/CVF de 2018 sobre visión por computadora y reconocimiento de patrones (CVPR). 586–595. https://doi.org/10.1109/CVPR.2018.00068 (2018).

Wang, Z., Bovik, AC, Sheikh, HR y Simoncelli, EP Evaluación de la calidad de la imagen: de la visibilidad del error a la similitud estructural. Traducción IEEE. Proceso de imagen. 13, 600–612 (2004).

Artículo ADS PubMed Google Scholar

Wang, Z. & Bovik, AC Error cuadrático medio: ¿lotearlo o dejarlo? Una nueva mirada a las medidas de fidelidad de la señal. Proceso de señal IEEE. revista 26, 98-117 (2009).

ADS del artículo Google Scholar

Johnson, J., Alahi, A. y Fei-Fei, L. Pérdidas de percepción por transferencia de estilo en tiempo real y superresolución. en Apuntes de conferencias en informática (incluidas las subseries Apuntes de conferencias sobre inteligencia artificial y Apuntes de conferencias sobre bioinformática). vol. 9906. LNCS. 694–711. (2016).

Rivenson, Y., Zhang, Y., Günaydın, H., Teng, D. & Ozcan, A. Recuperación de fase y reconstrucción de imágenes holográficas mediante aprendizaje profundo en redes neuronales. Ciencia ligera. Aplica. 7, 17141–17141 (2017).

ADS del artículo Google Scholar

Ahar, A. et al. Análisis integral del desempeño de métricas de calidad objetivas para holografía digital. Proceso de señal. Imagen Comunitaria. 97, 116361 (2021).

Artículo de Google Scholar

Ahar, A. et al. Evaluación subjetiva de la calidad de hologramas comprimidos reconstruidos numéricamente. en Actas de SPIE 9599, Aplicaciones del procesamiento de imágenes digitales XXXVIII, 95990K (22 de septiembre de 2015). vol. 9599, 188–202. (2015).

Blinder, D. y col. Desafíos del procesamiento de señales para sistemas de visualización de video holográfico digital. Proceso de señal. Imagen Comunitaria. 70, 114-130 (2019).

Artículo de Google Scholar

Laparra, V. et al. Evaluación de la calidad de la imagen perceptual utilizando una pirámide laplaciana normalizada. en Actas del Simposio internacional de IS&T sobre imágenes electrónicas: visión humana e imágenes electrónicas, 2016. Vol. núm. 28. 1–6. (2016).

Chakravarthula, P. et al. Supresión de manchas retinianas dependiente de la mirada para visualizaciones holográficas foveadas perceptualmente coincidentes. Traducción IEEE. Vis. Computadora. Grafico. 27, 4194–4203 (2021).

Artículo PubMed Google Scholar

Walton, DR y cols. Holografía varifocal metamérica. Preimpresión en https://arxiv.org/abs/2110.01981 (2021).

Jo, Y., Yang, S. y Kim, SJ Investigación de funciones de pérdida para superresolución extrema. en la Conferencia IEEE/CVF de 2020 sobre talleres de reconocimiento de patrones y visión por computadora (CVPRW). 1705-1712. (2020). https://doi.org/10.1109/CVPRW50498.2020.00220.

Ding, K., Ma, K., Wang, S. y Simoncelli, EP Comparación de modelos de calidad de imagen de referencia completa para la optimización de sistemas de procesamiento de imágenes. En t. J. Computación. Vis. 129, 1258–1281 (2021).

Artículo PubMed PubMed Central Google Scholar

Mustafa, A., Mikhailiuk, A., Iliescu, DA, Babbar, V. y Mantiuk, RK Entrenamiento de una tarea específica de pérdida de reconstrucción de imágenes. en 2022 Conferencia de invierno IEEE/CVF sobre aplicaciones de visión por computadora (WACV). 21–30. (2022). https://doi.org/10.1109/WACV51458.2022.00010.

Goodman, JW Introducción a la óptica de Fourier 3ª ed. (Roberts y Company Publishers, 2005).

Google Académico

Matsushima, K. & Shimobaba, T. Método de espectro angular de banda limitada para la simulación numérica de la propagación en el espacio libre en campos lejanos y cercanos. Optar. Exp. 17, 19662-19673 (2009).

Artículo CAS Google Scholar

Sí, L.-H. et al. Robustez experimental de los algoritmos de recuperación de fase de ptografía de Fourier. Optar Exp. 23, 33214–33240 (2015).

Artículo de Google Scholar

Cao, L. & Gao, Y. Marco de optimización generalizado para imágenes de superresolución de píxeles en holografía digital. Optar. Exp. 29, 28805–28823 (2021).

Artículo de Google Scholar

Paszke, A. et al. PyTorch: una biblioteca de aprendizaje profundo de alto rendimiento y estilo imperativo. en Avances en sistemas de procesamiento de información neuronal (eds. Wallach, H. et al.). vol. 32. 8024–8035. (Curran Associates, Inc., 2019).

Candès, EJ, Li, X. & Soltanolkotabi, M. Recuperación de fase mediante flujo de Wirtinger: teoría y algoritmos. Traducción IEEE. inf. Teoría 61, 1985-2007 (2015).

Artículo MathSciNet MATEMÁTICAS Google Scholar

Duchi, J. & Singer, Y. Métodos adaptativos de subgradiente para el aprendizaje en línea y optimización estocástica * Elad Hazan. J. Mach. Aprender. Res. 12, 2121-2159 (2011).

MathSciNet MATEMÁTICAS Google Scholar

Kingma, DP & Ba, JL Adam: Un método para la optimización estocástica. en la Tercera Conferencia Internacional sobre Representaciones del Aprendizaje, ICLR 2015-Conference Track Proceedings (2015).

Kastryulin, S., Zakirov, D. y Prokopenko, D. Calidad de imagen de PyTorch: métricas y medidas para la evaluación de la calidad de la imagen. (2019).

Wang, Z., Simoncelli, EP y Bovik, AC Similitud estructural multiescala para la evaluación de la calidad de la imagen. Trigésimo Séptimo Asilomar Conf. Sistema de señales. Computadora. 2, 1398-1402 (2003).

Google Académico

Zhang, L., Zhang, L., Mou, X. y Zhang, D. FSIM: un índice de similitud de características para la evaluación de la calidad de la imagen. Traducción IEEE. Proceso de imagen. 20, 2378–2386 (2011).

Artículo ADS MathSciNet PubMed MATH Google Scholar

Zhang, B., Sander, P. v. & Bermak, A. Desviación de similitud de magnitud del gradiente en múltiples escalas para la evaluación de la calidad de la imagen en color. en la Conferencia Internacional IEEE de 2017 sobre Acústica, Habla y Procesamiento de Señales (ICASSP). 1253-1257. (2017). https://doi.org/10.1109/ICASSP.2017.7952357.

Zhang, L., Shen, Y. & Li, H. VSI: un índice inducido por la prominencia visual para la evaluación de la calidad de la imagen perceptiva. Traducción IEEE. Proceso de imagen. 23, 4270–4281 (2014).

Artículo ADS MathSciNet PubMed MATH Google Scholar

Reisenhofer, R., Bosse, S., Kutyniok, G. & Wiegand, T. Un índice de similitud perceptual basado en ondas de Haar para la evaluación de la calidad de la imagen. Proceso de señal. Imagen Comunitaria. 61, 33–43 (2018).

Artículo de Google Scholar

Sheikh, HR & Bovik, AC Información de imagen y calidad visual. Traducción IEEE. Proceso de imagen. 15, 430–444 (2006).

Artículo ADS PubMed Google Scholar

Ding, K., Ma, K., Wang, S. y Simoncelli, EP Evaluación de la calidad de la imagen: estructura unificadora y similitud de textura. en Transacciones IEEE sobre análisis de patrones e inteligencia artificial. 1–1. (2020). https://doi.org/10.1109/TPAMI.2020.3045810.

Timofte, R., Gu, S., van Gool, L., Zhang, L. & Yang, MH NTIRE 2018 desafío sobre superresolución de imagen única: métodos y resultados. en la Conferencia de la IEEE Computer Society sobre talleres de reconocimiento de patrones y visión por computadora 2018-junio. 965–976. (2018).

Agustsson, E. & Timofte, R. NTIRE 2017 Desafío sobre superresolución de imagen única: conjunto de datos y estudio. en la Conferencia de la IEEE Computer Society sobre talleres de reconocimiento de patrones y visión por computadora 2017-julio. págs. 1122-1131 (2017).

Lee, B., Kim, D., Lee, S., Chen, C. y Lee, B. Holografía 3D verdadera, sin manchas y de alto contraste mediante optimización binaria CGH. Ciencia. Rep. 12, 1-12 (2022).

Anuncios Google Scholar

UIT-R. Metodologías para la Evaluación Subjetiva de la Calidad de las Imágenes de Televisión. https://www.itu.int/rec/R-REC-BT.500 (2002).

Bradley, RA & Terry, ME Análisis de rangos de diseños de bloques incompletos: I. El método de comparaciones pareadas. Biometrika 39, 324 (1952).

MathSciNet MATEMÁTICAS Google Scholar

Turner, H. & Firth, D. Modelos Bradley-Terry en R: el paquete BradleyTerry2. J. estadística. Software. 48, 1-21 (2012).

Artículo de Google Scholar

Sheikh, HR, Sabir, MF y Bovik, AC Una evaluación estadística de algoritmos recientes de evaluación de la calidad de imagen de referencia completa. Traducción IEEE. Proceso de imagen. 15, 3440–3451 (2006).

Artículo ADS PubMed Google Scholar

Ponomarenko, N. y col. TID2008-Una base de datos para la evaluación de métricas de evaluación de la calidad visual de referencia completa. Adv. Modificación. Radioelectrón. 10, 30–45 (2009).

Google Académico

Ponomarenko, N. y col. Base de datos de imágenes TID2013: Peculiaridades, resultados y perspectivas. Proceso de señal. Imagen Comunitaria. 30, 57–77 (2015).

Artículo de Google Scholar

Peng, Y., Choi, S., Kim, J. y Wetzstein, G. Holografía sin manchas con fuentes de luz parcialmente coherentes y calibración de cámara en bucle. Ciencia. Adv. 7, 5040 (2021).

ADS del artículo Google Scholar

Descargar referencias

FY desea agradecer a VividQ por el apoyo durante el período de esta investigación.

FY desea agradecer la financiación de The Cambridge Trust y del China Scholarship Council. A. Kad. Me gustaría agradecer la financiación del Consejo de Investigación en Ingeniería y Ciencias Físicas. RM desea agradecer al Consejo de Investigación en Ingeniería y Ciencias Físicas (EP/P030181/1) por el apoyo financiero durante el período de esta investigación. Además, BW desea agradecer la financiación del Departamento de Ingeniería de la Universidad de Cambridge (Beca Richard Norman), así como de The Cambridge Trust.

Centro de Materiales Moleculares, Fotónica y Electrónica, Universidad de Cambridge, Cambridge, Reino Unido

Fan Yang, Andrew Kadis, Ralf Mouthaan, Benjamin Wetherfield y Timothy D. Wilkinson

División de Investigación, VividQ Ltd., Cambridge, Reino Unido

Fan Yang y Andrzej Kaczorowski

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

FY concibió la idea original, derivó el modelo matemático, realizó experimentos y escribió el manuscrito. A.Kad. y RF contribuyó a la configuración óptica y proporcionó comentarios sobre el manuscrito. BW contribuyó al diseño del experimento subjetivo y al análisis estadístico. El trabajo fue iniciado y supervisado por A.Kac y TDW. Todos los autores han dado su aprobación a la versión final del manuscrito.

Correspondencia a Timothy D. Wilkinson.

Los autores declaran no tener conflictos de intereses.

Springer Nature se mantiene neutral con respecto a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso Abierto Este artículo está bajo una Licencia Internacional Creative Commons Attribution 4.0, que permite el uso, compartir, adaptación, distribución y reproducción en cualquier medio o formato, siempre y cuando se dé el crédito apropiado al autor(es) original(es) y a la fuente. proporcione un enlace a la licencia Creative Commons e indique si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la normativa legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Yang, F., Kadis, A., Mouthaan, R. et al. Funciones de pérdida motivadas perceptualmente para pantallas holográficas generadas por computadora. Representante científico 12, 7709 (2022). https://doi.org/10.1038/s41598-022-11373-8

Descargar cita

Recibido: 27 de enero de 2022

Aceptado: 14 de abril de 2022

Publicado: 11 de mayo de 2022

DOI: https://doi.org/10.1038/s41598-022-11373-8

Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:

Lo sentimos, actualmente no hay un enlace para compartir disponible para este artículo.

Proporcionado por la iniciativa de intercambio de contenidos Springer Nature SharedIt

Al enviar un comentario, acepta cumplir con nuestros Términos y pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.