Departamento De Computación

Título: Paquete en Python para la reducción de dimensionalidad en imágenes a color.

Autora: Liliam Fernández Cabrera. Cabrera. Tutor: M.Sc. Roberto Díaz Amador.

Santa Clara, Cuba, 2018

Este documento es Propiedad Patrimonial de la Universidad Central “Marta Abreu” de Las Villas, y se encuentra depositado en los fondos de la Biblioteca Universitaria “Chiqui Gómez Lubian” subordinada a la Dirección de Información Científico Técnica de la mencionada casa de altos estudios. Se autoriza su utilización bajo la licencia siguiente: Atribución- No Comercial- Compartir Igual

Para cualquier información contacte con: Dirección de Información Científico Técnica. Universidad Central “Marta Abreu” de Las Villas. Carretera a Camajuaní. Km 5½. Santa Clara. Villa Clara. Cuba. CP. 54 830 Teléfonos.: +53 01 42281503-1419

i

La que suscribe Liliam Fernández Cabrera, hago constar que el trabajo titulado Paquete en Python para la redimensionalidad de imágenes a color fue realizado en la Universidad Central “Marta Abreu” de Las Villas como parte de la culminación de los estudios de la especialidad de Licenciatura en Ciencias de la Computación, autorizando a que el mismo sea utilizado por la institución, para los fines que estime conveniente, tanto de forma parcial como total y que además no podrá ser presentado en eventos ni publicado sin la autorización de la Universidad.

______Firma del Autor

Los abajo firmantes, certificamos que el presente trabajo ha sido realizado según acuerdos de la dirección de nuestro centro y el mismo cumple con los requisitos que debe tener un trabajo de esta envergadura referido a la temática señalada.

______Firma del Tutor Firma del Jefe del Laboratorio

ii

RESUMEN

Un enfoque eficiente de las técnicas del procesamiento digital de imágenes permite dar solución a muchas problemáticas en los campos investigativos que precisan del uso de imágenes para búsquedas de información. Estas imágenes después de ser procesadas tienen una amplia gama de usos en diferentes campos tales como la medicina, en diagnósticos en tomografías digitalizadas de pacientes enfermos; la astrofísica, al determinar estados de la materia en cuerpos celestes muy lejanos, así como la robótica en detección de objetos en tiempo real, entre otros. La reducción de dimensionalidad en imágenes de color a escala de grises como parte del procesamiento digital de imágenes es vital en la percepción humana para observadores con una visión de color deficiente y en el análisis de estas imágenes por los métodos de búsqueda de información. La eficiencia de los algoritmos que utilizan la reducción de dimensionalidad de imágenes a color es vital debido a la importancia de los campos en que se utiliza y a los grandes volúmenes de información que se procesan en sus aplicaciones, por lo que surge la necesidad de un paquete de algoritmos que realice una eficiente reducción de dimensionalidad de imágenes a color. En este trabajo de diploma se evaluarán las posibilidades de implementación de herramientas de reducción de dimensionalidad en imágenes en un paquete en el lenguaje Python que sea no propietario, fácil de utilizar y disponible. En la implementación del paquete se aprovecha la ventaja que ofrece contar con un compendio de los métodos de conversión a escala de grises más importantes desarrollados en este siglo de acuerdo con las publicaciones recientes, al ser esta un área activa de investigación.

iii

ABSTRACT

An efficient approach to digital processing technics allows achieving solutions to problems in diverse investigation field that use digital images for information search. These images after being processed have a wide range of uses in fields like medicine, diagnosing sick patients by digitalized tomographies; astrophysics, detecting matter status in faraway celestial bodies, and robotics, real time object detection, among others. The reduction of color images dimensionality as part of the digital image processing is vital for human perception of images in grayscale to vision deficient human observers and analysis of these grayscale images by knowledge search methods. The efficiency of the algorithms that use dimensionality reduction of color images is fundamental because the huge information volume that needs to be processed; this is why the necessity of an algorithms package that reduces the dimensionality of color images in an efficient and robust way. In this basic degree thesis there will be evaluated the implementation of dimensionality reduction methods in python programming language, which is free software, easy to use, and available. In the package implementation we take advantage of a compendium of state of the art grayscale conversion methods developed in this century, related to recent publications.

iv

TABLA DE CONTENIDOS

INTRODUCCIÓN...... 1

CAPÍTULO 1. GENERALIDADES ...... 4

1.1 La Imagen Digital a Color ...... 4 1.1.1 Imagen Digital ...... 5 1.1.2 Imagen a Color. Espacio de Color ...... 6 1.1.3 Estándares de Colores ...... 9 1.2 Técnicas de Reducción de los Espacios de Color ...... 10 1.2.1 Métodos clásicos de conversión de color a escala de grises...... 11 1.2.2 El Problema de la conversión de color a escala de grises...... 14 1.2.3 Categorías de los métodos en estado-del-arte de C2G...... 16 1.3 Conclusiones del capítulo ...... 26 CAPÍTULO 2. Materiales y Métodos ...... 27

2.1 El Lenguaje Python ...... 27 2.2 Diagrama de las Bibliotecas de Reducción de Dimensionalidad creadas...... 28 2.2.1 Decolorize (Decolor_linear2006) ...... 28 2.2.2 GcsDecolor2 ...... 29 2.2.3 SPDecolor ...... 31 2.2.4 Kim09 (Decolor_nonlinear2009) ...... 33 2.3 Procedimiento de evaluación utilizado...... 34 2.3.1 Diseño del experimento ...... 35 2.3.2 Bases de casos utilizadas ...... 35 2.3.3 Medidas Objetivas ...... 35 2.3.4 Medidas Subjetivas ...... 38 2.4 Análisis Estadístico de los Resultados ...... 38 2.5 Conclusiones del Capítulo ...... 39 v

CAPÍTULO 3. Resultados y Discusión ...... 40

3.1 Evaluación comparativa de los métodos implementados...... 40 3.1.1 Objetiva...... 40 3.1.2 Subjetiva...... 41 3.2 Diseño e implementación del paquete de conversión de imágenes a escala de grises: C2G y la herramienta asociada: C2GApp...... 43 3.2.1 Implementación del paquete de algoritmos C2G ...... 44 3.2.2 Implementación de la aplicación visual C2G_app ...... 45 3.3 Conclusiones del capítulo ...... 47 CONCLUSIONES ...... 48

RECOMENDACIONES ...... 49

BIBLIOGRAFÍA ...... 50

ANEXOS ...... 53

vi

LISTA DE FIGURAS

Figura 1 Ejemplo de separación de canales RGB...... 4 Figura 2 Comparación de cromaticidades encerradas en un espacio de color...... 6 Figura 3 Comparación entre los modelos de color RGB y CMYK. Esta imagen demuestra la diferencia de aspecto de los colores en un monitor de ordenador (RGB) en comparación con su reproducción en CMYK en el proceso de impresión...... 7 Figura 4 Izquierda: Mezcla de colores aditivos (Tres colores superpuestos en un vacío se suman para crear el blanco) Derecha: Mezcla de colores sustractivos (Tres colores en un papel blanco, se restan para volver el papel negro)...... 8 Figura 5 Modelo de color RGB...... 9 Figura 6 Imagen del Monet, de Claude Oscar (Francia, 1840-1926) obra maestra “Impresión del Amanecer” convertida a escala de grises por cinco métodos diferentes: b) la función rgb2gray de Matlab, c) L* del CIEL*a*b*, d) RTCP, e) ApparentGreyscale, f) Kim09...... 11 Figura 7 Conversión de RGB a escala de grises usando el método de suma pesada con los pesos NTSC. De arriba hacia abajo: coordenadas en los cubos RGB en 3D, imágenes RGB originales, imágenes en escala de grises, y sus histogramas...... 12 Figura 8 Conversión de RGB a escala de grises de las mismas tres imágenes de colores usando la capa L* del espacio de color CIEL*a*b*...... 13 Figura 9 Conversión de RGB a escala de grises de las mismas tres imágenes de colores usando la componente L del espacio de color HSL...... 14 Figura 10 Tres parámetros independientes de control son usados: realce de control , selección de escala , supresión de sonido . Ejemplo usando = 0.3, = 25, y = 0.001...... 16 Figura 11 Diagrama de Flujo Decolor_Linear2006 ...... 29 Figura 12 Diagrama de Flujo GcsDecolor2 ...... 31 Figura 13 Diagrama de Flujo SPDecolor ...... 32 Figura 14 Diagrama de Flujo Decolor_nonlinear2009 ...... 34 Figura 15 Las imágenes muestran, en la (a) la imagen original a color, del (b)-(e) las imágenes resultantes de los métodos propuestos y en la (f) la imagen resultante con la preservación de contraste en los pétalos...... 36

vii

Figura 16 Las imágenes muestran, en la (a) las imágenes originales a color, el (b) las imágenes resultantes de los métodos propuestos y en la (c) las imágenes resultantes con CCFR incluido...... 37 Figura 17 Valores de CCPR, CCFR y Marca-E para los cuatro métodos...... 41 Figura 18 Resultados del SPSS para los sujetos 1 y 2 respectivamente...... 41 Figura 19 Resultados del SPSS para los sujetos 3 y 4 respectivamente...... 41 Figura 20 Imagen principal de la aplicación...... 45 Figura 21 Muestra del trabajo con imágenes...... 45 Figura 22 Muestra de las medidas de evaluación...... 46 Figura 23 Muestra de los algoritmos de transformación...... 46 Figura 24 Muestra seleccionar imagen...... 46 Figura 25 Muestra resultados de la aplicación...... 47

viii

LISTA DE TABLAS

Tabla 1 Los métodos en estado-del-arte para la conversión de C2G con mapeo global...... 17 Tabla 2 Los métodos en estado-del-arte para la conversión de C2G con mapeo local...... 21 Tabla 3 Los métodos en estado-del-arte para la conversión de C2G con mapeo híbrido...... 23 Tabla 4 Comparación de CCPR, CCFR y Marca-E...... 40 Tabla 5 Evaluaciones subjetivas de los métodos...... 42

ix

INTRODUCCIÓN

El color es una sensación humana asociada a la respuesta del cerebro a un estímulo visual específico y el cual experimentamos como un solo atributo. Aunque podemos, de una forma precisa, describir el color a través de la medición de su distribución espectral de poder, esto lleva a un extenso grado de datos altamente superfluos. La razón se debe a que la muestra de color de la retina de los ojos usa solamente tres anchos de banda, correspondientes a la luz roja, verde y azul pertenecientes a la respuesta de tres tipos de células sensitivas (llamadas cones), correspondientes al L (largo), M (medio) y S (corto) en relación a la longitud de onda de la frecuencia de banda a la que ellas responden. Las señales de estos sensores junto a las de las barras (sensibles solo a la intensidad), se combinan en el cerebro para dar diversas sensaciones de color. Desafortunadamente la producción de color en imágenes digitales RGB es similar en cierto aspecto al uso de tres sensores para las luces R, G, y B, pero sin sensores para la intensidad solamente (como las barras) y la ausencia de un analizador similar al cerebro humano para interpretar contextual y psicológicamente las señales de estos tres sensores. Las antes mencionadas característica de la producción de color en imágenes digitales dificulta el proceso de interpretar el color en imágenes descuidando o reduciendo su contenido cromático porque esta tarea se convierte en un problema de reducción de dimensionalidad, del espacio 3D de la representación RGB al espacio 2D o 1D de intensidad: la reducción de color y la conversión a escala de grises (C2G) respectivamente. Para algunos métodos de reducción de color es un problema similar a la cuantificación de color y a comprimir la dimensionalidad de gamut. Sin embargo, en cualquier caso, hay una pérdida de información visual, y la mayoría de las veces la conversión por lo general preserva el contraste entre la luminosidad y el brillo sin un apropiado manejo del significado de la cromacidad (tonalidad y saturación). Este es el caso del método clásico de conversión de imágenes C2G cuyo uso está muy difundido. El uso más recurrente de la reducción de color es la conversión de imágenes C2G, también llamado supresión de color o decoloración, las cuales pueden dividirse en dos grupos, el primero tiene como meta la percepción humana de imágenes en escala de grises, incluyendo el problema de la conversión de color o la re coloración de imágenes para observadores humanos con una visión de color deficiente; el segundo grupo tiene como meta el procesamiento de imágenes en 1D, incluyendo visión artificial, el uso de métodos bien establecidos para el análisis de imágenes en escala de grises tales como la segmentación, umbralización, textura de segmentación, etc. Más o menos, el primer grupo de métodos necesitan generar una imagen en escala de grises perceptualmente equivalente a la imagen original a color, donde las diferencias percibidas entre los colores de la imagen a color deben ser proporcionales a las diferencias percibidas en los grises en la imagen en escala de grises, tarea bastante compleja. En cambio, el segundo grupo

1

de métodos necesitan generar imágenes en escala de grises con consistencia global, esto es, cuando dos pixeles tienen el mismo color en la imagen a color, deberán tener el mismo nivel de gris en la imagen en escala de grises. Este trabajo es un estudio comparativo de más de 20 métodos C2G desarrollados durante los últimos 18 años de este siglo de acuerdo con las publicaciones más recientes, no obstante, otros métodos adicionales publicados en este lapso de tiempo son mencionados, confirmando que el problema de la conversión de C2G es una activa área de investigación, principalmente porque este problema raramente asegura la calidad y la eficiencia simultáneamente. Objetivo General: Implementar un paquete en Python para la reducción de dimensionalidad en imágenes a color. Objetivos Específicos: 1. Determinar a partir del estado del arte, cuáles de los métodos existentes pueden ser apropiados para las aplicaciones en desarrollo actualmente. 2. Implementar el paquete Python para la reducción de dimensionalidad en imágenes a color. 3. Realizar un manual de usuario para el uso del paquete elaborado.

Tareas de investigación: 1. Descripción de los principales métodos para la reducción de dimensionalidad en imágenes a color. 2. Implementación del paquete Python para la reducción de dimensionalidad en imágenes a color. 3. Realización de pruebas de funcionamiento a la solución planteada. 4. Realización del manual de usuario.

Justificación de la Investigación: Python es un lenguaje de programación interpretado cuya filosofía hace hincapié en una sintaxis que favorezca un código legible. Se trata de un lenguaje de programación multiparadigma, ya que soporta orientación a objetos, programación imperativa y, en menor medida, programación funcional. Es un lenguaje interpretado, usa tipado dinámico y es multiplataforma, cualidades que lo han convertido en uno de los principales lenguajes usados actualmente. Por estas razones existe la necesidad de un paquete en este lenguaje para el trabajo con imágenes y su transformación C2G.

2

Hipótesis de Investigación: 1. La programación en un lenguaje amigable permitirá a especialistas de computación su uso eficiente, además de posibles extensiones consecuentes. 2. Las nuevas implementaciones de los métodos de conversión de imágenes de color a escala de grises permitirán mayor claridad y facilidades de interpretación a especialistas que no son del área de computación, en particular, fotógrafos, médicos, etc.

Estructura de la Tesis: A continuación, el desarrollo de la tesis se estructura de la siguiente forma. En el Capítulo 1 se desarrolla el marco teórico de forma que este permita un conocimiento general del tema abordado y la comprensión adecuada de los capítulos siguientes por parte de personal no especialista en temas de Ciencias de la Computación. También se muestran los antecedentes investigativos de las diversas técnicas de reducción de los espacios de color que permiten llevar imágenes a escala de grises. En el Capítulo 2 se exponen los resultados de la presente investigación, así como lo referente a los métodos implementados. En este capítulo, se demuestran las ventajas de usar el lenguaje de programación Python y su impacto final en la implementación de los métodos. Además, son señalados los diagramas de flujo diseñados de los métodos implementados, así como las medidas de evaluación utilizadas para medir sus desempeños. En el Capítulo final se muestran los resultados obtenidos en la implementación de las medidas de evaluación, así como la aplicación creada para el uso del paquete. Se desarrolla el Manual de Usuario, que expondrá de forma detallada, las utilidades del Software desarrollado, así como todas las ventajas de su uso por personal con tareas de corte investigativo computacional. Finalmente aparecen las conclusiones de la presente Tesis de Grado y el listado de imágenes y tablas utilizadas.

3

CAPÍTULO 1. GENERALIDADES

En este capítulo se reseñan las nociones básicas, en aspectos teóricos y matemáticos del planteamiento del problema. Se definen los conceptos de imagen digital, así como el sistema de representación matemática de la misma, los espacios de color como forma de organización específica de los colores en la imagen digital. También se realiza un estudio de las diferentes técnicas de reducción de los espacios de color, así como su aplicación. Estos antecedentes dieron paso a este trabajo. De esta manera está constituido el marco teórico para el desarrollo del mismo.

1.1 La Imagen Digital a Color

Las imágenes digitales a color están hechas de píxeles, y los píxeles están formados por combinaciones de colores primarios. Un canal en este contexto es la imagen en escala de grises del mismo tamaño que la imagen a color, hecha de uno de estos colores primarios. Por ejemplo, una imagen de una cámara digital estándar tendrá los canales rojo, verde y azul. Una imagen en escala de grises tendrá sólo un canal.

En el dominio digital, puede haber cualquier número de colores primarios convencionales para formar una imagen; un canal en este caso es similar a una imagen en escala de grises sobre cualquier color primario convencional. Por extensión, un canal es cualquier imagen en escala de grises del mismo tamaño que la "propia" imagen, y asociado con ella.

Una imagen RGB tiene tres canales: rojo, verde y azul. Los canales RGB derivan u obedecen a los receptores de color del ojo humano, y se usan en monitores de ordenador y escáneres de imagen. Si la imagen RGB es de 24 bits (estándar desde 2005), cada canal tiene 8 bits, para el rojo, verde y azul, o sea, la imagen está compuesta de tres imágenes (una por cada canal, Figura 1), donde cada imagen puede almacenar píxeles con intensidades de brillo convencional entre 0 y 255. Si la imagen RGB es de 48 bits (alta resolución), cada canal está hecho de imágenes de 16 bits.

Figura 1 Ejemplo de separación de canales RGB.

Una imagen CMYK tiene cuatro canales: cian, magenta, amarillo y negro. CMYK es el estándar para imprimir. Una imagen CMYK de 32 bits (estándar también desde 2005) está hecha de 4

cuatro canales de 8 bits, uno para el cian, uno para el magenta, uno para el amarillo y uno para el negro. No es común almacenar imágenes CMYK de 64 bits (16 bits por canal), debido al hecho de que CMYK es dependiente de dispositivo, mientras que RGB es el estándar genérico para almacenamiento independiente de dispositivo.

En digitalización de imágenes, los canales de color se convierten a números. Como las imágenes contienen miles de píxeles, cada uno con múltiples canales, los canales se codifican normalmente con el menor número de bits posible. Los valores típicos son 8 bits por canal o 16 bits por canal.

Como el cerebro no percibe necesariamente diferencias en cada canal para el mismo grado que en otros canales, es posible que cambiar el número de bits para cada canal resulte en un almacenamiento más óptimo; en particular, para imágenes RGB, comprimir más el canal azul y después el rojo puede ser mejor que dar el mismo espacio a cada canal. Este tipo de compresión "preferencial" es el resultado de estudios que muestran que la retina humana en realidad utiliza el canal rojo para distinguir el detalle, junto con el verde en menor medida, y usa el canal azul como información ambiental o para el fondo. (Ortod, 2005)

1.1.1 Imagen Digital Una imagen digital o gráfico digital es una representación bidimensional de una imagen a partir de una matriz numérica, frecuentemente en binario (unos y ceros). Dependiendo de si la resolución de la imagen es estática o dinámica, puede tratarse de una imagen matricial (o mapa de bits) o de un gráfico vectorial.

Las imágenes digitales se pueden obtener de varias formas:

 Por medio de dispositivos de entrada de conversión analógica-digital como los escáneres y las cámaras digitales.  Directamente mediante programas informáticos editores de mapas de bits y dibujo vectorial, como por ejemplo realizando dibujos con el ratón o tableta digitalizadora gráfica incluyendo el lápiz óptico, por otro lado, mediante un programa de renderización 3D a mapa de bits.

Las imágenes digitales se pueden modificar mediante filtros, añadir o suprimir elementos, modificar su tamaño, etc. y almacenarse en un dispositivo de grabación de datos como por ejemplo un disco duro.

La mayoría de formatos de imágenes digitales están compuestos por una cabecera que contiene atributos (dimensiones de la imagen, tipo de codificación, etc.), seguida de los datos de la imagen en sí misma. La estructura de los atributos y de los datos de la imagen es distinto en cada formato.

Además, los formatos actuales añaden a menudo una zona de metadatos ("metadata" en fotografía (Escala de sensibilidad, flash, etc.) Estos metadatos se utilizan muy a menudo en el formato extensión de cámaras digitales y videocámaras. (Ortod, 2005)

5

1.1.2 Imagen a Color. Espacio de Color

Un espacio de color es un sistema de interpretación del color, es decir, una organización específica de los colores en una imagen o video. Depende del modelo de color en combinación con los dispositivos físicos que permiten las representaciones reproducibles de color, por ejemplo, las que se aplican en señales analógicas (televisión a color) o representaciones digitales. Un espacio de color puede ser arbitrario, con colores particulares asignados según el sistema y estructurados matemáticamente.

Un modelo de color es un modelo matemático abstracto que describe la forma en la que los colores pueden representarse como tuplas de números, normalmente como tres o cuatro valores o componentes de color (RGB y CMYK son modelos de color). Sin embargo, un modelo de color que no tiene asociada una función de mapeo a un espacio de color absoluto es más o menos un sistema de color arbitrario sin conexión a un sistema de interpretación de color.

Añadiendo cierta función de mapeo entre el modelo de color y un espacio de color de referencia se obtiene una "huella" en el espacio de color de referencia. A esta "huella" se la conoce como gama de color y, en combinación con el modelo de color, define un nuevo espacio de color. Por ejemplo, Adobe RGB y sRGB son dos espacios de color absolutos diferentes basados en el modelo RGB. (Figura 2)

Figura 2 Comparación de cromaticidades encerradas en un espacio de color.

En el sentido más genérico de la definición dada, los espacios de color se pueden definir sin el uso de un modelo de color. Estos espacios son un conjunto de nombres o números definidos por la existencia de un conjunto correspondiente de muestras de color físico. Se puede crear un amplio rango de colores mediante pigmentos de colores primarios (cian (C), magenta (M), amarillo (Y), y negro (K)). Esos colores definen un espacio de color específico. Para crear una representación tridimensional de un espacio de color, se puede asignar la cantidad de magenta al eje X de la representación, la cantidad de cian a su eje Y, y la cantidad de amarillo a su eje Z.

6

El espacio 3D resultante proporciona una única posición por cada color posible que puede ser creado combinando estos tres pigmentos.

Sin embargo, este no es el único espacio de color posible. Por ejemplo, cuando se muestran los colores en un monitor de ordenador, normalmente se definen en el espacio de color RGB (rojo, verde y azul, Figura 1.3). Esta es otra forma de crear básicamente los mismos colores (limitado por el medio de reproducción, como el fósforo (CRT) o filtros y luz de fondo (LCD)), y el rojo, el verde y el azul pueden considerarse como los ejes X, Y y Z. Otra manera de crear los mismos colores es usando su matiz (eje X), su saturación (eje Y), y su brillo (eje Z). A esto se le llama modelo de color HSV.

Figura 3 Comparación entre los modelos de color RGB y CMYK. Esta imagen demuestra la diferencia de aspecto de los colores en un monitor de ordenador (RGB) en comparación con su reproducción en CMYK en el proceso de impresión.

Para definir un espacio de color, la referencia estándar habitual es el espacio de color CIELAB o CIEXYZ, los cuales están diseñados específicamente para abarcar todos los colores que el ser humano puede ver.

Dado que "espacio de color" es un término más específico para ciertas combinaciones de un modelo de color más una función de mapeo, el término "espacio de color" tiende a usarse también para identificar modelos de color. Al identificar un espacio de color, automáticamente se identifica el modelo de color asociado. Informalmente, los dos términos se suelen intercambiar con frecuencia, aunque esto es estrictamente incorrecto. Por ejemplo, aunque varios espacios de color específicos se basan en el modelo RGB, no existe tal cosa como: el espacio de color RGB.

La conversión del espacio de color es la traducción de la representación de un color de una base a otra. Esto ocurre normalmente en el contexto de convertir una imagen representada en un espacio de color a otro espacio de color, teniendo como objetivo que la imagen convertida se parezca lo más posible a la original. El modelo de color RGB está implementado de formas diferentes, dependiendo de las capacidades del sistema utilizado. De lejos, la implementación general más utilizada es la de 24 bits, con 8 bits, o 256 niveles de color discretos por canal. Cualquier espacio de color basado en 7

ese modelo RGB de 24 bits está limitado a un rango de 256×256×256 ≈ 16,7 millones de colores. Algunas implementaciones usan 16 bits por componente para un total de 48 bits, resultando en la misma gama con mayor número de colores. Esto es importante cuando se trabaja con espacios de color de gama amplia (donde la mayoría de los colores se localizan relativamente juntos), o cuando se usan consecutivamente un amplio número de algoritmos de filtrado digital. El mismo principio se aplica en cualquier espacio de color basado en el mismo modelo de color, pero implementado en diferentes profundidades de color. El espacio de color CIE 1931 XYZ fue uno de los primeros intentos de producir un espacio de color basado en medidas de percepción de color y es la base de casi todos los demás espacios de color. Entre los derivados de CIE XYZ se encuentran CIELUV, CIEUVW, y CIELAB.

El espacio de color RGB utiliza una mezcla de colores aditivos, porque describe qué tipo de luz necesita ser emitida para producir un color dado. RGB almacena valores individuales para el rojo, el verde y el azul. El espacio de color RGBA es RGB con un canal adicional alfa para indicar transparencia. Entre los espacios de color basados en RGB se incluye sRGB, Adobe RGB y ProPhoto RGB.

CMYK utiliza síntesis sustractiva de color utilizada en el proceso de impresión, porque describe qué clase de tinta necesita aplicarse para que la luz reflejada desde el sustrato y a través de la tinta produzca un color dado. Se empieza con un sustrato blanco (lienzo o página), y se utiliza la tinta para sustraer el color del blanco para crear una imagen (Figura 1.4). CMYK almacena valores de tinta para cian, magenta, amarillo y negro. Hay muchos espacios de color CMYK para diferentes conjuntos de tintas.

Figura 4 Izquierda: Mezcla de colores aditivos (Tres colores superpuestos en un vacío se suman para crear el blanco) Derecha: Mezcla de colores sustractivos (Tres colores en un papel blanco, se restan para volver el papel negro).

YIQ se utilizaba en las emisiones de televisión en formato NTSC (Norte América, Japón) por razones históricas. Este sistema almacena un valor de luminancia con dos valores de cromancia, correspondientes a las cantidades de azul y rojo. Es similar al esquema YUV utilizado en la mayoría de sistemas de captura de vídeo y en el sistema PAL (Australia, Europa, excepto Francia, que usa SECAM), excepto que el espacio de color YIQ se rota 33° con respecto al espacio de color YUV. El esquema YDbDr usado por SECAM se rota de otra forma.

8

YPbPr es una versión escalada de YUV. Es bastante común en su forma digital, YCbCr, usado ampliamente en compresión de vídeo y esquemas de compresión de imagen como MPEG y JPEG. xvColor es un nuevo espacio de color de vídeo digital internacional estándar publicado por la Comisión Electrotécnica Internacional (IEC 61966-2-4). Se basa en los estándares ITU BT.601 y BT.709 pero extiende la gama más allá de los R/G/B primarios especificados en esos estándares. (Wright, 1981)

1.1.3 Estándares de Colores

Un estándar o modelo de colores es un modelo matemático abstracto que permite representar los colores en forma numérica, utilizando típicamente tres o cuatro valores o componentes cromáticos. Es decir, un modelo de colores sirve en una aplicación que asocia a un vector numérico un elemento en un espacio de color.

Figura 5 Modelo de color RGB.

Se sabe que se puede generar una vasta gama de colores por mezcla aditiva de los colores primarios rojo, azul y verde. Estos colores juntos determinan un espacio de colores. Se puede imaginar este espacio como un cubo alineado al sistema de coordenadas de un espacio tridimensional, en el cual la cantidad de color rojo se representa a lo largo del eje X y la cantidad de amarillo a lo largo del eje Z. (figura 1.5) En esta representación, cada color tiene una posición única.

HSV (, saturation, value), también conocido como HSB (hue, saturation, brightness) es usado a menudo por artistas porque es más natural pensar sobre un color en términos de matiz y saturación que en términos de componentes de color aditivos o sustractivos. HSV es una transformación de un espacio de color RGB, y sus componentes y colorimetría son relativos al espacio de color RGB del que deriva.

HSL (hue, saturation, lightness/luminance), también conocido como HLS o HSI (hue, saturation, intensity) es bastante similar a HSV, con la "claridad" reemplazando el "brillo". La diferencia es que el "brillo" de un color puro es igual al brillo del blanco, mientras que la claridad de un color puro es igual a la claridad de un gris medio.

9

Los modelos de colores más usados son RGB, CMYK, HSL, HSV y el modelo tradicional de coloración. (Anderson, no date)

1.2 Técnicas de Reducción de los Espacios de Color Acorde con la CIE (Commission Internationale de l’Eclairage), si el color es percibido como la propiedad de una fuente de luz es llamado una apertura o color auto luminoso, o si es la propiedad de una superficie, es llamado un color objeto. Para colores apertura, las dimensiones son:  Tonalidad (T): La sensación según la cual un área parece ser similar a uno de estos colores percibidos, correspondiente a los colores primarios rojo, amarillo, verde, azul y magenta (tonos primarios).  Saturación (S): La sensación según la cual el color percibido de un área aparenta ser más o menos cromático, juzgado en proporción a su brillantez. Representa la pureza del color percibido como brillante o pálido.  Brillantez (B): La sensación a través de la cual un área parece emitir más o menos luz. Corresponde a un sentimiento en términos de luz, como oscuro o luminoso, y caracteriza el nivel luminoso del estímulo del color. Para colores objeto las mismas definiciones de tonalidad y saturación son utilizadas, pero la intensidad depende de la luz incidente y la reflectabilidad de la superficie, ambas definen el termino de luminosidad (L). La luminosidad L (x, y), reflectabilidad R (x, y) e iluminación IL (x, y) son asociadas por, L (x, y) = IL (x, y) R (x, y). La luminosidad es el atributo mediante el cual el objeto parece reflejar o transmitir más o menos la luz incidente, aunque la brillantez es el atributo de fuente de luz mediante el cual la luz emitida es ordenada de brillante a oscura, siendo un valor fotométrico (con unidades cm/m²). El término luminancia (Ʌ) es empleado en la literatura para indicar el concepto de luminosidad y brillantez juntos. Tonalidad y saturación tratados juntos se denominan cromacidad, entonces un color puede ser caracterizado por su luminancia y cromacidad. La apariencia visual de una imagen a color puede ser reproducida fielmente a una imagen a escala de grises. La conversión puede preservar los rasgos distintivos y un orden razonable del color, mientras respeta la luminancia original de los colores. La usual elección de luminancia como la cantidad para los valores grises es porque esta es la respuesta acromática al estímulo de un color, midiendo cuanta luz parece tener un color comparado con una luz blanca equivalente. La visión humana en si misma depende de la luminancia más que de cualquier otra cosa. (L.~Busin, N.~Vandenbroucke and L.~Macaire, 2008)

10

Figura 6 Imagen del Monet, de Claude Oscar (Francia, 1840-1926) obra maestra “Impresión del Amanecer” convertida a escala de grises por cinco métodos diferentes: b) la función rgb2gray de Matlab, c) L* del CIEL*a*b*, d) RTCP, e) ApparentGreyscale, f) Kim09. Mapear la información de una imagen a color en 3D hacia una imagen de 1D en escala de grises preservando la apariencia original, el contraste y los mejores detalles no es una tarea trivial. No hay una solución general para este problema, debido al hecho de que la mayoría de los algoritmos existentes no pueden ejecutar bien en ciertas circunstancias y las imágenes resultantes en escala de grises tienen bajo contraste y baja interpretabilidad. (Kingdom, 2011) Para el procesamiento de intensidad de imágenes, las características importantes de la conversión de C2G son:  La necesidad de que cuando dos pixeles tienen el mismo color, estos tengan el mismo nivel de gris en la imagen en escala de grises.  La necesidad de un mapeo continuo reduciendo los datos artificiales de la imagen, tales como los contornos falsos en regiones de color homogéneo.  Esas restricciones no son conocidas para todos los métodos de conversión de C2G, principalmente son términos de mapeo local.

1.2.1 Métodos clásicos de conversión de color a escala de grises. La noción de “clásicos” está relacionada con los métodos para la conversión de C2G desarrollados durante el siglo XX que todavía están en uso en algunos softwares o aplicaciones. 1. Los métodos de suma pesada. También llamados métodos directos, en cuyos: Gray = aR + bG + cB. Alternativas:  La recomendación CIE BT.601, con ajuste a = 0.298936021, b = 0.587043074, y c = 0.114020904; como en los formatos de televisión monocromática NTSC,

11

PAL, y SECAM. También usada por la función rgb2gray de Matlab, la estándar posdata, y el espacio de color YUV.  La recomendación CIE BT.709usada en la televisión de alta definición (HDT) donde a = 0.2126, b = 0.7152, y c = 0.0722.  La “conversión promedia”, en la cual a = b = c = 1/3.  Para propósitos de detección de rostro, a = 0.85, b = 0.10, y c = 0.05.  Para la segmentación de células en imágenes de tumores, a = 0.219, b = 0.581, y c = 0.200.  El modo no lineal (corrección-gamma), donde Gray = a RR + b GG + c BB.

Se nota que en todas las alternativas a  0, b  0, c  0 y a + b + c = 1. En la suma pesada persiste el problema de los colores con una pequeña diferencia de luminosidad, pero gran diferencia en cromacidad (tonalidad y saturación), ya que no se distinguirán en la imagen en escala de grises. Será lo mismo para imágenes con un único color dominante o con baja iluminación de color. (Bala and Braun, 2003)

Figura 7 Conversión de RGB a escala de grises usando el método de suma pesada con los pesos NTSC. De arriba hacia abajo: coordenadas en los cubos RGB en 3D, imágenes RGB originales, imágenes en escala de grises, y sus histogramas. 2. Los espacios de color luminancia-cromancia. Así como un color puede ser expresado por su luminosidad (imagen en escala de grises) y cromacidad (tonalidad y saturación), en la literatura de la ciencia del color hay varios espacios de colores estándares que sirven para separarlos. Categorizados en la familia de los espacios luminancia-cromancia están: 12

 YUV,  CIEL*a*b*,  HSV,  HSL,  YIQ,  YCbCr, etc.

La luminancia obtenida de cada uno de esos espacios de color es diferente, entonces la transformación de RGB a escala de grises puede ser cumplida a través de ellos con resultados diferentes.

Figura 8 Conversión de RGB a escala de grises de las mismas tres imágenes de colores usando la capa L* del espacio de color CIEL*a*b*.

13

Figura 9 Conversión de RGB a escala de grises de las mismas tres imágenes de colores usando la componente L del espacio de color HSL. El espacio de color HSL debe sus capacidades a dos hechos: 1) La luminancia (L) es desemparejada de la cromancia, y 2) La tonalidad (T) y saturación (S) están íntimamente relacionas a la manera en que los humanos perciben la cromancia. Ideal para aplicaciones de procesamiento de imágenes donde la cromancia es de importancia más que la percepción del color en su totalidad. (Bala, Eschbach and York, 2004)

1.2.2 El Problema de la conversión de color a escala de grises. El propósito general de esta tarea de reducción de dimensión es como utilizar el rango limitado en la escala de grises para preservar tanto como sea posible las características originales, las estructuras salientes, el contraste de color, y otras importantes metas visuales y restricciones lógicas. (Hassen, Wang and Salama, 2015) A pesar de la gran proliferación de los métodos de conversión C2G, no todos estos algoritmos están listos para la gran variedad de aplicaciones prácticas, por los siguientes problemas (Song et al., 2010): 1. Las vistas visuales no están bien definidas, por lo que no es claro como preservar vistas importantes en las imágenes en escala de grises transformadas. 2. Algunos algoritmos tienen un tiempo de costo extremadamente alto para computarlos; y

14

3. Otros requieren interacciones humano-computadora para tener una transformación razonable.

Los propósitos visuales para la conversión de C2G son los siguientes cinco: 1. Preservación de característica. Las características de la imagen a color deben permanecer definidas en la imagen en escala de grises. 2. Magnitud de contraste. La magnitud de los contrastes de la escala de grises debe reflejar la magnitud de los contrastes de los colores (Wu and Toet, 2014). El contraste de color entre dos pixeles p y q, en el espacio de color CIEL*a*b* es, 2 2 2 ∗ ∗ ∗ ∗ ∗ ∗ Cp, q = √(퐿푝 − 퐿푞) + (푎푝 − 푎푞) + (푏푝 − 푏푞) 3. Polaridad de contraste. La polaridad positiva o negativa del cambio de nivel de gris en los contrastes de la escala de grises debe corresponder visualmente al cambio de polaridad de la luminancia en los contrastes de color. 4. Fidelidad de Luminosidad. Las imágenes a color y escala de grises deben tener un estímulo similar de luminosidad. 5. Rango dinámico. El rango dinámico de los niveles de gris en la imagen en escala de grises debe concordar visiblemente con el rango dinámico de los valores de luminancia en la imagen a color. Las restricciones lógicas para la conversión C2G son las cuatro siguientes: 1. Mapeo continuo. La trasformación debe ser una función continua, reduciendo datos artificiales, tales como un contorno falso en regiones homogéneas de la imagen. 2. Consistencia global. Cuando dos pixeles tienen el mismo color en la imagen a color, tendrán el mismo nivel de gris en la imagen a escala de grises. También llamado consistencia del mapeo. (Haritha and Reddy, 2013) 3. Preservación de la escala de grises. Cuando un pixel en la imagen a color es gris, este tendrá el mismo nivel de gris en la imagen a escala de grises. 4. Disposición de la luminancia. Cuando una secuencia de píxeles de luminancia creciente en la imagen a color comparte la misma tonalidad y saturación, tendrá crecientes niveles de gris en la imagen a escala de grises. También llamado consistencia local de la luminancia cuando está relacionada con gradientes de luminancia. (Wu and Toet, 2014) Dos criterios prácticos pueden ser considerados (Benedetti et al., 2010): 1. Alta eficiencia. La transformación de C2G es asociado a aplicaciones. Para modificar interactivamente los resultados de conversión, el algoritmo debe ser lo suficiente rápido para una interacción preferida a tiempo real. 2. Aprendizaje no supervisado. El algoritmo no necesita intervención del usuario para evadir la variabilidad de la escala de grises final causada por criterios subjetivos. El aprendizaje no supervisado es particularmente importante cuando el algoritmo de conversión de C2G es una etapa pre-procesamiento de un sistema de procesamiento de imágenes digitales o un esquema de análisis de imágenes.

15

1.2.3 Categorías de los métodos en estado-del-arte de C2G. Los métodos en estado-del-arte tratan de satisfacer algunos objetivos y restricciones citados adoptados de las estrategias de mapeo global, local, o híbrido. (Kim et al., 2009)  Mapeo Global de C2G. El mismo mapeo de C2G es usado para todos los píxeles en la información. Mapea consistentemente los mismos colores a los mismos valores en la escala de grises sobre una imagen, garantizando una conversión homogénea de las regiones de color constante. Sería más desafiante determinar un mapeo global que preserve características locales en posiciones diferentes al mismo tiempo.

Los métodos de mapeo global pueden más específicamente dividirse en:

. Algoritmos de imágenes independientes, tales como el cálculo de la luminancia, y . Algoritmos de imágenes dependientes incorporando información estadística sobre el color de la imagen, o información multi-espectral. El más popular de los algoritmos de mapeo global de imágenes dependientes es Decolorize (Grundland and Dodgson, 2007).

Figura 10 Tres parámetros independientes de control son usados: realce de control , selección de escala , supresión de sonido . Ejemplo usando = 0.3, = 25, y = 0.001.

16

 Mapeo Local de C2G. También llamado métodos espaciales, se basan en la suposición de que la transformación de C2G necesita ser definida tal que píxeles diferentes entre sí sean preservados. El mapeo de valores de píxeles es espacialmente variado, dependiendo de las distribuciones locales de los colores.

El paso de avance hacia los algoritmos espaciales es motivado porque para ciertas aplicaciones, preservar la información de la luminancia por si misma puede no resultar en la salida deseada.

Aunque el mapeo local ha ayudado a la hora de preservar las características locales, regiones de colores constantes pueden ser convertidos no homogéneamente si el mapeo cambia en las regiones.

 Mapeo Híbrido de C2G. Algunos métodos de conversión de C2G globales tienen en cuenta aspectos locales, mientras que algunos métodos de conversión de C2G locales consideran coherencias globales. Estos métodos realizan la tentativa de preservar las características tanto locales como globales simultáneamente, y su meta es aumentar la exactitud perceptual más que exagerar el discernimiento.

Como ejemplo, el método ApparentGrayscale (Smith, 2008), el cual usa un enfoque de dos pasos, el primero, asigna globalmente valores de gris y determina el orden de color, y el segundo, localmente realza la escala de grises para reproducir el contraste original.

Tabla 1 Los métodos en estado-del-arte para la conversión de C2G con mapeo global.

No. Autores Año Método Descripción Dificultades Bala and 1 2004 BalaB04 Se proponen dos Únicamente para gráficos por Braum (Bala and alternativas: espaciado encima de 10 colores y no es Braun, por igual en gris y aplicable a imágenes 2003) espaciado de acuerdo a su complejas (Smith, 2008) diferencia de color en 3D (Song et al., 2013) a partir de colores adyacentes a aquellos a lo largo de la dimensión de luminosidad Gooch, 2 2005 Color2Gray Impone el contraste de Significantes contrastes de Olsen, Tumblin, (Gooch et color entre los píxeles color no pueden ser bien And Gooch al., 2002) considerando variaciones representados en la imagen en de brillo de acuerdo a escala de grises, el orden de

17

tonalidades en el espacio grises contradice el orden de la de color CIEL*a*b* luminancia de colores Rasche, 3 2005 Rasche05 Enfocado en la reducción El orden de la escala de grises Geist, and Westall (a,b) (Rasche, de dimensión de color contradice el orden de Geist and para observadores con luminancia de los colores, Westall, deficiencia de color. además es requerida una 2005) Define restricciones cuantificación del color para directamente en diferente reducir el extremo costo pares de colores computacional del obteniendo un mapeo procedimiento de lineal global continuo optimización, lo que resulta en para asignar colores datos artificiales en imágenes similares a valores naturales con tonos continuos similares de la escala de grises usando una comparación prudente de pares entre colores muestreados Grunland 4 2007 Decolorize Similar al Rasche05, pero No toma en consideración And Dogson (Grundland mejorando la eficiencia diferencias cromáticas que son computacional al usar el espacialmente distantes, and Dodgson, análisis de componente mapeando en algunos casos 2007) predominante (PdCA) colores diferentes hacia para encontrar el niveles de gris bastante componente en 1D que similares. Es necesaria la maximiza el contraste intervención del usuario Kim, Jang, 5 2009 Kim09 Optimiza el Color2Gray El contraste significante de los Demouth, usando un rápido modelo colores no puede ser bien and Lee (Kim et al., 2009) paramétrico no lineal. El representado en la imagen en mapeo global es una escala de grises, enturbiando función no lineal de la los detalles finos. La luminosidad, cromancia y influencia de contraste tonalidad de colores cromático en aspectos discriminantes requiere de intervención por parte del usuario Cui, Hu, 6 2009 Cui09 Introduce el ISOMAP La imagen en escala de grises Razdan, and para formar un método no puede presentar datos lineal de reducción de artificiales tales como ruido de

18

Wonka (Cui et al., dimensión para mapear sal y pimienta, en dependencia 2010) vectores con alta del parámetro k en los dimensionalidad de color vecinos-cercanos-k (KNN) a los de baja busca cuando no es lo dimensionalidad suficientemente grande. Al incrementar k incrementa significativamente el tiempo computacional Lu, Xu, 7 2012 RTCP Adopta contexto espacial La técnica de optimización and Jia (Lu, Xu and en consideración del para resolver el modelo es Jia, 2012) método global, propone iterativa, necesitando un alto una función bimodal de tiempo de ejecución. Puede no energía de preservación ser capaz de capturar todos los de contraste, junto con detalles de la imagen y tiende restricciones locales y no a producir datos falsos en la locales escala de grises Song, Primero define la 8 2013 Song13 El tamaño de la ventana de Tao, Oportunidad de Chan, Bu, (Song et al., Ocurrencia (CoH) de muestra debe ser seleccionado and Yang 2013) acuerdo al principio manualmente, si es muy Helmholtz-Kohlrausch, pequeño la imagen computada para medir el nivel de en escala de grises no podrá atención de cada pixel en preservar bien el CoH, la imagen a color. convergentemente si la Después introduce ventana de prueba se vuelve estadísticas de la imagen natural para estimar el mayor el CoH puede CoH de cada pixel preservarse mejor, pero el ruido es incluido al mismo tiempo Zhu, Hu, Reproduce la apariencia 9 2013 Zhu13 El cálculo del saliente puede and Liu percibida de una imagen (Zhu, Hu a color en su versión en no converger, por lo que establece el canal saliente a 0. and Liu, escala de grises. Basado 2014) en la Teoría de Filtro, La optimización de la función introduce el concepto de de energía será vulnerable a Canal Saliente para medir gran ruido. El ajuste en el el nivel de contraste de mapa de contraste puede diferentes canales causar datos artificiales Jin and Basado en la 10 2015 Jin15 Los parámetros 휏 y 휇 se Ng combinación de valores de píxeles en los canales pueden seleccionar de acuerdo R,G y B. EL problema de a reglas sin su cálculo óptimo 19

optimización trae consigo (Jin, Li and la maximización de la Ng, 2014) varianza de la imagen saliente en escala de grises Liu, Liu, GcsDecolor Propone un modelo no 11 2015 Contiene un parámetro 휀 para Xie, lineal de mapeo global de 1 1 Wang, similaridad de gradiente evadir la inestabilidad and Liang (Liu et al., de correlación (Gcs) numérica con valores típicos 2015) trabajando en el espacio entre 1.3 y 1.5, pero es de color RGB dependiente de la imagen directamente y determina la solución con el máximo valor Gcs a partir del modelo paramétrico lineal inducido candidatos discretizados de imágenes Yoo, Lee, Preserva la significancia 12 2015 Yoo15 Desde que ignora los valores and Lee de una secuencia de color durante la decoloración a de saturación y luminosidad de través del mapeo de tonalidades similares y así colores a una parrilla en colores de tonalidad similar, el espacio de color los cuales solo forman una CIELAB secuencia por mérito de diferida saturación o luminosidad, no será detectado como una secuencia de color. Como varios parámetros para ser ajustados por el usuario Liu, Liu, Un modelo polinomial 13 2016 SPDecolor En la actualidad hace uso de la Wang, multivarianza de orden And Leung (Liu et al., dos el cual optimiza solo función rgb2gray de Matlab 2017) parámetros de peso como inicialización, pero parcial. El propósito de futuras versiones considerarán esta decoloración como inicialización la imagen semiparamétrica es obtenida por otros enfoques mitigar el modelaje y las más avanzados deficiencias numéricas de la penalización del gradiente de error (GE) bajo la formulación polimonial multivarianza de orden dos

20

Sowmya, La imagen de entrada en 14 2016 C2Gcodesvd La ejecución es Govind, RGB es convertida al And Somar espacio CIEL*a*b* para estadísticamente menos procesar los componentes significante que el CPDecolor. de luminancia y Sin embargo, tiene baja cromancia complejidad computacional independientemente. La información de cromancia de la imagen de entrada a color es entonces analizada usando SVD

Tabla 2 Los métodos en estado-del-arte para la conversión de C2G con mapeo local.

No. Autores Año Método Descripción Dificultades Bala and 1 2004 BalaE04 Aplica un filtro de alto Susceptible a problemas en la Eschbach (Bala, pase para cada canal cromancia o luminosidad, y Eschbach cromático del espacio de puede convertir no and York, color de CIEL*a*b para homogéneamente regiones 2004) forzar el contraste local, constantes de color. Tiene el pesa la salida con un peor desempeño en la término dependiente de la evaluación de Cadik luminancia y agrega la cromaticidad filtrada al canal de luminosidad Neumann, 2 2007 Neuman07 Propone un método local Los detalles de la imagen y Cadík, and (Neumann, basado en el gradiente de aspectos salientes pueden color para obtener la perderse por comportamiento Nemcsics Cadik and Nemcsics, mejor imagen perceptual impredecible en regiones 2007) en escala de grises medido inconsistentes del campo en su espacio de color gradiente y puede convertir Coloroid, así como en el no homogéneamente la espacio de color apariencia de regiones CIEL*a*b* constantes de color Wu, Shen, 3 2012 Wu12 Utiliza un enfoque de dos Necesita intervención del and Liu (Wu, Shen escalas. La imagen es usuario and Liu, descompuesta como 2012) segmentos perceptuales. El tono gris global de la resultante imagen en

21

escala de grises es determinado por el color promediado de cada grupo circundante Zhou, 4 2014 CPDM Usa saliente de color e Aunque es garantizada una Sheng, información de posición mejor ejecución para la and Ma para mantener el contraste mayoría de las imágenes, hay original algunos casos en los cuales la detección del saliente falla para destacar el objeto saliente Liu, Liu, GcsDecolor 5 2015 Similar al GcsDecolor 1 Tiene el parámetro 휀 para Xie, 2 2 Wang, and pero con un solucionador prevenir la inestabilidad Liang (Liu et al., no iterativo utilizando una numérica. A pesar de ser muy 2015) estrategia de búsqueda robusto, cuando 휀2 tiende a 0 discreta. En comparación descalifica el modelo con el GcsDecolor 1 tiene ingenuo ventaja en términos de simplicidad Günes, 6 2015 Gunes15 Con propósitos de Dificultad para determinar Kalkan, And (Güneş, clasificación los cuáles y cuantos aspectos son Durmus Kalkan and coeficientes adaptativos de los mejores para suficiente Durmuş, conversión C2G son información discriminante 2016) optimizados para generar imágenes en escala de grises más discriminantes para reducir el error en la clasificación de imagen basado en algoritmos genéticos (GA) Nguyen Constrained 7 2015 La imagen en escala de No reportados And Optimization Havlicek Grayscaler grises es modelada como una combinación lineal de (COG) los canales de color (Havlicek, L*a*b* donde los no date) coeficientes mezclados son computados por un esquema programado de restricciones cuadráticas

22

usando aspectos de dominio de la modulación de la imagen a color de entrada You, 8 2016 You16 Mide dos propiedades: No reportados Barnes, And Walker (You, brillantez y contraste de Barnes and color. Un gráfico basado Walker, en un cuandro de 2016) optimización balancea las mediciones de la brillantez y el contraste. Para resolver la optimización, un método basado en la

norma 퐿1 convierte las discontinuidades de color a discontinuidades de brillantez

Tabla 3 Los métodos en estado-del-arte para la conversión de C2G con mapeo híbrido.

No. Autores Año Método Descripción Dificultades 1 Smith, 2008 Apparent- Usan un acercamiento en Un contraste de color Landes, Grayscale dos pasos para asignar significativo no puede ser bien Thollot y (Smith, globalmente valores representado en una imagen de Myszkowski 2008) grises y determinar el escala de grises, puede ordenado del color y produces hechos falsos locales además para mejorar ya que la mejora del detalle localmente la escala de puede conducir a pixelar la grises reproduce el imagen. No se puede restaurar contraste original el contraste cromático entre

aumentando el brillo regiones no adyacentes. localmente para mejorar los filos cromáticos.

2 Kuk, Ahn y 2011 Kuk11 Adopta un contexto Se necesita interacción Cho espacial en consideración humana, además dificultando de un método global para encontrar parámetros óptimos 23

(Kuk, Ahn buscar colores punteros para preservar la misma and Cho, usando k-means. Se percepción de la imagen 2011) consideran original, ya que falta una guía simultáneamente visual para automáticamente los contrastes locales y generar imágenes óptimas en globales y se codifican escala de grises. usando una función energética. 3 Ancuti, 2011 Ancuti11 Se mezcla la información Pueden aumentarse los hechos Ancuti y (Ancuti, cromática y la luminancia falsos en la imagen a colores Bekaert Ancuti and para conservar debido a la compresión. Bekaert, la disparidad inicial de Ajustar manualmente los 2011) color mientras se mejora parámetros angulares puede el contraste cromático, lo perjudicar que permite que áreas el contraste cromático y puede salientes y no salientes fallar cuando se emplean tengan diferentes regiones que no variaciones de reflejan la verdadera tonalidades. información saliente de la imagen. 4 Lu, Xu y Jia 2014 CPDecolor El método de No preserva bien el contraste (Lu, Xu decoloración preservando local. and Jia, el contraste generaliza el 2012) modelo de mapeo considerando pares de colores no locales y combinando los límites locales y no locales en la optimización. 5 Wu y Toet 2014 Wu14 Se calcula un mapa de La contribución relativamente (Wu and pesos para cada canal de fuerte al factor de contraste a Toet, color, este mapa esta los pesos compuestos puede 2014) compuesto por varias resultar en una sobre mejora de métricas visuales de los bordes en las estructuras, y calidad. A continuación, la tonalidad perceptual puede un mapa con pesos de perderse. múltiple resolución es construido para cada 24

canal aplicando una pirámide gaussiana de transformación a cada mapa. 6 Jin, Li y Ng 2014 Jin14 Utiliza un enfoque Puede causar varios errores en (Jin, Li variacional usando un algunas regiones suaves debido and Ng, método de optimización a la sobrepoblación de 2014) de maximización de contornos. Presenta parámetros varianza y de que deben ser definidos por el conservación del brillo. usuario. Una función de energía determina las transformaciones locales para combinar los canales de colores. 7 Ji, Fang, 2015 Ji15 Presenta un mapeo rápido Algunos rasgos locales en la Wang y ma (Ji et al., y eficiente para preservar imagen de color no pueden ser 2016) rasgos dominantes en las preservados imágenes a color. Se basa en la imagen de escala de en una variante grises resultante. tradicional de diferencias gaussianas que se llama filtro de luminancia. 8 Du, He, 2015 Du15 Enfatiza el contraste de Dada que la función de Sheng, Ma, (Du et al., color en las áreas borde mapeado considera no solo la y Lau 2015) basadas en un modelo información del basado en regiones. Se color de los pixeles objetivos desarrolla una función de sino además del color que mapeado paramétrico rodea a esta basada en información área, el mismo color en la global del color así como imagen original puede ser de contraste local. mapeada a valores diferentes a cada escala de grises.

25

1.3 Conclusiones del capítulo En este capítulo se especifican los conceptos necesarios sobre imagen digital, espacio de color y estándares de colores. Se define toda la teoría sobre las técnicas de reducción de los espacios de color, así como los métodos clásicos de conversión C2G. Se expresan los problemas existentes en la conversión de color a escala de grises, el cómo esta no es una tarea trivial debido a la alta complejidad que representa la reducción de dimensionalidad de imágenes a color. Se presenta un compendio de los métodos en estado-del-arte actuales en los cuales se basa esta tesis.

26

CAPÍTULO 2. Materiales y Métodos

2.1 El Lenguaje Python

Python es un lenguaje de programación de alto nivel cuya filosofía hace hincapié en una sintaxis muy limpia y que favorezca un código legible. Se trata de un lenguaje de programación multiparadigma ya que soporta orientación a objetos, programación imperativa y, en menor medida, programación funcional. Es un lenguaje interpretado, usa tipado dinámico, es fuertemente tipado y multiplataforma. (Knowlton, 2009)

Python es un lenguaje de programación multiparadigma. Esto significa que más que forzar a los programadores a adoptar un estilo particular de programación, permite varios estilos: programación orientada a objetos, programación imperativa y programación funcional. Otros paradigmas están soportados mediante el uso de extensiones. Python usa tipado dinámico y conteo de referencias para la administración de memoria. (Martelli, 2007)

Otro objetivo del diseño del lenguaje es la facilidad de extensión. Se pueden escribir nuevos módulos fácilmente en C o C++. Python puede incluirse en aplicaciones que necesitan una interfaz programable. (Oliphant, 2007)

Los usuarios de Python se refieren a menudo a la Filosofía Python que es bastante análoga a la filosofía de Unix. El código que sigue los principios de Python de legibilidad y transparencia se dice que es "pythonico". Contrariamente, el código opaco u ofuscado es bautizado como "no pythonico". Estos principios fueron famosamente descritos por el desarrollador de Python Tim Peters en El Zen de Python

 Bello es mejor que feo.  Explícito es mejor que implícito.  Simple es mejor que complejo.  Complejo es mejor que complicado.  Plano es mejor que anidado.  Disperso es mejor que denso.  La legibilidad cuenta.  Los casos especiales no son tan especiales como para quebrantar las reglas.  Aunque lo práctico gana a la pureza.  Los errores nunca deberían dejarse pasar silenciosamente.  A menos que hayan sido silenciados explícitamente.  Frente a la ambigüedad, rechaza la tentación de adivinar.  Debería haber una -y preferiblemente sólo una- manera obvia de hacerlo.  Aunque esa manera puede no ser obvia al principio a menos que usted sea holandés.  Ahora es mejor que nunca.  Aunque nunca es a menudo mejor que ya mismo.  Si la implementación es difícil de explicar, es una mala idea. 27

 Si la implementación es fácil de explicar, puede que sea una buena idea.  Los espacios de nombres (namespaces) son una gran idea ¡Hagamos más de esas cosas!

Tim Peters, El Zen de Python

2.2 Diagrama de las Bibliotecas de Reducción de Dimensionalidad creadas. En este epígrafe se hará una descripción de la teoría matemática detrás de los métodos implementados, además de los Diagramas de flujo de cada uno para una mejor comprensión de los mismos y de su desempeño.

2.2.1 Decolorize (Decolor_linear2006) Este método está basado en la publicación “Decolorize: fast, contrast enhancing, color to grayscale conversion” (Grundland and Dodgson, 2007). Tiene la ventaja de un mapeo constante, una consistencia global y preservación de la escala de grises, así como unas previsibles propiedades de arreglo de luminancia, saturación y tonalidad.

3 El algoritmo tiene como entrada una imagen a color RGB de la forma (푅푖, 퐺푖,퐵푖) ∈ [0,1] y produce una imagen en escala de grises como salida de la forma 푇푖 ∈ [0,1]. Evadiendo los problemas de corrección gamma, se asumen valores de color y escala de grises lineales. El proceso es controlado por tres parámetros: el grado de realce de la imagen λ, el típico tamaño de las características relevantes de la imagen en píxeles 휎 y la proporción de los píxeles de la imagen en el borde exterior . Los valores de color RGB de cada pixel son convertidos a valores de color YPQ, cuyos canales son análogos a los canales de colores en el procesamiento visual humano. Este consiste en un canal de luminancia acromático 푌푖 ∈ [푌푚푖푛, 푌푚푎푥] = [0,1] y un par de canales cromáticos de colores opuestos: amarillo-azul 푃푖 ∈ [−푃푚푎푥, 푃푚푎푥] = [−1,1] y rojo-verde 푄푖 ∈ [−푄푚푎푥, 푄푚푎푥] = [−1,1]. Para encontrar los ejes de color que mejor representen la pérdida en los diferentes contrastes cromáticos al mapear la conversión de color a escala de grises, se introduce una nueva estrategia de reducción de dimensionalidad basada en un análisis de componentes predominantes. En contraste a los principales métodos de análisis de componentes, los cuales se optimizan con la variabilidad de observaciones, el método de análisis de componentes predominantes se optimiza con las diferencias entre las observaciones. Posteriormente se propone fusionar la información de luminancia y cromancia de la imagen y finalmente se utiliza la saturación para calibrar la luminancia mientras se ajusta su grado dinámico y se compensa el ruido de la imagen.

La transformación resultante del color y los valores de saturación (푅푖, 퐺푖,퐵푖, 푆푖) a niveles de gris 푇푖 puede ser representada como un mapeo linear continuo: 28

푇푖 = 퐺푗푖푅푖 + 푔푗푖퐺푖 + 푏푗푖 퐵푖 + 푠푗푖 푆푖 + 푡푗푖 para 푗푖 ∈ {1, 2, 3, 4, 5}

Para producir la imagen resultante 푇푖, el algoritmo combina linealmente el canal de luminancia 푌푖 con retroalimentación del canal de crominancia predominante 퐶푖 o el canal de saturación 푆푖. En ambos casos la polaridad del canal de predominancia cromática permite determinar si la retroalimentación es positiva o negativa. Diagrama de Flujo:

Iniciar Imagen RGB decolor_linear2006

¿Argumentos NO Establecer valores correctos? por defecto

SI

Normalizar Imagen

Formar parejas cada Definir espacio de Convertir la imagen pixeles y una color YPQ al espacio YPQ muestra aleatoria

Derivar un eje Calcular la Proyectar el contenido cromático a partir diferencia de color cromático de la imagen a el de las diferencias de entre las parejas de eje cromático color encontradas pixeles

Combinar los tonos Ajustar el rango dinámico de Finaliza acromáticos con el contenido la imagen decolor_linear2006 proyectado Imagen Grayscale Figura 11 Diagrama de Flujo Decolor_Linear2006

2.2.2 GcsDecolor2 Este método está basado en la publicación “GcsDecolor: Gradient Correlation Similarity for Efficient Contrast Preserving Decolorization” (Liu et al., 2015). Presenta una nueva similitud de gradiente de correlación (Gcs) que calcula la suma del gradiente de correlación entre cada canal de la imagen a color y la imagen en escala de grises, realizando un mapeo local. Con el objetivo de mantener las características discriminantes en la conversión de color a gris, una estrategia común es minimizar la distancia de diferencias de píxeles entre la imagen a color y la resultante en escala de grises. Asumiendo que la imagen a color dada está en formato RGB, donde los índices r, g, b representan los canales de RGB. Suponemos que 훿푥,푦, donde (|훿푥,푦| =

29

2 √∑푐={푟,푔,푏}(퐼푐,푥 − 퐼푐,푦) ) es el contraste de color teniendo un valor asignado indicando la diferencia de un par de color y 푔푥 − 푔푦 denota el valor de la diferencia de gris entre los pixeles

푔푥 y 푔푦 respectivamente, entonces la norma clásica L2 se define como: 2 min ∑(푥,푦)∈푃(푔푥 − 푔푦 − 훿푥,푦) , la cual está basada en la función de energía: 푔 2(|∇퐼 | + 휀 )|푠 | 푐,푖 1 푖 min − ∑ ∑ 2 푤푐 (|∇퐼 | + 휀 ) + |푠 |2 푖 푐={푟,푔,푏} 푐,푖 1 푖

푠. 푡. 푠 = ∑ 푤푐∇퐼푐; ∑ 푤푐 = 1 { 푐={푟,푔,푏} 푐={푟,푔,푏}

Donde 휀1 es una constante positiva que aporta estabilidad numérica. La imagen estimada g con la función de energía reescrita puede ser una forma paramétrica. El valor P sería un grupo de pares de píxeles que contienen los candidatos locales y no locales. Incorporando las diferencias entre los pixeles distantes en la función de energía hacemos que el modelo trate bien con no solo pixeles cercanos entre si sino con regiones de contraste a larga escala. Intuitivamente, el modelo derivado de Gcs posee dos beneficios. El primero, calculando la correlación entre dos valores absolutos se elimina la dificultad de determinar el signo de 훿푥,푦. El segundo, al dividir el número de pares de pixeles en P, el valor de Gcs medido cae en el intervalo de [0,3] para cada conversión de color a gris. Por lo tanto, esto da un valor universal, que tiene el potencial de ser usado para la evaluación de la conversión entre diferentes imágenes. La estrategia de búsqueda discreta adoptada se basa en reconocer que variaciones ligeras en los pesos no cambiarán mucho la apariencia de la escala de grises, por esto se reduce el espacio de solución y se busca la posible solución óptima en un rango discreto de 66 candidatos. Esta estrategia reduce muchísimo los valores candidatos establecidos y reduce el tiempo de ejecución. Asumiendo como 푔 = ∑푐={푟,푔,푏} 푤푐퐼푐, donde la restricción de los parámetros de peso es {푤푐 ≥ 0, 푐 = {푟, 푔, 푏}; ∑푐={푟,푔,푏} 푤푐 = 1}. La función objetivo es establecida como:

2(|퐼푐,푥−퐼푐,푦|+휀2)|푔푥−푔푦| 퐺푐푠(푔) = − ∑(푥,푦)∈푃 ∑푐={푟,푔,푏} 2 2 donde 휀2 es una constante positiva que (|퐼푐,푥−퐼푐,푦|+휀2) +|푔푥−푔푦| provee estabilidad numérica. Después de discretizar el espacio de solución de 푤푟, 푤푔, 푤푏 en el rango de [0,1] con intervalo 0.1, el espacio de búsqueda es por lo tanto 퐽(퐽 + 1)/2 = 66, 퐽 =

11 al incorporar la restricción ∑푐={푟,푔,푏} 푤푐 = 1. Consecuentemente se evalúa la función objetivo con estos muy limitados candidatos y se selecciona el parámetro más pesado con menor valor objetivo como la solución óptima final. Claramente, la imagen correspondiente al menor valor de la función objetivo será escogida. El conjunto de pares de pixeles P es otra clave en la eficiencia del algoritmo. Intuitivamente, cuan mayor es el conjunto P, mejor desempeño llevará a cabo el algoritmo, mientras adiciona tiempo computacional.

30

Imagen RGB Iniciar GcsDecolor2

Normalizar Imagen

Formar parejas cada Tomar Canales de la pixeles y una Imagen (Subespacios) muestra aleatoria

Calcular la Búsqueda discreta con diferencia de color Matriz de pesos Wei entre las parejas de para decoloración pixeles

Aproximar la Imagen en escala de grises usando Finaliza la combinacion lineal de GcsDecolor2 Imagen los canales resultantes. Grayscale Figura 12 Diagrama de Flujo GcsDecolor2

2.2.3 SPDecolor Este método está basado en la publicación “Semi-Parametric Decolorization with Laplacian- based Perceptual Quality Metric” (Liu et al., 2017). En este, al observar el modelo de segundo orden como la suma de 3 subespacios se comprueba que el primer subespacio en el modelo de segundo orden tiene la importancia dominante y el segundo y tercer subespacio puede ser considerado como perfeccionamiento. Por lo tanto, se presenta una estrategia semi paramétrica global, sirviendo de ventaja los modelos de segundo orden y color a escala de grises. En el algoritmo propuesto, el resultado de color a escala de grises en el primer subespacio es tratado como una inmediata imagen griseada y entonces los parámetros en el segundo y tercer subespacio son optimizados. Se toma la imagen en escala de grises g como la suma de tres subespacios:

푔 = ∑ 푤푐1푚푐1 + ∑ 푤푐2푚푐2 + ∑ 푤푐3푚푐3

푚푐1∈푍1 푚푐2∈푍2 푚푐3∈푍3

푍1 = {퐼푟, 퐼푔, 퐼푏}; 푍2 = {퐼푟퐼푔, 퐼푟퐼푏, 퐼푔퐼푏}; 푍3 = {퐼푟퐼푟, 퐼푔퐼푔, 퐼푏퐼푏}

Donde 푍1, 푍2 y 푍3 son los subespacios abarcados por un conjunto de monomios. Por un motivo de conveniencia y brevedad, los elementos en los tres subespacios son llamados imágenes base. Como han sido predefinidos por la combinación lineal de canales de imágenes, el objetivo de la función de mapeo se torna en determinar los parámetros de peso {푤푐}, esta función de mapeo está definida por:

31

min − ∑ ln {∝푥,푦 푁휎 (∑ 푤푐푙푐(푥,푦) − 훿푥,푦) + (1 − 훼푥,푦)푁휎 (∑ 푤푐푙푐(푥,푦) + 훿푥,푦)} 푤푐 (푥,푦)∈푃 푙푐∈푍 푙푐∈푍

Las diferencias entre los tres subespacios son enormes. Primeramente, como los elementos de imagen en el subespacio 푍1 son de primer orden y los elementos de imagen en los subespacios 푍2 y 푍3 son de segundo orden, se espera que los elementos en el subespacio 푍1 estén menos correlacionados y que este tenga más contenido.

Bajo el análisis de que el primer subespacio 푍1 en el modelo paramétrico multivarianza de segundo orden tiene la mayor importancia y que los otros dos subespacios están secundaria y similarmente relacionados, se propone aplicar un enfoque semi optimizado para la decoloración: 푔 = 푔 + 푔 ; 푔 = ∑ 푤 푚 , 푔 = ∑ 푤 푚 1 2 1 푚푐1∈푍1 푐1 푐1 2 푚푐2∈{푍2,푍3} 푐2 푐2

Primeramente, se predefinen los factores de peso para la 푚푐1 ∈ 푍1. En segundo lugar, después de la inmediata imagen griseada 푔1 es alcanzada, se utilizan algunas técnicas de optimización para buscar el resultado óptimo proveniente de la inmediata imagen griseada y además el segundo y tercer subespacios inducen imágenes candidatas. El modelo semi optimizado es el 2 |∑ ( )| 푙푐∈{푍2,푍3} 푤푐푙푐(푥,푦)− 훿푥,푦−푔1 siguiente: min 퐸(푤) = − ∑(푥,푦)∈푃 ln {훼푥,푦푒푥푝 (− 2 ) + 푤푐∈{푍2,푍3} 2휎 2 |∑ 푤 푙 +(훿 +푔 )| (1 − 훼 )푒푥푝 (− 푙푐∈{푍2,푍3} 푐 푐(푥,푦) 푥,푦 1 )} 푥,푦 2휎2

Imagen RGB Iniciar SPDecolor Normalizar Imagen

Tomar los Canales Establecer Matriz de de la Imagen pesos Wei para (Subespacios) decoloración

Acotamiento correcto de NO INCREMENTAR R, G, B subespacios R, G, B

SI

VALORES ESCALA DE GRISES Finaliza SPDecolor CORRECTOS Imagen Grayscale Figura 13 Diagrama de Flujo SPDecolor 32

2.2.4 Kim09 (Decolor_nonlinear2009) Este método está basado en la publicación “Robust Color-to-gray via Nonlinear Global Mapping” (Kim et al., 2009). Para la consistencia de mapeo el método utiliza un mapeo global para la conversión de color a escala de grises, esto previene conversiones no homogéneas de regiones constantes de color, lo que podría desorganizar la apariencia de las imágenes. El mapeo global es especificado por la fórmula funcional no lineal, g (x; y) = L + f(θ)C; donde L, C y θ son los ángulos respectivamente para la luminosidad, la croma y la tonalidad de los valores de color para un pixel (x,y) en el espacio de color CIE LCH. Debido a que el ángulo de tonalidad θ tiene periodicidad 2π, la función f(θ) se modela como un polinomio trigonométrico como sigue:

푓(휃) = ∑(퐴푘 cos kθ + 퐵푘 sin kθ + 퐴0) 푘=1 Donde 퐴푘, 퐵푘 y 퐴0 son parámetros desconocidos optimizados para preservar la apariencia visual en la conversión de color a escala de grises. El mapeo global g es bien empleado para lograr el éxito en la fidelidad de la luminosidad. Cuando la croma C es 0, el color dado es gris y no será cambiado al mapear g. Similarmente, cuando C es pequeño, el color dado está menos saturado y la luminosidad del pixel no cambiará mucho en la conversión. Si hay suficientes píxeles casi grises, estos guiarán la conversión de otros píxeles a través de los gradientes de imagen, previniendo cambios abruptos en la luminosidad. Incluso cuando la imagen a color no contiene píxeles grises, la luminosidad L es un factor mayor y domina los valores convertidos a la escala de grises. Para preservar las características en la conversión de color a gris, se minimiza la diferencia de los gradientes de imagen entre el color original y las imágenes resultantes en escala de grises. 2 La función de energía es definida por:퐸푆 = ∑(푥,푦)∈Ω‖∇푔(푥, 푦) − 퐺(푥, 푦)‖ Donde (x,y) es un pixel en la imagen Ω. ∇g es el gradiente de la imagen en escala de grises, 퐺푥(푥,푦) 푇 푐(푥+1,푦)θ푐(푥−1,푦) 푇 definida por: 퐺(푥, 푦) = ( ) = ( ) 퐺푦(푥,푦) 푐(푥,푦+1)θ푐(푥,푦−1) El operador de diferencia de color θ es definido por: 2 ∗ 2 ∗ 2 √∆푎 푖푗 + ∆푏 푖푗 푐 θ푐 = sign(푐 , 푐 )√∆퐿 2 + ∝ 푖 푗 푖 푗 푖푗 ℛ ( ) ∗ ∗ ∗ ∗ Donde L, 푎 y 푏 son la representación CIE L*a*b* de color c, ∆퐿푖푗 = 퐿푖 − 퐿푗, ∆푎 푖푗 = 푎 푖 − ∗ ∗ ∗ ∗ 푎 푗 y ∆푏 푖푗 = 푏 푖 − 푏 푗. ℛ es la constante de normalización, ℛ = 2.54√2, para ecualizar los

∗ 2 ∗ 2 rangos del contraste cromático, √∆푎 푖푗 + 푏 푖푗 y el contraste de la luminosidad ∆퐿푖푗. ∝ es un parámetro especificado por el usuario para controlar la influencia del contraste cromático en la discriminación de rasgos.

33

Iniciar Imagen RGB decolor_nolinear2009

Normalizar Imagen

Convertir la imagen Calcular las diferencias al espacio de color de color G en el modelo LAB/LCH/LUV cromático Nayatani

Calcular G Calcular el signo de G

Reesterilizar la matriz de imagen

Calcular la función energética

Definir la imagen resultante Finaliza usando el mapeo de L, C y X decolor_nolinear2009 Imagen Grayscale

Figura 14 Diagrama de Flujo Decolor_nonlinear2009

2.3 Procedimiento de evaluación utilizado. Para evaluar los métodos de reducción de dimensionalidad de imágenes a color dependeremos del propósito de la imagen final. Por ejemplo, si la imagen reducida final será evaluada por un observador humano se dependerá de si este observador tiene una visión normal o tiene deficiencia en la percepción de los colores. En cambio, si la imagen reducida final será procesada digitalmente, en este caso como una imagen en escala de grises el procedimiento de evaluación deberá cuantificar el desempeño de la secuencia de pasos del procesamiento. Por esto es casi imposible lograr una caracterización general del proceso de evaluación para los métodos de reducción de dimensionalidad en imágenes a color. No obstante, los procedimientos de conversión a escala de grises cuentan con un consenso de aspectos objetivos para la evaluación de los mismos, consistentes en el uso de un conjunto de imágenes y algunos parámetros de desempeño. La evaluación subjetiva de la imagen reducida final es considerada actualmente la más clara evaluación para determinar la calidad de la imagen. Hasta la fecha, muchos autores han desempeñado pruebas con observadores experimentales para la evaluación subjetiva, estos se enfocaron en evaluar algunas propiedades específicas o avances que presentaban sus métodos.

34

2.3.1 Diseño del experimento Con el objetivo de evaluar los métodos de conversión a escala de grises se han escogido un grupo de imágenes tanto naturales como sintéticas. A estas imágenes se les lleva a cabo el proceso de decoloración mediante los métodos Decolor_nonlinear2009, GcsDecolor2, SPDecolor y Decolor_linear2006 y se evalúan objetivamente utilizando las métricas CCPR y CCFR. Finalmente se realiza una evaluación subjetiva utilizando 12 observadores no expertos a los cuales se le pide que escojan de las imágenes en escalas de grises cuales consideran que son las mejor convertidas según sus correspondientes imágenes a color. Cada sujeto observa las imágenes de manera aleatoria, algunas de las cuales se le repiten para disminuir la variabilidad intra-observador.

2.3.2 Bases de casos utilizadas Las imágenes utilizadas en el diseño del experimento están escogidas del conjunto de 212 imágenes aportadas en la publicación “Contrast Preserving Decolorization with Perception- Based Quality Metrics” (Lu, Xu and Jia, 2014).

2.3.3 Medidas Objetivas Los métodos de decoloración tienen carencia de evaluaciones cuantitativas para entender sus desempeños. Los enfoques clásicos de referencias tales como Promedio del error al cuadrado (MSE) y Similaridad Estructural (SSIM) no son aplicables en estas circunstancias, ya que la imagen original a color y la imagen obtenida final en escala de grises no tienen la misma dimensión. A su vez, aplicar las medidas de referencia-reducida y no-referencia es conceptualmente inapropiado ya que la imagen a color contiene mucha más información que la imagen en escala de grises. Dos métricas básicas se proponen en este trabajo, midiendo respectivamente la preservación de contraste y la similaridad de contenido de las imágenes de entrada. Estas métricas están motivadas por el requerimiento fundamental de la conversión de color a escala de grises, el cual es mantener tanto como sea posible los cambios de colores sin generar nuevos bordes que no encuentran ninguna correspondencia en la imagen original a color. La medida final combina dos métricas para formar la Marca-E, similar a la ampliamente usada Medida-F para encuentro de precisión en el área de la estadística. La primera medida objetiva es la propuesta en (Lu, Xu and Jia, 2012), para evaluar cuantitativamente los algoritmos de conversión de color a escala de grises en términos de preservación del contraste. La Razón de Preservación de Contraste del Color (CCFR) está basada en el juicio de que si el contraste de color entre dos píxeles p y q, Cp,q, es más pequeño que un umbral 휏, se convierte casi invisible en la visión humana. 35

Cp,q = ‖(퐿∗ , 푎∗ , 푏∗ ) − (퐿∗ , 푎∗ , 푏∗)‖ = 푝 푝 푝 푞 푞 푞 퐿∗푎∗푏∗

2 2 2 ∗ ∗ ∗ ∗ ∗ ∗ = √(퐿푝 − 퐿푞) + (푎푝 − 푎푞) + (푏푝 − 푏푞)

La tarea de decoloración preservando el contraste es por lo tanto mantener los cambios de color que son perceptibles por los humanos, o sea:

#{(푝,푞) | (푝,푞) ∈ , |푔 − 푔 | ≥ 휏} CCPR = 푝 푞 , ‖ ‖ donde  es el arreglo conteniendo todos los pares de píxeles cercanos con su diferencia original de color Cp,q  . |||| es el número pares de píxeles en . #{(푝, 푞) | (푝, 푞) ∈ , |푔푝 − 푔푞| ≥ 휏} es el número de pares de píxeles en  que son todavía distinguibles después de la conversión.

Figura 15 Las imágenes muestran, en la (a) la imagen original a color, del (b)-(e) las imágenes resultantes de los métodos propuestos y en la (f) la imagen resultante con la preservación de contraste en los pétalos. La segunda medida objetiva es la propuesta en (Lu, Xu and Jia, 2014), para incrementar la posibilidad de una evaluación más objetiva de los procedimientos de conversión de color a escala de grises. La Razón de Fidelidad de Contenido del Color (CCFR) y La Marca-E es efectiva para medir la pérdida de contraste después de la conversión. Aun así, no dice cómo la imagen en escala de grises es fiel a la imagen de entrada a color en términos de estructuras. Para complementar esto, similar a la medida de retirada en estadística que mide si las instancias relevantes son recuperadas o no, la CCFR incorpora este tipo de información, definida como:

#{(푝,푞) | (푝,푞) ∈ , 퐶푝,푞 ≤ 휏} CCFR = 1  , ‖ ‖

36

Donde son los pares de pixeles fijos contenidos con |gp – gq| > , correspondientes a las estructuras con el menor contraste. Si la diferencia entre los pixeles originales es pequeña, por ejemplo, Cp,q  , el radio #{(푝, 푞) | (푝, 푞) ∈ , 퐶푝,푞 ≤ 휏} / ‖ ‖ medirá la ocurrencia de datos artificiales no deseados en el resultado. Adicionalmente, la Marca-E considera conjuntamente la CCPR y la CCFR. Es el promedio de estas dos medidas y se escribe como: 2(퐶퐶푃푅)(퐶퐶퐹푅) E-score = 퐶퐶푃푅 +퐶퐶퐹푅 Como ha sido remarcado por los autores, una superior CCPR y CCFR no implica un mejor resultado. Solo la Marca-E determina la calidad final. No obstante, aunque la Marca-E provee uno de los resultados más prometedores hasta la fecha, no puede hacer adecuadas predicciones de calidad de imágenes convertidas de color a escala de grises.

Figura 16 Las imágenes muestran, en la (a) las imágenes originales a color, el (b) las imágenes resultantes de los métodos propuestos y en la (c) las imágenes resultantes con CCFR incluido.

37

2.3.4 Medidas Subjetivas En 2008 una evaluación exhaustiva conducida por Cadík, (Neumann, Cadik and Nemcsics, 2007) consistente de dos experimentos subjetivos se convirtió en la metodología de referencia para comparar métricas de evaluación de calidad objetiva. El experimento le pide al sujeto seleccionar la más favorable imagen convertida a escala de grises de un grupo de imágenes. Los experimentos subjetivos se pueden conducir de dos formas, la primera, en la cual se muestran las imágenes en escala de grises con su correspondiente imagen original a color como referencia y la segunda, en la cual se muestran las imágenes convertidas sin ninguna referencia. Sin importar la forma del experimento utilizada la comparación se puede basar en los Coeficientes de Correlación de Spearman y Kendall (SRCC y KRCC respectivamente), así como en el test no paramétrico de Chi Cuadrado para comprobar la veracidad de los datos. El promedio y la desviación estándar de los valores de SRCC y KRCC para cada sujeto individual en la exactitud y preferencia de la prueba puede ser calculada y ploteada. Puede utilizarse para observar si hay acuerdo entre diferentes sujetos al calificar las imágenes convertidas. Una desviación estándar baja de SRCC y KRCC denota un alto grado de acuerdo. No obstante, los buenos resultados obtenidos con las pruebas subjetivas estas consumen gran cantidad de tiempo, resultan costosas y lo más importante, no se pueden incorporar en sistemas automáticos de monitorización de la calidad de las imágenes, ni para optimizar algoritmos de procesamiento de imágenes.

2.4 Análisis Estadístico de los Resultados

Para el análisis estadístico de los datos resultantes se aplican medidas no paramétricas. Para el caso de los datos de las pruebas realizadas se decide escoger el test no paramétrico de Chi cuadrado, prueba en la que el estadístico utilizado sigue una distribución χ² si la hipótesis nula es cierta. Algunos ejemplos de pruebas χ² son:

 La prueba χ² de Pearson, la cual tiene numerosas aplicaciones:

 La prueba χ² de frecuencias  La prueba χ² de independencia  La prueba χ² de bondad de ajuste

 La prueba χ² de Pearson con corrección por continuidad o corrección de Yates  La prueba de Bartlett de homogeneidad de varianzas

Esta prueba mide la discrepancia entre una distribución observada y otra teórica (bondad de ajuste), indicando en qué medida las diferencias existentes entre ambas, de haberlas, se deben al azar en el contraste de hipótesis. También se utiliza para probar la independencia de dos variables entre sí, mediante la presentación de los datos en tablas de contingencia.

38

2 2 푘 (푂푏푠푒푟푣푎푑푎푖−푇푒ó푟푖푐푎푖) La fórmula que da el estadístico es la siguiente: 푥 = ∑푖=1 푇푒ó푟푖푐푎푖

Cuanto mayor sea el valor de 푥2, menos verosímil es que la hipótesis sea correcta. De la misma forma, cuanto más se aproxima a cero el valor de chi-cuadrado, más ajustadas están ambas distribuciones.

Los grados de libertad gl vienen dados por: 푔푙 = (푟 − 1)(푘 − 1)

Donde r es el número de filas y k el de columnas.

 Criterio de decisión:

2 2 No se rechaza 퐻0 cuando 푥 < 푥푡 (푟 − 1)(푘 − 1). En caso contrario sí se rechaza.

Donde t representa el valor proporcionado por las tablas, según el nivel de significación estadística elegido. (Plackett, 1983)

2.5 Conclusiones del Capítulo

En este capítulo se realiza una descripción de los métodos implementados, de sus diagramas de flujo, así como de las funciones matemáticas que los caracterizan. Se explican los beneficios del lenguaje de programación Python al escogerlo como el lenguaje para la implementación de los métodos. Se informa sobre las bases de casos utilizadas y el diseño del experimento de evaluación de los resultados. Este procedimiento de evaluación se divide en medidas de evaluación objetivas y subjetivas, las cuales son descritas para la comprensión de su fundamentación. A las mismas se le realizan diferentes análisis estadísticos los cuales sintetizan los datos resultantes para facilitar su comprensión.

39

CAPÍTULO 3. Resultados y Discusión

3.1 Evaluación comparativa de los métodos implementados. Para evaluar la eficiencia de los métodos implementados se realizaron pruebas objetivas y subjetivas con el objetivo de lograr una variabilidad a la hora de obtener resultados que validen este trabajo investigativo. No es objetivo de esta investigación demostrar la superioridad de ninguno de los métodos por encima de otro, simplemente se quiere demostrar la variabilidad en cuanto a la eficiencia que presentan los mismos según la forma en la que se evalúan sus resultados y según las características que se quieran evaluar de los mismos.

3.1.1 Objetiva. La Tabla 4 muestra los valores del CCPR, el CCFR y la Marca-E generados para los cuatro métodos implementados. Idealmente, la Marca-E más alta se lograría si todo el contraste del color fuera preservado y no se creara ningún borde inconsistente en la imagen resultante en escala de grises, lo cual haría el CCPR y el CCFR igual a 1. Una decoloración independiente del contenido de la imagen produce bajos valores de CCPR. La generación de datos artificiales o bordes de color muy resaltados lleva a bajos valores de CCFR. Vale destacar que altos valores de CCPR o CCFR no corresponde necesariamente a un mejor resultado. EL valor de calidad final es determinado por el valor de la Marca-E. (Lu, Xu and Jia, 2014)

Tabla 4 Comparación de CCPR, CCFR y Marca-E.

Métodos CCPR CCFR Marca-E Decolorize 0,97221706 0,84012828 0,89853883 GcsDecolor2 0,96424375 0,86063595 0,90752681 SPDecolor 0,91779749 0,80481494 0,85230352 Decolor_nonlinear2009 0,9679211 0,83981393 0,89642688

La evaluación objetiva fue llevada a cabo mediante los parámetros de CCPR, CCFR y Marca-E para un valor umbral de 휏 = 15. Todos los métodos presentan altos valores de CCPR y CCFR lo que indica, para el primero que no realizaron una decoloración independiente del contenido de las imágenes y para el segundo que no se generaron datos artificiales o bordes resaltados. El método con mejor valor de CCPR es el Decolorize (Decolor_linear2006) y el GcsDecolor2 presentó el mayor valor para CCFR. No obstante, el método con mayor calidad según los valores de Marca-E fue el GcsDecolor2. En general todos los métodos muestran gran eficiencia debido a sus valores cercanos a 1. El desempeño de los métodos se puede apreciar en la siguiente figura:

40

Figura 17 Valores de CCPR, CCFR y Marca-E para los cuatro métodos.

3.1.2 Subjetiva. La evaluación subjetiva de los métodos fue llevada a cabo para evaluar la variabilidad inter e intraobservador, la cual está limitada por diversos factores entre los cuales se incluye la calidad técnica de la imagen. Se evaluó el desempeño de los cuatro métodos implementados con sus respectivas conversiones de 20 imágenes a color de prueba. Estas fueron evaluadas por 12 sujetos los cuales escogieron basados en la imagen en escala de grises que según sus criterios personales fueron las mejores que preservaron el contraste, los detalles y las diferencias entre los colores. De los 12 sujetos a 4 se les realizó el experimento nuevamente un día después para calcular la variabilidad intraobservador de la prueba. El análisis estadístico para la variabilidad intraobservador fue realizado usando el Software SPSS utilizando para ello el coeficiente de correlación (r de Pearson) para variables continuas. Se consideró una r mayor o igual a 0.70 como buena y de 1 como perfecta. Los resultados dados por el SPSS para los sujetos 1 y 2 en las dos pruebas realizadas es el siguiente:

Figura 18 Resultados del SPSS para los sujetos 1 y 2 respectivamente. Los resultados dados por el SPSS para los sujetos 3 y 4 en las dos pruebas realizadas es el siguiente:

Figura 19 Resultados del SPSS para los sujetos 3 y 4 respectivamente.

41

En los resultados el coeficiente de correlación intraobservador para el índice de motilidad osciló con los valores de r: 0,071, 0,596 y 0,945 siendo la correlación entre muy baja, baja y muy buena, encontrándose variabilidad en la relación con el grupo de observación. Esto da como conclusión que la variabilidad intraobservador puede estar condicionada por factores ajenos a las pruebas subjetivas realizadas. Para la evaluación interobservador se calculó el ranking dado por todos los sujetos a los cuatro métodos, estos fueron ordenados como: Decolor_nonlinear2009 con un porciento del 36%, SPDecolor con un porciento del 28%, Decolor_linear2006 con un porciento del 19% y GcsDecolor2 con un porciento del 17%. La Tabla 5 muestra la frecuencia de selección obtenida para cada método y su porciento correspondiente. Los resultados muestran que el método Decolor_nonlinear2009 fue el más escogido por los sujetos en la evaluación, mientras que los métodos Decolorize y GcsDecolor2 presentan las más bajas evaluaciones. Sin embargo, se propone establecer pruebas estadísticas para decidir si las diferencias se deben a la eficiencia de los métodos o a una variabilidad aleatoria en la valoración de los sujetos.

Tabla 5 Evaluaciones subjetivas de los métodos.

Métodos Decolorize GcsDecolor2 SPDecolor Decolor_nonlinear2009 Total Frecuencia 47 41 69 89 246 % 19 17 28 36 100% Se realizan pruebas de hipótesis para validar la veracidad de las pruebas subjetivas realizadas, para esto se definen las hipótesis nula y alternativas de la siguiente forma:

Ho: No existe diferencia significativa en la selección llevada a cabo por los sujetos. La probabilidad de haber escogido cualquiera de los métodos es la misma. Ha: Hay métodos que logran una mayor eficiencia en la selección, concluyendo con un aporte mayor en los resultados. Entonces, la probabilidad de encontrar en la selección alguno de los métodos es diferente. Puesto que la indagación es de caracterización (sujetos de evaluación) con relación a un indicador (método de conversión de imágenes de color a escala de grisies) en una escala nominal o clasificatoria (diferentes métodos), con más de dos clases mutuamente excluyentes, la prueba estadística de valoración de los resultados a aplicar es: Chi Cuadrado para una muestra.

42

Se realiza un análisis de contraste de hipótesis, cuyo estadístico será:

2 2∗ 푘 (푂푖−퐸푖) 푥 = ∑푖=1 , con k-1 grados de libertad, donde 푂푖 son los valores de frecuencia 퐸푖 obtenidos según la Tabla 5, 퐸푖 es el valor de frecuencia esperada y k es el número de métodos, en este caso 4, con un nivel de significación de 5 %.

∗ El valor 푥2 será la suma de k números no negativos. El numerador de cada término es la diferencia entre la frecuecia observada y la frecuecia esperada. Por tanto, cuanto más cerca estén entre sí ambos valores más pequeño será el numerador, y viceversa. El denominador permite relativizar el tamaño del numerador. (Chi-cuadrado et al., no date) La frecuencia esperada se calcula multiplicando el número total de pruebas n = 246 por la probabilidad de ocurrencia asociada, es decir: 1 퐸푖 = 푛 ∗ 푝푖 = 246 ∗ ⁄4 = 61,5 푖 = 1, … , 푘 El estadístico de contraste sería: (47 − 61,5)2 (41 − 61,5)2 (69 − 61,5)2 (89 − 61,5)2 푥2 = + + + = 23,4633 61,5 61,5 61,5 61,5 Este valor se compara con la tabla de valores críticos de la distribución teórica de Chi Cuadrado. 2 2 El valor crítico de la distribución 푥 con (4-1) = 3 grados de libertad es 푥 0.95 (3) = 7,81. Puesto que el valor estadístico 23,46 es mayor que el valor crítico 7,81 se rechaza la hipótesis nula y se aprueba la hipótesis alternativa, es decir, que de los métodos hay algunos que logran una mayor eficiencia en la selección, concluyendo con un aporte mayor en los resultados. Entonces, la probabilidad de encontrar en la selección alguno de esos métodos es mayor.

3.2 Diseño e implementación del paquete de conversión de imágenes a escala de grises: C2G y la herramienta asociada: C2GApp.

Con la finalidad de permitir un correcto uso y aplicabilidad de los elementos implementados se ofrece esta ayuda o manual de usuario. En el mismo se dispondrá de información referente a las principales funcionalidades del paquete de algoritmos y la aplicación que amplía las funcionalidades desarrolladas en este. En la ayuda se mantiene un lenguaje no formal con respecto a las características típicas a la disciplina de Ciencias de la Computación para permitir un entendimiento completo destinado a los usuarios y desarrolladores que posteriormente usen o modifiquen este sistema. Este manual está contenido como parte de la ayuda distribuida junto a la aplicación principal.

43

3.2.1 Implementación del paquete de algoritmos C2G Un enfoque correcto y basado en la eficiencia fue necesario desde la concepción de la idea de construir un paquete de algoritmos basados en la conversión a escala de grises de imágenes a color. Debido a que se implementarían algoritmos complejos y costosos computacionalmente era necesario establecer una plataforma de desarrollo que permitiera afrontar los desafíos de manera óptima. Nuestro estudio nos permitió comparar diferentes posibilidades en cuanto a lenguajes, desde c++, java, c#, Matlab y Python; donde escogimos el último por las posibilidades que nos permitía. Cabe destacar la legibilidad de su sintaxis y código, la eficiencia generada por el mismo, aunque sea un lenguaje interpretado, muy buena disposición de distribuciones de paquetes de corte científico para el trabajo con matrices, interoperabilidad y posibilidades de redistribución del código fuente generado. En la implementación del paquete se usaron varias bibliotecas, todas bajo la licencia MIT que permite la redistribución del código fuente sin costo alguno lo que es una ventaja esencial a la hora de desarrollar nuestro proyecto. Entre ellas se destacan OpenCV, NumPy, SciPy, PIL, PyQt, MatPlotLib, cada una brinda herramientas indispensables para el desarrollo de nuestra aplicación, como son: 1. Operaciones con arreglos multidimensionales (NumPy)

2. Slicing de matrices y arreglos multidimensionales (NumPy)

3. I\O de imágenes (OpenCV)

4. Medidas estadísticas. (SciPy)

5. Herramientas de procesamiento digital de imágenes (OpenCV, PIL, MatPlotLib)

6. Implementación de GUI (PyQt)

Se pretende en un posterior acercamiento empaquetar en Wheels el paquete de algoritmos para poder ser distribuido bajo la plataforma PIP de instalación de componentes en sistemas interpretados Python. Se implementaron 4 scripts que permiten el cálculo de conversión a imágenes independientemente de su formato origen. Estos son: - SPDecolor (Liu et al., 2017)

- GCSDecolor (Liu et al., 2015)

- Decolor_Linear2006 (Grundland and Dodgson, 2007)

- Decolor_NonLinear2009 (Kim et al., 2009)

44

3.2.2 Implementación de la aplicación visual C2G_app Se validó la motivación desde un comienzo de crear una aplicación que demuestre la eficiencia de estos algoritmos tanto computacionalmente como visualmente (evaluación subjetiva) a la hora de transformar las imágenes a su versión decolorada. Para ello se hace uso del framework multiplataforma orientado a objetos: Qt, que permite construir independientemente la aplicación visual de su núcleo algorítmico por lo cual esta puede ser portada a cualquier sistema que de soporte a esta plataforma; actualmente todos los principales sistemas operativos apoyan a Qt incluidos versiones móviles.

Figura 20 Imagen principal de la aplicación. Esta aplicación presenta un diseño modular, lo cual es imprescindible para mantener activo el desarrollo en este campo de investigación posibilitando incluir nuevos algoritmos de conversión que complementen la funcionalidad de la aplicación. Esta característica fue lograda usando las bondades de la programación dinámica y referenciada que brinda Python, así como la aplicación de las functools. La herramienta C2G_app presenta diferentes funcionalidades, diseñadas y programadas con el objetivo de ser amigables para cualquier tipo de usuario, ya que esta puede ser usada por personal de perfil investigativo o con fines puramente artísticos. La primera versión en estado beta, cuenta con las siguientes funcionalidades principales: - Trabajo con imágenes

- Carga

- Salva

- Impresión

- Conversión Figura 21 Muestra del trabajo con imágenes.

45

- Algoritmos de Transformación - Medidas Objetivas

Figura 22 Muestra de las medidas de evaluación.

Figura 23 Muestra de los algoritmos de transformación. El trabajo con imágenes le permite al usuario usar cualquier tipo de imagen, independientemente de su formato, tamaño o sus dimensiones1. La conversión puede ser aplicada seleccionando una imagen, varias o una carpeta. Al aplicar el algoritmo de conversión las imágenes resultantes serán enviadas al path actual o al elegido por el usuario en la ventana de selección.

Figura 24 Muestra seleccionar imagen. La aplicación de las medidas objetivas devuelve los valores específicos de aplicar sobre un rango diferentes medidas de comparación a imágenes decoloradas; estas son CCPR, CCFR y el promedio de ambas: E-score.

1 Se recomienda usar imágenes con tamaño menor a 3500x3500p al usar los métodos Decolor_Linear y Decolor_NonLinear debido a que las operaciones con matrices de imágenes con dimensiones mayores a estas pueden ser extremadamente costosas en memoria RAM lo que puede llegar levantar una excepción de stack overflow. 46

Figura 25 Muestra resultados de la aplicación.

3.3 Conclusiones del capítulo

En el presente capítulo se exponen los resultados de las pruebas objetivas y subjetivas desarrolladas, así como las evaluaciones estadísticas creadas de las mismas, gracias a la herramienta SPSS. Se especifican las bibliotecas utilizadas en el desarrollo del paquete y la aplicación visual. Se ofrece una ayuda detallada dirigida a los usuarios finales de la aplicación. Esta sirve como guía principal para su uso y posibles mejoras a tener en cuenta en la aproximación futura de esta investigación. Este manual ha sido añadido íntegramente a la aplicación C2G_app, para facilitar su alcance. De esta forma se concluye el capítulo tercero de la presente tesis de diploma.

47

CONCLUSIONES

El problema de la conversión de imágenes C2G ha tomado gran interés en los últimos años. Es un tema de investigación activo y amplio que recorre el ilimitado rango de variabilidad a la hora de convertir imágenes de color a escala de grises. Al ser fundamentalmente un proceso de reducción de dimensionalidad es inevitable la pérdida de información. Muchos de los métodos de conversión se han enfocado en la percepción visual de las imágenes en escala de grises con propósitos en la impresión de documentos y representaciones artísticas. La otra parte de los métodos tienen como objetivo su procesamiento digital para análisis automático. El análisis individual de las imágenes ha llevado a la conclusión de que ningún método produce un buen resultado para todas las imágenes que convierte. Todos los métodos han probado ser efectivos para un aspecto en específico. En este trabajo se elaboró un paquete que permite la conversión de imágenes de color a escala de grises mediante la implementación de varios métodos de conversión en estado-del-arte. Se desarrolló la implementación en el lenguaje de programación Python, con el objetivo de contar con éstas en un lenguaje fácil y portable. Se desarrolló una interfaz de usuario amigable mediante la herramienta PyQt para proveer ayuda en la ejecución del paquete. Se desarrollaron pruebas de evaluación de los métodos para la validación de los resultados, de forma objetiva y subjetiva. La implementación final del software es lo suficientemente flexible para ser extendida por Cibernéticos-Informáticos con otras implementaciones de otros métodos y finalmente lograr soluciones de consenso de interés para la comunidad de investigadores de este tema. Se logró además una visualización de las imágenes convertidas para no especialistas en la disciplina de Ciencias de la Computación.

48

RECOMENDACIONES

1. Continuar este trabajo con representaciones de otros de los métodos de conversión de imágenes de color a escala de grises. 2. Implementar complementos de utilidad para no especialistas en Computación como Conversión Estilizada y Transformaciones Dinámicas con asistencia de usuario. 3. Portar la herramienta C2G_app a otras plataformas como Android o MacOS.

49

BIBLIOGRAFÍA

Ancuti, C. O., Ancuti, C. and Bekaert, P. (2011) ‘Enhancing by saliency-guided decolorization’, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 257–264. doi: 10.1109/CVPR.2011.5995414. Anderson, D. (no date) ‘Color Spaces in Frame Grabbers: RGB vs. YUV’. Bala, R. and Braun, K. M. (2003) ‘Color-to-grayscale conversion to maintain discriminability’, Proceedings of SPIE - The International Society for Optical Engineering, 5293(1), pp. 196– 202. doi: 10.1117/12.532192. Bala, R., Eschbach, R. and York, N. (2004) ‘Spatial Color-to-Grayscale Transform Preserving Chrominance Edge Information’, Proc ISTSIDs 12th Color Imaging Conference, 100(2), p. 4. Available at: http://chester.wrc.xerox.com/~raja/papers/CIC12_Bala_Eschbach.pdf. Benedetti, L. et al. (2010) ‘Color to gray conversions in the context of stereo matching algorithms’, Machine Vision and Applications, 57(2), pp. 254–348. doi: 10.1007/s00138-010- 0304-x. Chi-cuadrado, P. et al. (no date) ‘ESTADÍSTICA NO PARAMÉTRICA ’:, pp. 1–20. Cui, M. et al. (2010) ‘Color-to-gray conversion using ISOMAP’, Visual Computer, 26(11), pp. 1349–1360. doi: 10.1007/s00371-009-0412-7. Du, H. et al. (2015) ‘Saliency-guided color-to-gray conversion using region-based optimization’, IEEE Transactions on Image Processing, 24(1), pp. 434–443. doi: 10.1109/TIP.2014.2380172. Gooch, A. et al. (2002) ‘Color2gray: salience-preserving color removal’, Dl.Acm.Org, pp. 634– 639. Available at: https://dl.acm.org/citation.cfm?id=1073241. Grundland, M. and Dodgson, N. A. (2007) ‘Decolorize: Fast, contrast enhancing, color to grayscale conversion’, Pattern Recognition, 40(11), pp. 2891–2896. doi: 10.1016/j.patcog.2006.11.003. Güneş, A., Kalkan, H. and Durmuş, E. (2016) ‘Optimizing the color-to-grayscale conversion for image classification’, Signal, Image and Video Processing, 10(5), pp. 853–860. doi: 10.1007/s11760-015-0828-7. Haritha, M. and Reddy, R. S. (2013) ‘COLOR CONVERSION AND WATER SHED SEGMENTATION FOR RGB IMAGES’, pp. 82–87. Hassen, R., Wang, Z. and Salama, M. M. A. (2015) ‘Objective Quality Assessment for Multiexposure Multifocus Image Fusion’, 24(9), pp. 2712–2724. Havlicek, C. T. N. and J. P. (no date) ‘Color To Grayscale Image Conversion Using Modulation Domain Quadratic Programming’. Ji, Z. et al. (2016) ‘Efficient decolorization preserving dominant distinctions’, Visual Computer.

50

BIBLIOGRAFÍA

Springer Berlin Heidelberg, 32(12), pp. 1621–1631. doi: 10.1007/s00371-015-1145-4. Jin, Z., Li, F. and Ng, M. K. (2014) ‘A Variational Approach for Image Decolorization by Variance Maximization’, SIAM Journal on Imaging Sciences, 7(2), pp. 944–968. doi: 10.1137/130935197. Kim, Y. et al. (2009) ‘Robust color-to-gray via nonlinear global mapping’, ACM Transactions on Graphics, 28(5), p. 1. doi: 10.1145/1618452.1618507. Kingdom, F. A. A. (2011) ‘Lightness, brightness and transparency: A quarter century of new ideas, captivating demonstrations and unrelenting controversy’, Vision Research. Elsevier Ltd, 51(7), pp. 652–673. doi: 10.1016/j.visres.2010.09.012. Knowlton, J. (2009) ‘Python’. Kuk, J. G., Ahn, J. H. and Cho, N. I. (2011) ‘A color to grayscale conversion considering local and global contrast’, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 6495 LNCS(PART 4), pp. 513– 524. doi: 10.1007/978-3-642-19282-1_41. L.~Busin, N.~Vandenbroucke and L.~Macaire (2008) ‘Color spaces and image segmentation’, Advances in Imaging and Electron Physics, 151(7), pp. 65–168. Liu, Q. et al. (2015) ‘GcsDecolor: Gradient Correlation Similarity for Efficient Contrast Preserving Decolorization’, IEEE Transactions on Image Processing, 24(9), pp. 2889–2904. doi: 10.1109/TIP.2015.2423615. Liu, Q. et al. (2017) ‘Semiparametric Decolorization with Laplacian-Based Perceptual Quality Metric’, IEEE Transactions on Circuits and Systems for Video Technology, 27(9), pp. 1856– 1868. doi: 10.1109/TCSVT.2016.2555779. Lu, C., Xu, L. and Jia, J. (2012) ‘Real-time contrast preserving decolorization’, SIGGRAPH Asia 2012 Posters on - SA ’12, 1(212), p. 1. doi: 10.1145/2407156.2407174. Lu, C., Xu, L. and Jia, J. (2014) ‘Contrast Preserving Decolorization with Perception-Based Quality Metrics’, International Journal of Computer Vision, 110(2), pp. 222–239. doi: 10.1007/s11263-014-0732-6. Martelli, A. (2007) ‘Python. Guía de referencia’. Neumann, L., Cadik, M. and Nemcsics, A. (2007) ‘An Efficient Perception-based Adaptive Color to Gray Transformation’, Proceedings of the Eurographics Workshop on Computational Aesthetics in Graphics, Visualization and Imaging 2007 (CAe 2007, June 20--22, 2007, Banff, Alberta, Canada), pp. 73–80. doi: http://dx.doi.org/10.2312/COMPAESTH/COMPAESTH07/073-080. Oliphant, T. E. (2007) ‘Python for Scientific Computing’, Computing in Science & Engineering, 9(3), pp. 10–20. doi: 10.1109/MCSE.2007.58. Ortod, R. E. (2005) ‘La imagen digital’, pp. 255–266. Plackett, R. L. (1983) ‘Karl Pearson and the Chi-Squared Test’. Rasche, K., Geist, R. and Westall, J. (2005) ‘Detail preserving reproduction of color images for monochromats and dichromats’, IEEE Computer Graphics and Applications, 25(3), pp. 22–30. doi: 10.1109/MCG.2005.54. 51

BIBLIOGRAFÍA

Smith, K. (2008) ‘2008-27-2-Apparent Greyscale A Simple and Fast Conversion to perceptually accurate image and video.pdf’, 27(2), pp. 193–200. Song, M. et al. (2010) ‘Color to gray: Visual cue preservation’, IEEE Transactions on Pattern Analysis and Machine Intelligence, 32(9), pp. 1537–1552. doi: 10.1109/TPAMI.2009.74. Song, M. et al. (2013) ‘Color-to-gray based on chance of happening preservation’, Neurocomputing, 119, pp. 222–231. doi: 10.1016/j.neucom.2013.03.037. Wright, W. D. (1981) ‘50 years of the 1931 CIE Standard Observer’. Wu, J., Shen, X. and Liu, L. (2012) ‘Interactive two-scale color-to-gray’, Visual Computer, 28(6–8), pp. 723–731. doi: 10.1007/s00371-012-0683-2. Wu, T. and Toet, A. (2014) ‘Color-to-grayscale conversion through weighted multiresolution channel fusion’, Journal of Electronic Imaging, 23(4), p. 43004. doi: 10.1117/1.JEI.23.4.043004. You, S., Barnes, N. and Walker, J. (2016) ‘Perceptually Consistent Color-to-Gray Image Conversion’, p. 18. Available at: http://arxiv.org/abs/1605.01843. Zhu, W., Hu, R. and Liu, L. (2014) ‘Grey conversion via perceived-contrast’, Visual Computer, 30(3), pp. 299–309. doi: 10.1007/s00371-013-0854-9.

52

ANEXOS

Partes de los códigos de los métodos implementados.

53

ANEXOS

54

ANEXOS

55

ANEXOS

56

ANEXOS

57

ANEXOS

58