Google sigue trabajando en mejorar su procesado de imagen. Si hace unos meses habábamos de RAISR, la técnica con la que la Gran G pensaba crear imágenes de alta resolución a partir de muestras de mucha menor calidad, hoy la empresa de Mountain View vuelve a ofrecernos novedades en este campo.
Según han publicado a través del Google Research Blog están trabajando con un nuevo codificador para archivos JPEG llamado Guetzli, con el que pretenden reducir el tamaño de estos ficheros un 35% con respecto a los archivos de este formato que se generan actualmente.
Pero quizá lo que más interesante puede resultar de cara a desarrolladores es que Google ha abierto el código de Guetzli, tal y como se ha publicado en The Next Web. Si eres desarrollador y te interesa implementar este algoritmo de compresión, puedes consultar la documentación y descargarlo todo desde GitHub.

En los ejemplos que se ven sobre estas líneas, en la parte izquierda de la imagen está el original sin comprimir, la misma imagen tras pasar por el algoritmo libjpeg y la última es el resultado de Guetzli.
Este algoritmo de compresión funciona con navegadores y herramientas de imagen ya existentes. Desde Google se comenta que permitirá generar imágenes de un tamaño no excesivamente grande, sin por ello comprometer la calidad de la imagen.
Para ello se centrarán en lo que se conoce como "fase de cuantización" y en el proceso de compresión en sí. Es aquí donde los algoritmos pueden reducir mucho las imágenes, pero también se pueden lograr calidades muy bajas si no se trabaja con cuidado.
Tal y como apunta la propia empresa, este método de reducción es similar a otro algoritmo de compresión que ya anunciaron hace un tiempo, llamado Zofli. En él se reducía el tamaño de los archivos PNG y GZIP sin necesidad de crear un nuevo formato. Ahora bien, hay que tener en cuenta que Guetzli es más lento que otros algoritmos de compresión.
Vía | Google Research Blog, The Next Web
En Genbeta | Google Brain hace realidad los zooms imposibles de CSI
Ver 9 comentarios
9 comentarios
tyckazzo
Interesante información. Solo me gustaría hacer algunos apuntes sobre el artículo:
No es un codificador de archivos JPEG sino un compresor JPEG de imágenes. El estándar JPEG conlleva cinco etapas principales: transformación del espacio de color, división de la imagen en bloques de 8x8 píxeles, transformación al dominio frecuencial (DCT) de cada uno de los bloques, la CUANTIFICACIÓN de cada bloque(cuantización es un término que se usa solo en física cuántica) que es un proceso de división y redondeo y por último un etapa de codificación Huffman. La cuantificación es el proceso donde la imagen pierde información(calidad) debido a que una división seguida de redondeo es un proceso irrevertible. La investigación de la Gran G estuvo enfocado principalmente en esas matrices de cuantificación, que por un lado eliminan información redundante para lograr un bitstream de menor tamaño pero sin sacrificar demasiado la calidad de imagen.
Lo que se me hace un poco increíble es que Google siga apostando por JPEG cuando JPEG2000 es un sucesor digno. Logrando ganancias de compresión altas sin perder demasiada calidad de imagen.
https://en. wikipedia.org/wiki/JPEG
Cassidy
De momento me quedo con http://www.piedpiper.com/
gambitodanes
Pues yo si que noto diferencia, se ven peor los colores.
kristhianpachascondor
Lo he probado y tiene buen desempeño, una imagen que pesaba 1835Kb lo redujo a 819Kb, y no se nota la diferencia, se demora un poco en la comprensión. Muy buena google.