RAISR: así logra Google que las fotos de los Pixel 2 apenas pierdan calidad al hacer zoom
En un territorio copado por los smartphones con cámaras dobles, Google se llenó de valentía para lanzar al mercado, a finales de 2017, sus Pixel 2 y Pixel 2 XL con un solo sensor principal. Con el paso de los días, sin embargo, nos dimos cuenta de que la decisión no había sido tan arriesgada como creíamos en un principio, ya que, una vez más, Google se apoyaba en el software para hacer brillar la cámara de sus Pixel.
Y cuando parecía que el sistema fotográfico de este dúo de terminales apenas tenía margen de mejora, los de Mountain View han decidido que este mes de febrero es el idóneo para sacar toda la artillería. Porque no solo se ha habilitado, por fin, el co-procesador Visual Core incluido en los terminales, sino que Google, casi en silencio, anunciaba ayer la llegada del sistema RAISR, que promete reducir las pérdidas de calidad al mínimo a la hora de hacer zoom en una imagen.
Así funciona el sistema RAISR en los Pixel 2 y Pixel 2 XL
A la izquierda, imagen original ampliada. A la derecha, imagen ampliada y mejorada con RAISR.
Rapid and Accurate Image Super Resolution , o RAISR, no es un sistema nuevo. De hecho, fue en noviembre de 2016 cuando la división de investigación y desarrollo de Google explicaba cómo esta tecnología basada en machine learning, evitaba la pérdida de detalle a la hora de ampliar imágenes. Pero no ha sido hasta ahora, junto a la actualización del mes de febrero, cuando Google anunciaba que el chip Pixel Visual Core comenzaría a ejecutar RAISR.
Para llevar a cabo su función, en lugar de llevarse a cabo un zoom digital convencional como el que ofrecen la mayoría de smartphones con una sola cámara, RAISR utiliza un sistema de aprendizaje automático entrenado a través de fotografías reales, encargado de rellenar los detalles de baja resolución de la imagen ampliada con una mayor precisión.
Con RAISR, usamos el aprendizaje automático y entrenamos en pares de imágenes, una de baja calidad, y una alta, para encontrar filtros que, cuando se aplican selectivamente a cada píxel de la imagen de baja resolución, recrearán detalles que son de una calidad comparable a el original.
Si bien, una cámara secundaria con zoom óptico, como la que usan los iPhone X o Galaxy Note8, debería ofrecer una calidad superior a la hora de realizar imágenes con zoom que en el caso del Pixel 2 en la mayoría de situaciones, no hay duda de que el trabajo realizado por Google integrando este sistema de inteligencia artificial es digno de admirar, y se vuelve a demostrar que, con el software adecuado, dos cámaras no tienen por qué ser mejores que una.
Puedes seguir a Andro4all en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.