Es posible que haya visto titulares esta semana sobre el Samsung Galaxy S23 Ultra tomando las llamadas fotografías de la luna «falsas». Desde el S20 Ultra, Samsung ha tenido una función llamada Space Zoom que combina su zoom óptico de 10X con un zoom digital masivo para alcanzar un zoom combinado de 100X. En tomas de marketing, Samsung ha mostrado su teléfono tomando imágenes casi nítidas de la luna, y los usuarios han hecho lo mismo en una noche despejada.
Pero un Redditor ha demostrado que el increíble Space Zoom de Samsung está usando un poco de engaño. Resulta que cuando se toman fotografías de la luna, el optimizador de escenas basado en inteligencia artificial de Samsung hace mucho trabajo pesado para que parezca que la luna fue fotografiada con un telescopio de alta resolución en lugar de un teléfono inteligente. Entonces, cuando alguien toma una foto de la luna, en el cielo o en la pantalla de una computadora como en la publicación de Reddit, el motor computacional de Samsung se hace cargo y aclara los cráteres y los contornos que la cámara había pasado por alto.
En una publicación de seguimiento, demuestran sin lugar a dudas que Samsung está agregando imágenes de «luna» a las fotos para que la toma sea más clara. Como explican, «El módulo de visión por computadora/IA reconoce la luna, tomas la foto y, en este punto, una red neuronal entrenada en innumerables imágenes de la luna completa los detalles que no estaban disponibles ópticamente». Eso es un poco más «falso» de lo que Samsung deja entrever, pero todavía es mucho de esperar.
Incluso sin el trabajo de investigación, debería ser bastante obvio que el S23 no puede tomar fotografías claras de la luna de forma natural. Si bien Samsung dice que las tomas con Space Zoomed usando el S23 Ultra son «capaces de capturar imágenes desde una increíble distancia de 330 pies», la luna está a casi 234,000 millas de distancia o aproximadamente a 1,261,392,000 pies de distancia. También es una cuarta parte del tamaño de la tierra. Después de todo, los teléfonos inteligentes no tienen problemas para tomar fotos nítidas de rascacielos que están a más de 330 pies de distancia.
Por supuesto, la distancia de la luna no cuenta toda la historia. La luna es esencialmente una fuente de luz sobre un fondo oscuro, por lo que la cámara necesita un poco de ayuda para capturar una imagen clara. Así es como lo explica Samsung: “Cuando estás tomando una foto de la luna, el sistema de cámara de tu dispositivo Galaxy aprovechará esta tecnología de inteligencia artificial basada en aprendizaje profundo, así como el procesamiento de múltiples cuadros para mejorar aún más los detalles. Continúe leyendo para obtener más información sobre los múltiples pasos, procesos y tecnologías que intervienen en la entrega de imágenes de alta calidad de la luna”.
No es tan diferente de funciones como el modo de retrato, la iluminación de retrato, el modo nocturno, el borrador mágico o el desenfoque facial. Todo se basa en el uso de la conciencia computacional para agregar, ajustar y editar cosas que no existen. En el caso de la luna, es fácil para la IA de Samsung hacer que parezca que el teléfono está tomando fotos increíbles porque la IA de Samsung sabe cómo se ve la luna. Es la misma razón por la que a veces el cielo parece demasiado azul o la hierba demasiado verde. El motor fotográfico está aplicando lo que sabe a lo que ve para imitar una cámara de gama alta y compensar las deficiencias normales de los teléfonos inteligentes.
La diferencia aquí es que, si bien es común que los algoritmos de toma de fotografías segmenten una imagen en partes y les apliquen diferentes ajustes y controles de exposición, Samsung también está utilizando una forma limitada de generación de imágenes de IA en la luna para mezclar detalles que nunca fueron en los datos de la cámara, para empezar, pero no lo sabrías, porque los detalles de la luna siempre se ven iguales cuando se ven desde la Tierra.
Samsung
¿Qué hará Apple?
Se rumorea que Apple agregará una lente de zoom de periscopio al iPhone 15 Ultra por primera vez este año, y esta controversia sin duda influirá en la forma en que entrena su IA. Pero puede estar seguro de que el motor computacional hará una buena cantidad de trabajo pesado detrás de escena como lo hace ahora.
Eso es lo que hace que las cámaras de los teléfonos inteligentes sean tan geniales. A diferencia de las cámaras de apuntar y disparar, nuestros teléfonos inteligentes tienen cerebros poderosos que pueden ayudarnos a tomar mejores fotos y ayudar a que las malas fotos se vean mejor. Puede hacer que las fotos nocturnas parezcan tomadas con buena iluminación y simular el efecto bokeh de una cámara con una apertura ultrarrápida.
Y es lo que le permitirá a Apple obtener resultados increíbles con un zoom de 20X o 30X de una cámara óptica de 6X. Dado que Apple hasta ahora se ha alejado de la astrofotografía, dudo que vaya tan lejos como para muestrear fotos de la luna de mayor resolución para ayudar al iPhone 15 a tomar fotos más claras, pero puede estar seguro de que su motor fotónico trabajará arduamente para limpiar los bordes. , preservando los detalles y potenciando las capacidades de la cámara de teleobjetivo. Y en base a lo que consigamos en el iPhone 14 Pro, seguro que los resultados serán espectaculares.
Ya sea Samsung o Apple, la fotografía computacional ha permitido algunos de los mayores avances en los últimos años y solo hemos arañado la superficie de lo que puede hacer. Nada de eso es realmente real. Y si lo fuera, todos estaríamos mucho menos impresionados con las fotos que tomamos con nuestros teléfonos inteligentes.