El Samsung Galaxy S24 Ultra usará la IA para mejorar su cámara: zoom óptico 10X y vídeos a 8K
Quedan menos de dos semanas para el anuncio oficial, y como es normal conforme se acerca la fecha, las filtraciones llegan con más fuerza. En la de hoy tenemos la réplica al artículo que lanzamos sobre las cámaras del buque insignia de Corea del Sur dentro del mundo de los smartphone. Obviamente hablamos de Samsung Galaxy S24 Ultra, el cual tendrá un "downgrade" en sus cámaras, sobre todo en el zoom óptico del sensor principal, pero lo que no sabíamos es que la marca lo compensaría con su Galaxy AI. ¿Qué podrá hacer exactamente en este apartado? ¿Puede la IA lograr un zoom al nivel que un sensor físico en el Galaxy S24 Ultra? Pues parece ser que sí.
Los de Corea del Sur se han puesto las pilas y de qué manera. No paran de llegar novedades menores sobre la IA que tendrán sus nuevos terminales apoyados por el Snapdragon 8 Gen 3 de Qualcomm, o bien por el Exynos 2400 (según modelos en concreto). La que más va a llamar la atención sin lugar a dudas será la que traiga para sus cámaras, porque lo filtrado parece bastante espectacular.
Samsung Galaxy S24 Ultra con Galaxy AI: cámaras mejoradas con zoom basado en IA
No es que sea algo novedoso en el mercado, porque Google ya hace cosas similares con el Pixel 8 y Pixel 8 Pro, pero sí que hay que decir que lo que planea Samsung es un paso más allá, y nos explicamos.
La última filtración revela que la IA tirará mucho de dichas cámaras para poder mejorarlas y lograr lo que los sensores no pueden. Como ya dijimos, el nuevo sensor que implementa el S24 Ultra sería un paso atrás por motivos obvios de zoom óptico a 5X, pues bien, finalmente la IA paliará todo esto gracias a las siguiente mejoras:
- Se podrá hacer zoom a 5X mientras se graban vídeos a 8K (supuestamente a 30 FPS).
- Zoom 10X para fotos simples.
- Fotos en modo retrato con zoom 5X.
- La cámara de 50 MP permite zoom óptico de 10X.
Esto dinamita todos los problemas que genera el cambio de sensor, pero al mismo tiempo genera preguntas: ¿puede la IA lograr emular lo que consigue un sensor físico y lente?
¿Otro movimiento de marketing como los 200 MP?
Ya sabemos cómo funciona la tecnología de Samsung para los 200 MP de sus teléfonos actuales, igual que también se ha demostrado el resultado en cuanto a zoom se refiere. Y es que ha habido grandes críticas para Samsung precisamente en los modos Zoom de sus cámaras, donde solo parece funcionar realmente el sensor Sony en 3X.
El problema principal es la ausencia de nitidez al hacerlo, ya que todo parece algo desenfocado. Además, el postprocesamiento añade colores que ni siquiera son reales, no están realmente en la imagen tomada.
Por lo tanto, si esto pasó en el modelo actual con sensores que sobre el papel lo hacen de forma física, surgen muchas dudas sobre cómo una IA puede interpretar una imagen con esas barbaridades de zoom y hacer bien el trabajo. Igualmente, estamos a solo 12 días del lanzamiento y posiblemente, para finales de mes tengamos tantas reviews comparativas que podamos salir de dudas.
Pero antes de ello, ¿crees que una IA puede lograr mejorar una imagen haciendo zoom totalmente digital a un sensor que no lo permite? Recordad que no se tratará como un postprocesamiento tradicional.