`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
La fotografía móvil atraviesa una transformación silenciosa pero profunda impulsada por la inteligencia artificial. Ya no solo captura lo que vemos, sino que interpreta, reconstruye y comunica lo que queremos decir.
`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
A diferencia de una cámara tradicional, un smartphone combina múltiples sensores como: ultra gran angular, gran angular y teleobjetivo, cada uno con comportamientos distintos frente al ruido. El desafío es ofrecer una experiencia fluida, sin saltos visuales entre lentes.
Para lograrlo, Samsung incorporó un bloque específico de control de ruido directamente en el procesador, capaz de normalizar el comportamiento de todos los sensores. El objetivo no es que cada lente destaque por separado, sino que el usuario perciba una sola mirada continua, donde la tecnología pasa a segundo plano.
La exposición representa otro reto clave. La cámara no puede anticipar si el usuario apuntará a una zona iluminada o a una sombra, ni si está quieto o en movimiento. La solución fue un sistema de control de exposición basado en IA, entrenado con 1.3 millones de escenas, y reforzado con información en tiempo real del giroscopio. En la práctica, la cámara ya no interpreta sólo la escena, sino también cómo se mueve quien la sostiene.
Si la captura inicia el proceso de la imagen, la edición es hoy un territorio creativo. En el S25, Samsung introdujo la edición generativa de fotos, que rápidamente se volvió popular en redes sociales. En el Galaxy S26, ese concepto se amplía con entrada multimodal: texto, voz o imágenes pueden activar la edición.
El sistema no se limita a “pegar” elementos. Interpreta la intención, analiza hasta 18 componentes de la imagen, reescribe el prompt del usuario -que este caso se activa en Gemini de forma ilimitada – y recién entonces envía la instrucción al servidor. Antes de llegar a la nube, el teléfono ya segmentó objetos y afinó la idea. El servidor recibe una intención interpretada, no una orden cruda.
Ese enfoque se extiende a Creative Studio, evolución de Drawing Assist, donde crear posters, tarjetas o stickers forma parte del mismo flujo que capturar una foto. Capturar, editar y compartir dejan de ser etapas separadas para unificarse.

Fotografía tomada con el S26 Ultra de Samsung.
/ El Comercio
`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
La pregunta surgió inevitablemente. Con imágenes cada vez más realistas, pero también claramente generadas o alteradas por IA, ¿qué es hoy una fotografía?
Para Cho, sigue siendo una imagen digital, aunque ya no una fotografía tradicional. La IA no reemplaza la intención del usuario: la amplifica. Quien busque el máximo realismo puede recurrir a modos profesionales y desactivar ciertos ajustes. La IA no impone un resultado, ofrece opciones para expresar una idea.
La misma lógica aplica al debate entre hardware, software e IA. No compiten entre sí: funcionan como un ecosistema. Sensores pequeños necesitan IA para compensar la falta de luz; la IA, a su vez, requiere mejores sensores y procesamiento para desplegar su potencial.
El poder de la imagen nunca fue tan grande. Hoy no solo captamos realidades: también las interpretamos y las transformamos. La tecnología ha democratizado capacidades antes reservadas a estudios profesionales, pero ese poder trae consigo una responsabilidad.
Cuando una imagen puede alterarse hasta volverse irreconocible, el valor ya no está solo en la fidelidad técnica, sino en la transparencia de la intención. La pregunta deja de ser si una imagen es real o no, y pasa a ser qué quiere comunicar y desde dónde lo hace.
Como resumió Cho: “Cada toma se convierte en el lenguaje de la vida”. En la era de la IA, aprender a leer ese lenguaje será tan importante como saber crearlo. Durante el evento, los ejecutivos de Samsung indicaron además que las imágenes modificadas con IA tendrán una identificación puntual para no confundirlas con reales.














