Con la ayuda de inteligencias artificiales generativas, ahora cualquiera puede crear y manipular imágenes con resultados idénticos a la realidad. Al agregar cambios de píxeles diminutos e indetectables a nuestras fotos, PhotoGuard crea distorsiones en las imágenes de IA (inteligencia artificial) que las hacen parecer falsas.
El lado oscuro de esta reciente explosión creativa es que cualquiera puede manipular las fotos que has subido a tu red social favorita para acosarte o chantajearte.
Aunque este tipo de actividad delictiva va en aumento, todavía tenemos que desarrollar un sistema confiable para detener estos usos nefastos de la IA.

Recientemente, investigadores del MIT dieron a conocer una nueva tecnología que, según los investigadores, tiene el poder de distorsionar estas manipulaciones y evitar que se tomen como reales.
Las iteraciones más recientes de IA generativas, como Midjourney o Stable Diffusion, ya son capaces de transformar texto en imágenes con un fotorrealismo asombroso.
Además, tienen la capacidad de alterar imágenes ya existentes y producir una imagen nueva, manipulada por expertos, que es difícil de distinguir del original.
«La velocidad de estas acciones sólo empeora el problema. Incluso cuando finalmente se descubre el fraude, el daño (ya sea a la reputación, los sentimientos o las finanzas) con frecuencia ya está hecho. Esta es una realidad para las víctimas en todos los niveles, desde aquellos que son intimidados en la escuela y que la sociedad en su conjunto es manipulada».
– Hadi Salman, candidato a doctorado en MIT CSAIL y autor principal de un nuevo estudio que sugiere una herramienta eficaz para abordar este problema: una tecnología que han desarrollado llamada PhotoGuard.

¿Cómo funciona?
A diferencia de cómo los humanos percibimos una imagen en su conjunto, los modelos de IA perciben una imagen como una colección compleja de información matemática que describe el color y la ubicación de cada píxel. Para inmunizar, de alguna manera las fotografías, PhotoGuard utiliza dos técnicas de manipulación.
- El primero realiza pequeños ajustes a esta representación matemática de las imágenes que son imperceptibles para el ojo humano. Una imagen que haya sido procesada por este sistema dará como resultado una versión deformada de la imagen original que no nos parece irreal si alguien intenta manipularla usando una IA como Stable Diffusion
- Los investigadores afirman que el segundo método, conocido como ataque de transmisión, es significativamente más complicado. El ataque de difusión modifica la generación de imágenes por parte de los modelos de IA al introducir señales ocultas que alteran por completo la forma en que se procesan. En relación con la imagen de Trevor Noah, el equipo pudo persuadir a la IA para que ignorara las instrucciones de texto y produjera una imagen gris que obviamente es sintética

¿Qué impide que alguien tome tu selfie de la semana pasada y lo edite con potentes sistemas de IA generativa en este momento?
Peor aún, debido a lo sofisticados que son estos sistemas, podría no ser posible establecer si la imagen resultante es real.
La buena noticia es que los investigadores del MIT han desarrollado una nueva herramienta que podría detener esto. Similar a un escudo, PhotoGuard evita la manipulación al realizar cambios mínimos e imperceptibles en las fotografías.
El resultado de editar una foto que ha sido inmunizada por PhotoGuard utilizando un programa basado en modelos de IA generativa, como Stable Diffusion, será poco realista o estará distorsionado.
Según Henry Ajder, especialista en IA generativa y deepfakes, intentar evitar la manipulación de imágenes por parte de la IA en la fuente es una opción más práctica que utilizar técnicas de detección inestables para la manipulación de la propia IA.
¡Acércate a Sinergia Pro Studio!
Si te interesa leer más sobre la inteligencia artificial malversada, visita nuestro blog.
Envíanos un whatsapp: (55) 3476 – 7725
Envíanos un correo: contacto@sinergiaprostudio.com

