ESTADOS UNIDOS - Las falsificaciones con inteligencia artificial se están convirtiendo rápidamente en uno de los mayores problemas a los que nos enfrentamos en internet. Las imágenes, videos y audios engañosos proliferan como resultado del auge y el uso indebido de herramientas de inteligencia artificial generativa.
Con la aparición casi a diario de videos e imágenes manipuladas digitalmente con inteligencia artificial, que representan a todo tipo de personas —desde Taylor Swift hasta Donald Trump—, es cada vez más difícil distinguir lo que es real de lo que no lo es. Generadores de video e imágenes como DALL-E, Midjourney y Sora de OpenAI facilitan que personas sin ningún conocimiento técnico puedan crear imágenes de tipo deepfake: basta con escribir una solicitud y el sistema la produce.
Estas imágenes falsas podrían parecer inofensivas. Pero pueden utilizarse para llevar a cabo estafas y robos de identidad, o propaganda y manipulación electoral.
Así es como se puede evitar ser engañado por deepfakes:
En los primeros tiempos de los deepfakes, la tecnología distaba mucho de ser perfecta y a menudo dejaba señales reveladoras de manipulación. Los verificadores han señalado imágenes con errores obvios, como manos con seis dedos o gafas con cristales distintos entre sí.
Pero a medida que la IA ha ido mejorando, se ha vuelto mucho más difícil detectar las falsificaciones. Algunos consejos ampliamente compartidos —tales como buscar patrones de parpadeo poco naturales entre las personas que aparecen en videos deepfake— ya no son válidos, dijo Henry Ajder, fundador de la consultora Latent Space Advisory y uno de los principales expertos en IA generativa.
Aun así, hay algunas cosas que hay que tener en cuenta, agregó.
Muchas de las fotos deepfake creadas con IA, especialmente de personas, tienen un brillo electrónico, “una especie de efecto estético de suavizado” que hace que la piel “parezca increíblemente reluciente”, señaló Ajder.
Sin embargo, advirtió que, a veces, un toque creativo puede eliminar éste y muchos otros indicios de manipulación con IA.
Verifique la coherencia de las sombras y la iluminación. A menudo, el sujeto está bien enfocado y parece convincentemente realista, pero los elementos del fondo pueden no ser tan realistas ni relucientes.
El intercambio de rostros es uno de los métodos de deepfake más comunes. Los expertos aconsejan fijarse bien en los bordes de la cara. ¿El tono de la piel del rostro coincide con el del resto de la cabeza o el cuerpo? ¿Los bordes de la cara son nítidos o borrosos?
Si sospecha que el video de una persona que está hablando ha sido manipulado, fíjese en la boca. ¿Los movimientos de los labios coinciden perfectamente con el audio?
Ajder sugiere mirar los dientes. ¿Son claros o están borrosos y de alguna forma no coinciden con su aspecto en la vida real?
La empresa de ciberseguridad Norton dice que es posible que los algoritmos aún no sean lo suficientemente sofisticados como para generar dientes individuales, por lo que la falta de contornos de dientes individuales podría ser una pista.
A veces el contexto es importante. Tómese su tiempo para sopesar si lo que ve es verosímil.
El sitio web de periodismo Poynter aconseja que, si usted ve a un personaje público haciendo algo que parece “exagerado, poco realista o incongruente con su personalidad”, podría tratarse de un deepfake.
Por ejemplo, ¿realmente el papa Francisco llevaría una lujosa chaqueta acolchada, como se muestra en una famosa foto falsa? Si así fuera, ¿no habría más fotos o videos publicados por fuentes legítimas?
Otro enfoque consiste en utilizar la IA para luchar contra la IA.
Microsoft ha desarrollado una herramienta de autentificación que puede analizar fotos o videos para dar una puntuación de confianza sobre si han sido manipulados. FakeCatcher, del fabricante de circuitos integrados Intel, utiliza algoritmos para analizar los pixeles de una imagen con el fin de determinar si es real o falsa.
Hay herramientas en internet que prometen detectar las falsificaciones si usted sube un archivo o le pega un enlace al material sospechoso. Pero algunas, como el autentificador de Microsoft, sólo están disponibles para socios seleccionados y no para el público en general. Esto se debe a que los investigadores no quieren alertar a los delincuentes y darles una mayor ventaja en la carrera armamentista de los deepfakes.
El acceso abierto a las herramientas de detección también podría darle a la gente la impresión de que son “tecnologías milagrosas que pueden realizar el pensamiento crítico por nosotros”, cuando en realidad debemos ser conscientes de sus limitaciones, afirma Ajder.
Dicho esto, la inteligencia artificial avanza a un ritmo vertiginoso y los modelos de IA están siendo entrenados con datos de internet para producir contenidos cada vez de mayor calidad y menos fallas.
Esto significa que no hay garantía de que estos consejos sigan siendo válidos dentro de un año.
Los expertos dicen que incluso podría ser peligroso responsabilizar a los ciudadanos de a pie para que se conviertan en Sherlocks digitales, ya que podría darles una falsa sensación de confianza a medida que se hace cada vez más difícil detectar deepfakes, incluso para los ojos entrenados.