miércoles 5 febrero 2025
24.4 C
Santiago

Cómo identificar un video ultrafalso en internet.

El término ‘deepfake’, que se puede traducir como ‘contenidos ultrafalsos’ o ‘falsificación profunda’, se refiere a materiales audiovisuales (principalmente videos, aunque también fotografías y audios, aunque en menor grado) que han sido alterados mediante técnicas de inteligencia artificial para darles una apariencia de autenticidad, cuando en realidad son falsos.

El realismo de estos contenidos engañosos es tan elevado que puede ser muy complicado, incluso casi imposible, diferenciarlos de producciones genuinas. Esto los convierte en herramientas idóneas para realizar actividades dañinas, como la difusión de noticias falsas o imágenes manipuladas con motivos de venganza, según los expertos.

Esta técnica se ha aplicado en la industria cinematográfica, como en escenas donde se superpone digitalmente la cara de un personaje joven en el cuerpo real de otro actor, pero también ha comenzado a utilizarse con fines engañosos, para confundir a las personas, llevar a cabo estafas o difundir información errónea, indican.

Ejemplos de esto incluyen videos manipulados de figuras públicas realizando declaraciones o acciones que nunca sucedieron, así como audios falsos que imitan voces de seres queridos. Estos denominados ‘fakes audiovisuales’ están en aumento tanto en producción como en difusión.

Los ‘deepfakes’ constituyen una de las cinco principales formas de fraude de identidad en línea, representando un 7% de las actividades fraudulentas de este tipo, y su incidencia global se cuadruplicó entre 2023 y 2024, según el informe anual sobre fraude de la plataforma de verificación Sumsub (https://sumsub.com) correspondiente a 2024.

El informe titulado ‘Get Identity Fraud Report 2024’ está disponible para descargar en: https://sumsub.com/fraud-report-2024/.

Además, el número de ‘deepfakes’ detectados a nivel mundial se había multiplicado por diez entre 2022 y 2023, con un impacto más significativo en América del Norte y Europa, según un informe anterior de Sumsub, recogido por la plataforma AIPRM (www.aiprm.com), que se especializa en inteligencia artificial.

La combinación de la IA con los ‘deepfakes’ está alterando de manera preocupante el panorama de la desinformación, viendo ejemplos recientes de imágenes generadas por IA de Disney World sumergido en el agua o ‘deepfakes’ de Donald Trump y Kamala Harris creados para influir en campañas electorales, según Sumsub.

“En 2025, los estafadores se apoyarán cada vez más en la IA no solo para crear ‘deepfakes’, que son solo la punta del iceberg, sino para generar una variedad de herramientas engañosas, como documentos de identidad falsos, videos realistas, voces sintéticas y ‘chatbots’ que simulan ser usuarios auténticos”, anticipan.

“Estas innovaciones harán que el fraude de identidad sea más versátil y complicado de identificar”, afirma Pavel Goldman-Kalaydin, director de inteligencia artificial y aprendizaje automático en Sumsub.

Los especialistas de AIPRM han recopilado cinco recomendaciones para identificar ‘deepfakes’ y protegerse del contenido falso, una variante de lo que se considera “inteligencia artificial adversa” que, según sus datos, “podría provocar pérdidas de 40,000 millones de dólares a nivel global para 2027”.

  1. Verifique la fuente de los contenidos.

AIPRM sugiere “evaluar la credibilidad de las fuentes de información que consumimos en línea, especialmente en redes sociales, asegurándose de que provenga de un medio confiable o de cuentas oficiales verificadas.

“Si la fuente no le resulta familiar o parece sospechosa, valide la autenticidad del contenido con organizaciones periodísticas de confianza o herramientas de verificación de datos como Google Fact Check Tools”, recomiendan.

2. Preste atención al impacto emocional.

“Tenga en cuenta que la desinformación frecuentemente explota disparadores emocionales como el miedo, la ira o la indignación, lo que puede nublar el juicio de los usuarios de internet”, advierten.

“Al encontrar contenido que despierte emociones intensas, tómese un momento para reevaluarlo y asegúrese de que no se le esté utilizando como peón en el juego de alguien”, aconsejan.

3. Observe expresiones y movimientos faciales.

Los ‘deepfakes’ a menudo fallan en replicar los detalles complejos de las microexpresiones faciales y movimientos naturales, especialmente en áreas cercanas a los ojos y la boca, según AIPRM.

Para identificarlos, busque patrones de parpadeo anormales, movimientos oculares inconexos o movimientos bruscos de la cabeza, y verifique si las expresiones faciales corresponden a las emociones transmitidas”, sugieren.

“Aspectos como la uniformidad de los dientes, la textura del cabello y la estructura facial también pueden desenmascarar un ‘deepfake’”, añade esta fuente.

“Un indicio revelador de los ‘deepfakes’ es que suelen presentar proporciones ligeramente diferentes en la forma de la cara y las orejas, muy difíciles de replicar. Se recomienda pausar el video y examinar los rasgos faciales para detectar irregularidades”, continúan.


El análisis de videos con tecnología ayuda en la detección de ‘deepfakes’. Foto: Tapati Rinchumrus_Shutterstock, facilitada por Journalistic.org.

4. Utilice herramientas de búsqueda inversa.

AIPRM recomienda emplear herramientas de búsqueda inversa para las imágenes y videos que se consideren sospechosos, con el fin de rastrear su origen.

Usar la opción “Buscar por imágenes en Google” y subir la imagen en cuestión puede ayudar a determinar si ha sido generada por IA, manipulada o utilizada fuera de contexto, según afirman.

“Existen herramientas como InVID para verificar videos, que analizan el metraje y confirman si ha habido modificaciones o si hay versiones anteriores. Estas búsquedas permiten encontrar otras copias en línea, lo que contribuye a validar su autenticidad y descubrir posibles abusos”, puntualizan.

5. Busque inconsistencias digitales.

Los ‘deepfakes’ a menudo se hacen evidentes mediante defectos digitales sutiles, como nitidez extraña o pixelación inusual, especialmente en los bordes de las caras o los objetos, indicando manipulación.

“Preste atención a inconsistencias en iluminación, sombras y reflejos; anomalías como gafas distorsionadas o dedos borrosos en el aire (en lugar de sujetar un objeto), e irregularidades en el fondo que afecten la coherencia de la escena”, sugieren.

“Una manera entretenida de mejorar las habilidades para identificar ‘deepfakes’ es a través del juego ‘Which Face is Real’ (www.whichfaceisreal.com), creado por académicos de la Universidad de Washington, que ayuda a reconocer patrones de contenido generado por IA”, concluyen en AIPRM.


Algunas fotos manipuladas sólo pueden distinguirse de las auténticas utilizando inteligencia artificial. Foto: Tero Vesalainen_Shutterstock, facilitada por Journalistic.org.

6. Compruebe la sincronización audiovisual.

“Para identificar un ‘deepfake’, es esencial observar los labios de quienes aparecen en el video, que adoptan formas específicas al pronunciar ciertas letras. Estos movimientos son difíciles de replicar con precisión por la IA, lo que significa que casi un tercio de los videos manipulados tienen problemas en alinear los sonidos con los movimientos labiales de letras como M, B y P”, advierten.

“Si nota leves desajustes entre los movimientos de los labios y los sonidos emitidos por la persona, o si escucha irregularidades en el tono o timbre de su voz, estas pueden ser señales de una posible falsificación”, recalcan.

“Los ‘deepfakes’ se perfilan como uno de los usos más preocupantes de la IA. Su impacto se fortalece con su capacidad de difusión, pero si no se comparten ampliamente, su influencia disminuye. Por lo tanto, si se encuentra con una posible falsificación, lo mejor es no compartirla”, concluye Christoph C. Cemper, experto en IA de AIPRM.

Con Información de www.elrancaguino.cl

Más leído esta semana

Temas

spot_img

Artículos relacionados

Categorías populares

spot_imgspot_img