Logo Vodafone

Compartir en:

‘Deepfake’ & TikTok, una combinación para la que no hay nada imposible en los crímenes del futuro

¿Recuerdas ‘Misión Imposible 3’, donde Tom Cruise utiliza una máscara de ultra-alta tecnología para hacerse pasar por Philip Seymour Hoffman, a la sazón el malo de la película? Pues el bueno del agente Ethan Hunt acaba de sufrir en sus carnes un ardid parecido, pero en este caso de manos de un TikToker que ha utilizando tecnología ‘deepfake’ para hacerse pasar por Tom Cruise en esta plataforma de redes sociales. Y los resultados son tan realistas que muchos han creído erróneamente que en realidad era el famoso actor.

Esta última situación ha vuelto a generar muchas preocupaciones sobre la creación y el uso de los ‘deepfakes’, una tecnología que nace de dos conceptos: “deep learning” y “fake” y que básicamente son algoritmos o inteligencia artificial capaces de poner un rostro y voz a personas que no tienen esa cara ni hablan de esa forma.

Si bien la cuenta de TikTok a la que nos referimos hace claramente que nos demos cuenta de que este no es el verdadero Tom Cruise (el nombre de usuario es @deeptomcruise, para empezar), quienes no prestan suficiente atención pueden confundir fácilmente lo que ven con el Tom Cruise genuino.

Incluso sin ver el nombre de usuario, el video no es del todo perfecto. En primer lugar la sincronización de labios está mal en algunos cortes y la voz no es del todo correcta. En segundo lugar, si bien el seguimiento y la iluminación en la cara son casi inmaculados, especialmente cuando el actor pasa algún objeto frente a su cara, todavía hay un par de fallos reveladores, especialmente en el campo de golf, donde las gafas de sol desaparecen y su boca se tuerce unos segundos.

Pero incluso con estos pequeños fallos, el efecto sigue siendo espeluznante. No vamos a gritar desde los tejados que los ‘deepfakes’ serán ruinosos para la sociedad porque es evidente, pero el hecho de que alguien se haga pasar, casi de manera creíble, como un actor famoso en TikTok (y ganar 236.000 seguidores en el proceso) muestra que todavía es difícil de entender esta tecnología y rastrear los ‘deepfakes’. 

De hecho, TikTok no respondió de inmediato acerca de si este tipo de ardides está permitido según sus términos de servicio, pero esos términos escritos señalan explícitamente que las suplantaciones de identidad están prohibidas. Sin embargo, días después de que se difundiera la historia inicial de la propagación viral de la cuenta, los videos permanecieron visibles en la plataforma.

Una tecnología que cada vez es más difícil de detectar

La inteligencia artificial en el núcleo de los ‘deepfakes’ se está volviendo más fácil no solo de acceder, sino de usar. A pesar de las muchas herramientas disponibles para combatirlo, los detectores de ‘deepfakes’ aún pueden ser engañados e, incluso, han probado las capacidades de las empresas de redes sociales para detenerlos, incluido Facebook. Algunos especulan que las noticias falsas en general y el contenido falso podrían costarle a la economía 35 mil millones de euros al año.

Por ejemplo, a medida que las falsificaciones ‘deepfake’ han evolucionado, empresas como Microsoft han creado herramientas que pueden detectarlas, generando puntuaciones de confianza basadas en señales de manipulación del contenido, como la aparición de elementos sutiles que se desvanecen o en escala de grises invisibles a simple vista. Y, de hecho, un sitio web llamado CounterSocial pudo detectar los videos de Tom Cruise como falsos cuando se ejecutaron a través de su propio algoritmo de inteligencia artificial.

Pero TikTok es donde se alojan los videos, y esta aplicación no tiene ningún tipo de detector de ‘deepfake’ incorporado. El problema con la detección retroactiva es que cuando se marca la información falsa, puede ser demasiado tarde para revertir el daño.

Mientras tanto, compañías como Adobe y la recién llegada Hour One están ayudando a implementar tecnología que no solo hace que la creación de imágenes falsas, expresiones o personas completamente artificiales sea más fácil de usar, sino también más fácil de acceder a ella todos los días.

De hecho, los usuarios contamos en la actualidad con bastantes aplicaciones que nos permiten manipular digitalmente los vídeos mediante algoritmos de inteligencia artificial, consiguiendo cosas como que un personaje hable según el contenido que le indiquemos, o incluso convertirnos en protagonistas de vídeos sin haber participado en la grabación de los mismos.

Por ahora todavía se pueden buscar las imágenes verdaderas en Internet para compararlas con los ‘deepfakes’. Sin embargo, al ritmo que se está desarrollando la tecnología, en poco tiempo se podrán generar contenidos propios, sin la necesidad de una imagen previa, lo que dificultará poder saber si un video es real o no.

Por ejemplo, existen casos de delincuentes que utilizando ‘deepfake’ se hicieron pasar por directivos de empresas e hicieron videollamadas al departamento de contabilidad pidiendo que les transfirieran un dinero. Hace 10 años, necesitabas grabar al sujeto que querías suplantar en un estudio, con buenos micrófonos, sin sonido ambiente. Hoy en día se puede capturar el audio y la imagen de videos institucionales, por ejemplo. A partir de eso, se pueden crear imágenes y audios falsos, haciéndose pasar por ese individuo.

Así que con la velocidad a la que avanza la tecnología, existe el argumento de que los pasos para protegernos de los ‘deepfakes’ no se están moviendo lo suficientemente rápido para mantener el ritmo. Algunos expertos incluso llegan a decir que compartir un ‘deepfake’ debería ser un crimen. Y no les falta razón.

Por qué los ‘deepfakes’ son increíblemente peligrosos

Los ‘deepfakes’ son calificados como la forma más peligrosa de delito a través de la inteligencia artificial, según un reciente estudio de University College London.

Los autores del estudio afirman que el contenido ‘deepfake’ es un riesgo manifiesto por varias razones: una destacada es que todavía es difícil de detectar. Esto se debe a que, si bien los detectores de ‘deepfake’ requieren capacitación a través de cientos de videos y deben salir victoriosos en todos los casos, las personas malintencionadas solo deben tener éxito una vez para llevarse el gato al agua.

Una segunda razón es la variedad de delitos para los que se pueden utilizar los ‘deepfakes’, como desacreditar a una figura pública haciéndose pasar por un miembro de su familia. El efecto a largo plazo de esto podría llevar a una desconfianza en las pruebas de audio y video en general, lo que, según los investigadores, sería un daño social inherente.

A diferencia de muchos delitos tradicionales, los delitos en el ámbito digital pueden compartirse, repetirse e incluso venderse fácilmente, lo que permite comercializar técnicas delictivas y proporcionar esto como un servicio, lo que significa que los delincuentes pueden subcontratar los aspectos más desafiantes de su crimen basándose en la inteligencia artificial.

Actualmente, el uso predominante de ‘deepfakes’ es para la pornografía. En 2020, la investigación indicó que el 96% de todos los ‘deepfakes’ on line se realizaron en contextos pornográficos; y casi el 100% de esos casos son de mujeres, lo que representa una cifra muy preocupante en términos de sesgo de género.

Pero además del contenido ‘deepfake’, los investigadores encontraron otros cinco delitos que utilizaban inteligencia artificial, lo que podría ser motivo de gran preocupación en el futuro. Estos incluyen el uso de automóviles sin conductor como armas, el uso del aprendizaje automático para adaptar los mensajes de phishing, la interrupción de los sistemas controlados por máquinas, la redacción de noticias falsas y la recopilación de información on-line para el chantaje.

Por último, las consecuencias no solo pueden pensarse en términos masivos, como la manipulación de unas elecciones presidenciales mediante mensajes falsos; también en círculos más pequeños, como el potencial riesgo para hacer bullying a un compañero de escuela o para que las agencias de publicidad generen nuevos patrones de belleza, manipulando a placer cualquier físico.

Los ‘deepfakes’ como los de @deeptomcruise amenazan con erosionar aún más la confianza del público en un mundo donde la alfabetización mediática es escasa y la gente ya no puede ponerse de acuerdo sobre lo que es verdad o falso. Pero el hecho de que uno sienta que puede distinguir personalmente la diferencia entre los contenidos sintéticos y los auténticos, no significa que estemos listos. Importa lo que crea el público en general.

Y los ‘deepfakes’ son especialmente peligrosos porque el video se considera una evidencia indiscutible. Una persona podría ser engañada para cometer un crimen, o una persona que cometió ilegítimamente un acto injusto podría usar ‘deepfakes’ para elaborar una coartada.

Por tanto, las aplicaciones de consumo masivo como TikTok deberían tener herramientas integradas de detección y etiquetado de ‘deepfakes’. Y hasta entonces así Tom Cruise y otros no necesitarán verificarse en estas redes sociales solo para salir frente a las falsificaciones.

Pero incluso después de que se agreguen tales capas de detección a estas aplicaciones como TikTok, la tecnología ‘deepfake’ continuará mejorando, y eso probablemente significa un juego constante de gato y ratón de aquí en adelante. Microsoft ha admitido que incluso su tecnología de detección deberá actualizarse constantemente. Esa es simplemente la naturaleza de la tecnología.

En cualquier caso, parece que cada día que pasa surge una nueva, mejor y más convincente iteración de la tecnología ‘deepfake’. Y lo peor es que aún no se ha determinado cómo, en todo caso, la sociedad decidirá hacer frente a este reto que nos afecta a todos.

—–

Compartir en: