Deepfake bullying, o cuando el acoso digital da su peor cara

189 views

El acoso digital llega a un nuevo nivel gracias al deepfake bullying, un tipo de amenaza peligrosa que, lamentablemente, tiene a los más jóvenes como…

Panda SecuritySep 22, 20258 min. lectura

El acoso digital llega a un nuevo nivel gracias al deepfake bullying, un tipo de amenaza peligrosa que, lamentablemente, tiene a los más jóvenes como sus principales víctimas, y que no encuentra demasiadas barreras ni legales ni tecnológicas para ponerle freno. Saber protegerse y aprender cómo actuar en caso de convertirse en una víctima es fundamental para evitar padecer graves consecuencias tanto psicológicas como sociales.

Deepfake bullying en acción

“Luis, necesito que vengas a la oficina ahora mismo. Mira Twitter. Tenemos un problema muy grande”. Con este WhatsApp se despertó un buen día el director de marketing de una importante empresa de refrescos. Le escribía Fernando, su CEO, porque se había viralizado un vídeo en el que, supuestamente, salía hablando mal del producto y criticando a los clientes que lo consumían.  

Consecuencias y riesgos del deepfake corporativo

Fernando negaba tajantemente que el del vídeo fuera él y no tenía ni idea de cómo había pasado, pero tenía claro que necesitaba subsanar el error porque el daño reputacional podría ser irreversible. Además, ese documento podría ser usado para amenazar a la empresa y coaccionarla. Y eso no lo podían permitir.

“¿Qué le ocurrió a Fernando? Pues muy sencillo, un ciberdelincuente reprodujo su figura a través de un deepfake utilizando su cara y su voz. Un ataque que, de no haberse puesto remedio, podría haber tenido consecuencias desastrosas para esa compañía. Desde llamadas en nombre de la directiva, incluso a nivel interno para autorización de transferencias,  hasta verse envuelta en una espiral de chantajes donde la moneda de cambio serían, presumiblemente, los datos más sensibles de sus clientes o un rescate monetario”, advierte Hervé Lambert, Global Consumer Operation Manager de Panda Security

El ataque que sufrió la compañía que dirige Fernando, que se cuenta en el blog de Incibe, puede enmarcarse en la categoría de corporate deepfake abuse. Aunque parezca algo muy sofisticado, no deja de ser otro tipo de deepfake bullying. “Sólo que las empresas suelen tener más herramientas para protegerse, y monitorizan, educan y reaccionan más rápido que cualquier otro usuario”, cuenta Lambert. 

El llamado Deepfake es una técnica que permite superponer en un vídeo el rostro de una persona en el de otra, añadiendo, además, su voz y sus gestos para que parezcan los de la persona suplantada. “Y, el deepfake bullying es un término que utilizamos en Panda Security para referirnos a una forma de acoso digital en la que se usan deepfakes para humillar, amenazar o difamar a una persona, explica Lambert. “En esencia”, dice, “es un bullying potenciado por la inteligencia artificial

Atacar con inteligencia… artificial

El deepfake bullying es mucho más peligroso y eficaz que otras formas de acoso digital, porque, aunque comparte el objetivo de dañar o controlar a la víctima, su poder de manipulación generado por la IA lo convierte en un arma más creíble y difícil de detectar

“Los algoritmos de IA permiten recrear rostros, gestos, voces y movimientos con gran fidelidad”, avisa el experto de Panda, “logrando vídeos, audios o fotos casi imposibles de distinguir de la realidad”. Además, y tal y como advierte Lambert, “hay cada vez más herramientas y apps de deepfake gratuitas o de bajo coste que requieren poca habilidad técnica, lo que permite que cualquiera pueda crear un contenido engañoso en unos pocos minutos”

Una amenaza difícil de combatir

“La IA está transformado un acto de acoso que antes precisaba cierta pericia técnica en algo accesible, rápido y global, multiplicando de este modo el alcance, la intensidad y el daño emocional o reputacional”. asegura el directivo de Panda. No sólo eso. Con este método de intimidación no se necesita tanto tiempo para hacer sentir a la víctima perseguida y acosada, porque con un solo vídeo que se viralice el golpe puede ser irreversible. 

“Me atrevería a decir que el deepfake bullying es, posiblemente, una de las amenazas digitales más complejas de combatir a día de hoy”, se lamenta Lambert. “Porque combina realismo, velocidad y vacío legal, que lo convierte en una de las formas más peligrosas de acoso. Y es que, “mientras el ciberbullying tradicional, la sextorsión o el grooming se basan en contenido real o interacción directa. El deepfake bullying añade una capa de falsificación tecnológica, que no requiere que nada de lo que se vea o cuente sea cierto sino sólo que lo parezca”

Las redes sociales son un gran potenciador para este tipo de acoso. “Un vídeo convincente se puede volver viral en cuestión de minutos, llegando a miles o millones de personas antes de que la víctima pueda reaccionar”, indica Lambert. “Y la legislación en muchos países, incluida España, aún no está preparada para abordar esta forma de amenaza. Y, aunque existen delitos de difamación o acoso, probar la falsedad técnica del contenido puede ser complejo y costoso

Los jóvenes, sus principales víctimas

Hasta que esas normas lleguen, las víctimas dependen de la combinación de legislación existente, denuncias rápidas y acciones de las plataformas para frenar el daño. Unas plataformas que, sin embargo, les sirven de parapeto, porque normalmente la retirada de estos deepfakes suele ser lenta al tratarse de sitios internacionales. “¿Y quiénes son los que pagan el pato?”, se pregunta Lambert. “Las víctimas que, normalmente, suelen cumplir un perfil tipo: jóvenes (en su mayoría mujeres), con alta exposición a redes sociales, con poca formación en seguridad digital o en configuración de privacidad y con la imperante necesidad de aceptación social y validación en plataformas digitales, lo que aumenta considerablemente el riesgo de compartir contenido personal”. ¿Y qué tipo de contenido es el que se usa para hacer daño? Normalmente aquel de carácter sexual

Impacto psicológico y social del deepfake bullying

Según el informe ‘Así somos. El estado de la adolescencia en España’, elaborado por Plan Internacional, el 84% de las adolescentes de entre 12 y 16 años afirma temer que alguien use su imagen para crear contenido sexual falso con IA. Y, según este estudio, la salud mental de este sector de la población es una de las cuestiones más críticas con un aumento de la ansiedad y la depresión entre los jóvenes. 

Estamos, y sobre todo están los jóvenes, ante un momento muy complicado”, avisa Lambert. Quien atiende a unos datos que deben invitar a la reflexión: “según el Instituto Nacional de Ciberseguridad, en 2024, casi un 6% de las consultas de menores recibidas fueron para ayuda sobre casos de acoso y en el 16,7% de los casos estaba en juego la privacidad y la reputación de estas personas”

Difama que algo queda… “Lamentablemente, esto es así. Una vez que alguien ve un contenido falso la duda suele permanecer incluso si se demuestra que es mentira. Es lo que se conoce como el efecto mancha, algo que puede afectar tanto en nuestras relaciones personales como en la vida laboral, las oportunidades profesionales e incluso en los procesos judiciales”, afirma el experto de Panda. Y la pérdida de control sobre la propia imagen y la voz que genera el deepfake bullying, “enfrenta a la víctima a un impacto traumático e invasivo que puede desembocar en aislamiento social y miedo a aparecer en público”

Cómo prevenir este acoso digital

Y lo peor es que nadie parece estar a salvo de este tipo de amenaza digital, porque todos, sin excepción subimos más o menos contenido personal en nuestras redes que puede ser utilizado en nuestra contra. Sin ir más lejos, una de cada cuatro mujeres jóvenes de entre 17 y 21 años sube temas personales a la IA y, según un estudio reciente de IAB Spain, aproximadamente el 86% de los españoles de entre 12 y 74 años usa las redes sociales de manera habitual

“Prevenir el deepfake es difícil, pero no imposible”, dice Lambert. “Se puede reducir mucho el riesgo y limitar los daños si se actúa en varios frentes, evitando, en todo lo posible, compartir material en abierto, configurando perfiles privados y limitando quién puede descargar fotos o hacer capturas en algunas apps, y haciendo uso del egosurfing. Es decir, buscando nuestro nombre e imagen de manera periódica y usar herramientas de verificación para denunciar cuanto antes, en caso de que sea necesario”

Qué hacer si ya eres víctima del deepfake bullying

Si ya te has convertido en víctima de este tipo de acoso lo importante, según indica el experto de Panda, “es actuar rápidamente y de forma organizada para limitar la difusión, proteger la salud mental y activar la vía legal. Hervé Lambert aconseja “hacer capturas de pantalla con fecha, hora, URLs y perfiles implicados. Guardar también los mensajes, correos o cualquier comunicación relacionada. No borrar nada porque cualquier detalle podría ser importante para denuncias y retiradas de contenido. Y usar los mecanismos que las plataformas ponen a disposición especificando de qué se trata y haciendo referencia a la Ley de Servicios Digitales de la UE que las obliga a eliminar material ilícito con rapidez

“Recuerda”, dice el directivo de Panda, “que aunque no siempre se puede retirar todo el material de Internet, una reacción temprana, el asesoramiento adecuado y el uso de canales legales y tecnológicos pueden reducir notablemente el daño y proteger los derechos de la víctima”