La manipulación informativa, con diferentes fines, no es una novedad de nuestro tiempo. Casi todas las sociedades han creado, en un momento u otro de su historia, formas de difundir bulos para influir en la opinión pública. Desde rumores transmitidos de forma oral hasta las fake news que recorren hoy las redes sociales.

El problema es que la tecnología actual puede acelerar este fenómeno a velocidades nunca antes vistas. En los últimos años, por ejemplo, han ido apareciendo los primeros deepfakes políticos. De momento, sólo suponen un pequeño porcentaje de las falsificaciones que circulan por la red (unos 50.000, según estimaciones realizadas este verano, la mayoría de carácter pornográfico). Pero muchos analistas de seguridad temen que criminales o servicios de inteligencia de algunos países, comiencen a utilizarlos para atacar a sus enemigos y que se sirvan de las redes sociales para amplificar su difusión, con el objetivo de influir en la opinión pública y en el resultado de las elecciones.

El mes pasado, el New York Times relataba cómo el congresista Steve Scalise publicó un deepfake que mostraba a Joe Biden defendiendo una posición política que en realidad nunca ha adoptado. Y, sin embargo, no se trataba de una falsificación de alta tecnología, sino que utilizaba técnicas más rudimentarias. Porque, en este sentido, las formas más simples de manipulación también son una amenaza.

La llegada de los cheapfakes

Cheapfake es un término acuñado por las ciberanalistas Joan Donovan y Britt Paris para describir técnicas básicas de edición de video que tienen el fin de acelerar, ralentizar, cortar o recontextualizar el material existente para crear engaños. Si un deepfake es un vídeo alterado a través de alguna forma de aprendizaje mecánico para hibridar o generar cuerpos y rostros humanos, los cheapfakes son las manipulaciones audiovisuales creadas con software más barato y accesible.

Download Panda FREE antivirus
Estas falsificaciones pueden ser renderizadas a través de Photoshop y su aparición demuestra que la creación de desinformación no requiere tecnologías de vanguardias, como las herramientas de aprendizaje de máquinas. Paris y Donovan acaban de publicar el informe ‘Deepfakes and Cheap Fakes’ en el Instituto Data & Society, en el que describen décadas de manipulación audiovisual (AV) y demuestran hasta qué punto la tecnologías pueden contribuir a consolidar el poder en la sociedad.

Pensamiento crítico

Si bien los deepfakes pueden resultar más preocupantes en el futuro cercano, eso cambiará a medida que las falsificaciones profundas sean más accesibles. El riesgo es la progresión de una sociedad de confianza cero, en la que cualquier información pueda ser descartada como falsa y en la que ninguna campaña sea creíble. Sería especialmente grave cuando la desconfianza pese sobre las autoridades oficiales, por ejemplo en recomendaciones sanitarias.

Señalan también varias formas de protegerse contra la desinformación, tanto de deepfakes como cheapfakes: tecnología, regulaciones y conciencia pública. Los investigadores forenses digitales han desarrollado algoritmos que pueden detectar rastros digitales, pero no son infalibles. Además, es previsible a medida que cada algoritmo se desarrolla para detectar falsificaciones, los programadores desarrollarán técnicas más sofisticadas para evitarlos. Las regulaciones también pueden jugar un papel importante, por eso varios países han legislado contra las falsificaciones creadas con la intención de herir a un candidato político o influir en una elección.

Por otro lado, las autoras subrayan la importancia de los usuarios y de su voluntad para enfrentarse a sus propios prejuicios a la hora de juzgar la veracidad de una información. Se sabe que el hecho de que una información confirme nuestras creencias estimula que se comparta, mucho antes de confirmar si es cierta o no. Por eso sostienen que un enfoque exclusivamente tecnológico no es suficiente para hacer frente a las amenazas de la desinformación, también es importante reforzar el factor humano con campañas de sensibilización.