Quién le iba a decir a Samuel Butler, autor de “Erewhon”, la primera novela protagonizada por máquinas con Inteligencia Artificial, publicado en 1872 (sí, has leído bien, en mil ochocientos setenta y dos), que esta tecnología serviría para generar el texto predictivo de WhatsApp, en vez de servir para generar mundos distópicos.
Está claro que la Inteligencia Artificial sirve para muchas más cosas. Si no, que le pregunten a Ridley Scott o alguno de los dos guionistas de Blade Runner, Hampton Fancher y David Webb. Los tres responderían ipso facto que sin ella, las mentes sintéticas jamás podrían existir y que, por tanto, nadie sabría cómo es ver “brillar rayos-C en la oscuridad, cerca de la Puerta de Tannhäuser”, tal y como narra el replicante Roy Batty en “Blade Runner”.
Pero no hay que irse a la literatura ni al cine para ver las utilidades reales de la Inteligencia Artificial. A día de hoy, la usamos continuamente cuando charlamos con un chatbot en Facebook, cuando le pedimos una canción a Alexa o cuando nuestra Roomba aspira los suelos de nuestro salón.
El mayor riesgo: los deepfakes
Y es justo en el uso cotidiano que le damos, a esas acciones tan aparentemente inocentes, dónde están algunos de los verdaderos riesgos de la Inteligencia Artificial. Aun así, la mayor amenaza que entraña esta tecnología son los deepfakes. ¿Por qué?
Imaginemos que estamos ya en casa, después de una jornada laboral, y recibimos un audio de nuestro jefe por Whatsapp. En él nos pide que le mandemos las claves de la tarjeta de crédito del departamento. Resulta que tiene que hacer un pago urgente a un proveedor. Sin darle mayor importancia, abrimos el ordenador, buscamos las claves y se las enviamos a nuestro superior.
Al día siguiente, la cuenta de gastos del departamento ha sido desvalijada por unos hackers que, por medio de un deepfake, han ‘clonado’ la voz y la forma de expresarse de nuestro jefe. Además, por medio de un Phishing diseñado por una máquina, han conseguido robar las claves de acceso a su cuenta de WhatsApp para enviarnos un mensaje.
Sin embargo, el drama no acaba en el robo. Para colmo, nos han despedido del trabajo por cometer una negligencia grave, al enviar información confidencial de la empresa por canales no oficiales.
Quizás pueda parecer una medida excesiva y el ciberataque poco probable. Pero las políticas de seguridad en las organizaciones son cada vez más estrictas a la hora de la gestión segura de la información. De hecho, la figura del CISO (Chief Information Security Officer, por sus siglas en inglés) cada vez tiende a ser más un experto en temas legales que en temas tecnológicos.
En cuanto a la posibilidad de recibir este tipo de ataques, sabemos que puede parecer algo más propio de una película de James Bond. Sin embargo, sabemos que los “malos” cada vez tienen más dinero para investigar y desarrollar ataques cada vez más específicos, con víctimas muy estudiadas a través del Big Data.
La mentira como fuente de información
Otro de los factores que hace de los deepfakes una grave amenaza es el uso “geoestratégico” que se puede hacer de ellos. De hecho, ya existen claros ejemplos de contenidos falsos que han tenido una influencia directa en la democracia en algunos países. Sin ir más lejos, en Estados Unidos, el año pasado se hizo viral un vídeo manipulado en el que se había ‘clonado’ a la presidenta de la Cámara de Representantes, Nancy Pelosi, en el que aparecía muy perjudicada por los efectos del alcohol. Aunque se demostró que el vídeo era falso, obtuvo 2,5 millones de visualizaciones en Facebook.
A medida que los deepfakes se vuelvan más sofisticados y creíbles, serán cada vez más difíciles de detectar. Si bien las empresas de software ya estamos trabajando en desarrollar algoritmos capaces de detectar deepfakes con éxito, la realidad es que la imaginación de “los malos” es tan ilimitada que son capaces de encontrar fórmulas virales para propagar sus mensajes. Por ello, debemos confiar en los medios de comunicación, ya que solo debemos creer la información que nos llega a través de ellos. Dicho de otro modo, todo aquello, aunque se trate de contenido audiovisual, que no nos llegue a través de medios de confianza, deberá generarnos, al menos, la duda de su veracidad.
Coches “fantásticos” y explosivos
Está claro que no hace falta pensar en mundos distópicos en los que los robots invaden la tierra para “salvarla” de la maldad humana como en tantas novelas, películas y series de televisión. En este sentido, un reciente estudio de la University College de Londres, el segundo mayor riesgo relacionado con la Inteligencia Artificial, después de los Deepfakes, son los coches autónomos.
Es cierto que debemos coger “con pinzas” los vaticinios de la Ciencia Ficción. Todavía queda mucho camino para que se produzca la “Singularidad”, es decir, cuando la Inteligencia Artificial avance tanto que las máquinas tomen conciencia de sí mismas. Aunque es poco probable que lleguemos a conocer a un Kitt como el de Michael Knight, lo cierto es que para un grupo organizado de cibercriminales es relativamente sencillo tomar el control de un vehículo y convertirlo en “un coche teledirigido”.
Afortunadamente el blockchain ayudará a que sea prácticamente imposible “engañar” a una mente artificial para que se convierta en una bomba. Pero, sí que es muy posible que estos vehículos se conviertan en el contenedor de algún artefacto que conducir a distancia y hacerlos explotar.
La polarización del mundo
El último de los grandes retos que nos trae la Inteligencia Artificial en la actualidad es la generación de corrientes de pensamiento que se antojaban impensables hace pocos años.
Hay que tener en cuenta que, en solo un minuto, circulan por Internet 187 millones de emails, 38 millones de mensajes de Whatsapp, se hacen casi 4 millones de búsquedas en Google y algo más de un millón de swipes en Tinder. La información que se mueve de un lugar para otro es tan abrumadora que es difícil imaginarla. Si de todas esas millones de comunicaciones, sólo un 0,01% de ellas fueran informaciones falsas, querría decir que en un solo minuto se estarían transmitiendo 10.000 fake news por minuto en todo el planeta.
Obviamente, esa no es la realidad. Pero nos da para hacernos una idea de lo potencialmente peligrosas que son las noticias falsas si los hackers saben aprovechar los algoritmos de Inteligencia Artificial que rigen Internet.
Por tanto, uno de los grandes retos que están generando las redes sociales en la opinión pública de todo el planeta es el sesgo de la información que recibimos en muchas ocasiones. Por muy excéntrica que sea nuestra visión del mundo, los algoritmos que rigen Facebook, Instagram, LinkedIn, TikTok o Twitter hacen que las noticias que aparecen en nuestros feeds sean de nuestro gusto.
Por tanto, y por muy excéntrico que sea nuestro punto de vista respecto a la vida, esos algoritmos harán que veamos contenidos generados por personas que comparten esa visión. Esta es una de las causas por las que teorías sin sentido como el “Terraplanismo” o la idea de que no es necesario usar mascarilla durante la crisis de la Covid19 arraiguen tan profundamente en sociedades avanzadas.
No debemos olvidar que la tecnología es una moneda con dos caras. Está claro que la humanidad ha llegado hasta el punto en el que se encuentra gracias a todos los avances tecnológicos que ha habido desde la invención de la rueda. Y aunque la rueda se generó para transportar armas, se usó previamente para llevar comida de una población a otra y alimentar a un mayor número de personas. Con la Inteligencia Artificial ocurre lo mismo. Por muy malos usos que los cibercriminales le quieran dar, todos los beneficios que aporta son infinitamente mayores. Es más, el mayor esfuerzo que estamos haciendo las empresas de ciberseguridad en la actualidad es el de convertir la Inteligencia Artificial en nuestra herramienta más poderosa para localizar a los malos.