¿Cuáles son los potenciales riesgos de la Inteligencia Artificial?

 

El desarrollo de vehículos autónomos, casas inteligentes  y asistentes personales digitales es sólo una muestra de lo que la Inteligencia Artificial (IA) puede aportar a la sociedad en las próximas décadas. Las posibilidades en este campo son tan amplias que algunos investigadores han mostrado su preocupación por los posibles riesgos.

Desde ‘Terminator’ a ‘Blade Runner’, pasando por ‘2001: una odisea del espacio’, el cine, los comics y la literatura también han marcado el imaginario colectivo con los desafíos éticos y prácticos que la IA va a presentar a la sociedad. Conviene explicar que este término abarca un espectro más amplio de funciones: desde simples algoritmos de búsqueda en Google hasta dispositivos autónomos.

Por un lado encontramos la llamada IA débil (o estrecha), diseñada para realizar tareas concretas como reconocimiento facial o jugar al ajedrez. Como recientemente ha demostrado un estudio de la Universidad de Yale, la inteligencia artificial tiene la capacidad de mejorar la vida de las personas incluso en sus versiones más simples. A través de un experimento con gamers online, expertos en interacciones sociales probaron que la inclusión de IA no sólo ayudaba al rendimiento global de los jugadores humanos, sino que resulta especialmente útil cuando las tareas se hacen más difíciles.

¿Qué peligros puede presentar la IA?

Más ambiciosa es la idea de IA general (o fuerte), que es la que despierta las grandes cuestiones. En teoría una IA fuerte sería capaz de superar a los humanos en casi todas las tareas cognitivas. Recientemente personalidades como Stephen Hawking, Elon Musk, Steve Wozniak o Bill Gates han expresado públicamente su preocupación alertando sobre los posibles riesgos planteados por la IA.

Los investigadores coincide en que es poco probable que una IA superinteligente exhiba emociones humanas, por tanto, no hay razón para esperar que se vuelva intencionalmente malvada. La preocupación por una IA avanzada no tiene que ver con maldad sino con competencia. Una inteligencia artificial superinteligente será extremadamente buena en el cumplimiento de sus objetivos y si esas metas no están alineadas con las nuestras o se escapan del control de sus creadores, surgiría un grave problema.

La importancia de la ciberseguridad

De tener éxito la creación de una inteligencia superior que además podría automejorarse, es difícil prever el resultado final. Dado que la IA tiene el potencial de ser más inteligente que cualquier humano, no habría una manera segura de predecir cómo se comportará. Las guías tecnológicas del pasado no podrían servir de referencia ya que nunca se ha creado nada que tenga la capacidad de engañarnos. “La aparición de una IA poderosa puede ser lo mejor o lo peor que le puede pasar a la humanidad. Aún no lo sabemos”, resumió hace unos meses Stephen Hawking una conferencia en Cambridge.

Por otro lado, a más corto plazo, el objetivo de controlar el impacto de AI en la sociedad ya está impulsando la investigación áreas que van desde la economía o la legislación hasta la tecnología y la ciberseguridad. Cuantas más tareas dependan de dispositivos autónomos, mayor será el miedo a que estos sean hackeados. Si la idea de perder el control de un smartphone o un portátil es inquietante, no es nada comparada con un escenario en el que hacker pueda manipular dispositivos médicos, vehículos de pasajeros o sistemas de armas.