En internet, todo lo que compartes tiene consecuencias. Tanto positivas como negativas. Los datos personales que subes a plataformas y redes sociales te ayudan a mejorar tu experiencia de usuario. A la vez que permiten a estas soluciones manipular tu información para sacar provecho comercial o desarrollar sus modelos de aprendizaje automático. E incluso, pueden convertirse en puerta de entrada de cierto tipos de fraudes. Ser consciente de esto y proteger los datos está en nuestras manos.
IA hambrienta de datos: la nueva moneda digital
Cuando algo es gratis el producto eres tú. Esta frase se ha convertido en mantra en la era digital. Y cobra aún más sentido en un momento en el que algunas compañías IT están advirtiendo de que están alimentando sus inteligencias artificiales con los datos de sus usuarios. La bestia tiene que comer, y necesita información actualizada para resultar competitiva en un mercado cada vez más saturado de soluciones de IA generativa.
La última en avisar de esta maniobra ha sido WeTransfer. Tanteó la posibilidad de quedarse con los derechos de todos los documentos que gestiona. Con el fin de operar, desarrollar, comercializar y mejorar el servicio o nuevas tecnologías, incluyendo el rendimiento de los modelos de aprendizaje automático.
Privacidad en peligro: cómo las plataformas reescriben las reglas
Esto no es algo nuevo. A nadie le sorprende ya que los gigantes tecnológicos se estén adueñando de los datos de sus usuarios para entrenar sus modelos de IA. Pero no ha sido hasta ahora cuando se ha hecho evidente que la información pública se les ha quedado corta y necesitan más gasolina. “Los datasets recopilados en sus aplicaciones valen mucho”, indica Hervé Lambert, Global Consumer Operations Manager de Panda Security. “Lo que explica que la mayoría de estas empresas se esté dando prisa en modificar sus políticas de privacidad para poder hacer uso de ellos, y adaptarse a las nuevas normativas de protección de datos que les obligan a ser más transparentes sobre el uso de la información que recogen y almacenan”.
Meta, X, TikTok… Todas han cambiado ya sus políticas de privacidad para poder tratar los datos de sus usuarios y la información disponible públicamente para ayudar a entrenar sus modelos de aprendizaje automático. Incluso aplicaciones como Slack, de uso empresarial, utilizan por defecto los datos de sus clientes, como mensajes, contenidos y archivos subidos a la plataforma, para desarrollar funciones como emojis y recomendaciones de canales. Y, aunque los usuarios se pueden oponer escribiendo un correo electrónico, el acceso a la información de los clientes existe por defecto.
Los datos, un activo estratégico
“Quieren abrir la puerta a nuevas formas de explotar los datos en áreas como la IA, el marketing avanzado y el desarrollo de productos”, señala el directivo de Panda, “pero a la vez necesitan estar a buenas con la legislación”. Por eso, cada vez es más habitual encontrarse con actualizaciones en las condiciones y políticas de privacidad de nuestras redes sociales y otras aplicaciones para que, “de forma directa o indirecta se puedan utilizar tus datos personales”. Pero, ojo, porque a veces la línea que divide la forma en la que estas compañías utilizan nuestra información es muy delgada… Y a veces pasa que nuestros datos llegan a usarse en nuestra contra: “pudiendo convertirse en una herramienta de manipulación comercial, exclusión o incluso extorsión. Por eso es clave revisar políticas de privacidad, limitar permisos y usar configuraciones de seguridad avanzadas”, advierte Lambert.
Manipulación, perfilado y riesgos ocultos del uso de los datos
No hace falta encontrar ejemplos de malas praxis con los datos personales en las grandes gigantes tecnológicas. “Compañías de ecommerce, por ejemplo, pueden utilizar el historial de navegación, ubicación o dispositivo de sus clientes para mostrarles precios diferentes en función de dónde se encuentren o de qué terminal móvil utilicen”, señala el directivo de Panda. Los datos también sirven para “alimentar algoritmos que perfilan a sus usuarios con gran precisión, exponiéndoles a ofertas diseñadas para inducir decisiones de compra menos favorables; o ser cedidos a plataformas de reclutamiento o entidades financieras que los utilizan para descartar candidatos o denegar préstamos”.
También conocemos algunos casos, sobre todo en el ámbito de la política. En los que los datos publicados y los contenidos antiguos subidos a redes han sido usados en procesos judiciales, despidos o campañas de desprestigio. “Y, si vamos aún más lejos, también encontramos ejemplos en los que los datos o las imágenes privadas han caído en manos equivocadas. Gracias a campañas de phishing y brechas de seguridad, y se han empleado para extorsionar, chantajear o suplantar identidades”, avisa Lambert.
¿Y los datos que compartimos en la IA?
El flujo de la información en internet es continuo, no para. Y los datos de los usuarios circulan por las arterias digitales para bombear los principales órganos de la Red. Así, nuestra información no sólo alimenta los motores de redes y aplicaciones y sirve para desarrollar los modelos de aprendizaje automático de los gigantes tecnológicos.
También es utilizada por la propia IA para “compartir contenido de forma abierta, facilitando que otros usuarios accedan a las conversaciones en ChatGPT sin necesidad de tener cuenta o para debates, documentación, contenidos educativos o ejemplos que se quieran difundir”, explica Lambert. Además, apunta que “cuando se tiene activada la opción ‘make this chat discoverable’, el usuario de ciertas soluciones de IA como ChatGPT acceden a que éstas sean públicas y accesibles desde Google u otros buscadores y aparezcan en los resultados de búsqueda, lo que genera controversia porque en algunos de estos chats puede haber datos sensibles, ideas de negocio, estrategias comerciales o vivencias personales”.
Esta colaboración puede implicar riesgos para la seguridad y la privacidad de los usuarios si no se gestiona adecuadamente. “Y deja abierta la puerta a campañas de phishing, fraudes o suplantación de identidad”, dice Lambert. “Cuando volcamos datos personales en herramientas de inteligencia artificial sin un control conveniente estamos exponiéndonos a que la información pueda ser copiada, compartida o utilizada sin nuestro consentimiento. Y, aunque no hay datos explícitos, fragmentos de información pueden ser suficientes para crear perfiles de hábitos, intereses o actividad profesional que terceros pueden explotar”.
Cómo proteger tus datos personales al usar IA generativa
Sin embargo, a pesar de los riesgos reales que existen, éstos pueden minimizarse con buenas prácticas y ciertos hábitos. “Revisar bien el contenido antes de subirlo a ninguna plataforma, eliminar cualquier dato sensible, usar enlaces de acceso limitado, solicitar la eliminación de contenido indexable a Google si es necesario y revisar periódicamente qué contenido compartido sigue accesible”.