Varios estudios alertan sobre los posibles impactos psicológicos de la utilización excesiva de herramientas de IA generativa y la dependencia a ChatGPT.

Cada semana OpenAI anuncia a sus más 400 millones de usuarios nuevos modelos y avances para mejorar su chatbot ChatGPT. Sin embargo, las constantes mejoras que conducen a una mayor facilidad de uso también implican que va a ser cada vez más necesario prestar atención a los riesgos de la sobreutilización, la sobreexposición o la dependencia que pueden aparecer entre los usuarios.

Impactos psicológicos de la dependencia de ChatGPT

Consciente de ello, la propia empresa investiga ahora las posibles ramificaciones psicológicas que puede tener la inteligencia artificial generativa. En este sentido, OpenAI ha publicado recientemente los resultados de un estudio en dos etapas, realizado en colaboración con el MIT Media Lab, que revela una conexión entre el aumento del uso del chatbot ChatGPT y un incremento en la sensación de aislamiento de los usuarios.

Tanto OpenAI como el MIT Media Lab realizaron sus investigaciones de manera independiente y luego fusionaron los resultados en una conclusión conjunta. El estudio de OpenAI examinó durante un mes “más de 40 millones de interacciones ChatGPT”, que no se estudiaron de forma personalizada para mantener la privacidad del usuario. Por su parte, el MIT observó el comportamiento de unos 1.000 participantes que utilizaron ChatGPT durante 28 días. Los estudios aún deben ser revisados por otros investigadores independientes para su publicación en revistas científicas. 

El trabajo del MIT analizó las distintas funciones de uso de ChatGPT susceptibles de afectar a la experiencia emocional de los usuarios, entre ellas el uso de texto o voz. En este sentido, los resultados apuntan a que cualquiera de los dos medios puede provocar soledad o afectar a la socialización de los usuarios. Además, la inflexión de la voz y la elección temática también parecen ser un punto importante para los usuarios: un tono neutro en el modo de voz de ChatGPT presenta menos probabilidades de provocar resultados emocionales negativos para los participantes

Te puede interesar: Los riesgos de la clonación de voz y cómo prevenir este tipo de estafas

¿Quiénes son más vulnerables?

Fuentes oficiales de OpenAI explicaron que su intención con estos estudios es comprender los retos que pueden surgir debido a su tecnología, así como poder establecer expectativas y ejemplos sobre cómo deben utilizarse sus modelos. En ciertos foros públicos, como Reddit, ya hay personas que están admitiendo que utilizan ChatGPT en lugar de acudir a un terapeuta para discutir sus emociones.

El estudio observó que algunas personas veían a ChatGPT como un amigo. Estas personas con mayor apego emocional mostraban más soledad y dependencia con el chatbot. 

La investigación reveló una correlación entre los participantes que decidían mantener conversaciones personales con el chat y una mayor probabilidad de sentirse solos. Aunque, según los autores, esos sentimientos desaparecían a corto plazo. Por otro lado, los usuarios que utilizaban el chat de texto para conversar sobre temas generales, experimentaron mayores casos de dependencia emocional con el chatbot. En oposición a los que realizan preguntas concretas.

No obstante, la investigación de OpenAI, añadía un matiz en este sentido. Sus resultados señalaban que, en general, las interacciones con ChatGPT con fines emocionales son poco frecuentes. Y la empresa también ha querido subrayar su análisis de interacciones.  Descubrieron que incluso en este grupo de usuarios intensivos la prevalencia de un impacto negativo es baja.