ChatGPT permitirá a los usuarios agregar contactos de confianza en caso de experimentar una crisis de salud mental

​​

Numerosos expertos han hablado de cómo ChatGPT puede convertirse en una amenaza para la salud mental. Algunos estudios explican la razón: los chatbots están hechos para dar la razón en gran medida a los usuarios. En numerosas ocasiones, ciertas conductas pueden no solo intentar frenarse, sino animarse en cierto sentido. Algo que ahora OpenAI intentará evitar.

¿Cómo? Pues permitiendo que los usuarios agreguen a contactos de confianza en caso de que su inteligencia artificial detecte que, efectivamente, puede haber algún tipo de conducta preocupante. La medida todavía está supuestamente en fase de desarrollo, pero supondría una respuesta a las muchas críticas que la herramienta está recibiendo últimamente, también por esto.

ChatGPT tomará medida para prevenir los problemas de salud mental

Desde luego, la decisión no es fruto de la casualidad. Esta misma semana aparecía una investigación que argumentaba que, si bien ChatGPT no puede generar problemas de salud mental por sí mismo, si hay muchas posibilidades de que los multiplique en el caso de que estén ahí. Sin olvidar tampoco que cada vez más gente usa la IA para recibir algo parecido al apoyo emocional.

Las tendencias no mienten: numerosas personas emplean ChatGPT y alternativas similares para desahogarse, pedir consejo, o simplemente compartir ideas y sentimientos más o menos personales. Es indudable que la inteligencia artificial cuenta con ventajas obvias: siempre está ahí, no cuesta dinero y nunca tiene un mal día. Siempre dispuesta a escuchar. Pero también tiene sus riesgos.

Lo que quiere OpenAI, según señalan en Futurism, es terminar con estos últimos. Así, la nueva función permitiría que el usuario configurara previamente uno o varios contactos -por ejemplo, un familiar, una pareja o un amigo- que podrían recibir una notificación si el sistema detecta patrones de lenguaje asociados a riesgo grave. Incluso cuando su propia vida pudiese estar en peligro.

Tal y como señalan los expertos, la activación de esta medida sería, en cualquier caso, voluntaria. Simplemente estaría entre las opciones de seguridad de ChatGPT, y quien quisiera podría encenderla. En teoría, parece una buena idea, ya que hasta ahora el chatbot se limitaba a recomendar solicitar ayuda y tópicos por ese estilo cuando sospechaba que algo no iba bien.

La nueva opción de OpenAI que genera dudas

Con todo, no todo el mundo piensa que esta medida vaya a resultar realmente útil. Como suele suceder en estos casos, mucha gente se ha mostrado escéptica, y la ha considerado más una forma por parte de OpenAI de salvaguardar sus espaldas que otra cosa. También ha generado dudas. Por ejemplo, ¿cómo sabrá la IA cuándo un caso es peligroso y cuándo no?

Además, está la cuestión de siempre: la privacidad. ¿Dónde termina esta para que empiece la seguridad? Desde luego, no se trata de un debate sencillo. Otro más, de los muchos que últimamente parece que se le están acumulando a los creadores de ChatGPT.

 

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *