ChatGPT ha dejado de ser ese chatbot al que hacerle preguntas o pedirle información, para convertirse en un consejero sentimental o una compañía para personas que se sienten solas. Como puedes imaginar, esto es un grave problema.
Jon Hernández, experto y divulgador en inteligencia artificial, así lo cree y lo ha hecho saber recientemente en el pódcast La Fórmula del Éxito. «Tenemos una situación muy dramática y no hay forma de arreglarlo», afirma.
Según el experto, la IA nunca se diseñó para ocupar un lugar emocional en la vida de las personas. Nació para procesar información y automatizar tareas. El problema es que ahora se está usando para suplir relaciones humanas que no están funcionando o que directamente no existen.
Un estudio de OpenAI analizó más de cuatro millones de conversaciones en las que se mostraban señales afectivas o emociones y encuestó a 4.000 usuarios. Los resultados son claros y el 23% de quienes usan chatbots a diario desarrollan dependencia emocional, mientras que el 15% admite preferir hablar con IA antes que con seres humanos.
El gran punto aquí es que las conversaciones que puedes tener con ellos son de alta calidad debido a que, de nuevo, aprenden de tus gustos, adaptan su personalidad y hasta eligen acentos para resultar más ‘cercanos’, generando la sensación de que realmente estás hablando con alguien muy cercano.
Según el MIT Media Lab, las voces personalizadas aumentan un 40% el tiempo de interacción frente a opciones neutras. Pero esta ‘humanización’ tiene trampa. Los chatbots están diseñados para imitar las emociones del usuario, creando un bucle donde la IA siempre parece estar de acuerdo.
Henández afirma que hoy hay gente que entra en un directo, en un chat o en una conversación con una IA y se siente menos sola. Y eso ocurre porque estas herramientas imitan muy bien el lenguaje humano. «Puntúan casi igual que un amigo», dice. El problema es que solo lo parecen y es totalmente una ficción.
«No es el camino. No están preparados para esto. No va a acabar bien porque esa herramienta, a pesar de que la IA va a ayudar al soporte emocional de una forma brutal, no está a día de hoy preparada para eso», comenta.
«No ha sido creada para esto»
Para Jon Hernández, confiar emocionalmente en una IA es un error de base. Tal y como comenta, el problema es que esta tecnología funciona muy bien en apariencia, pero no ha sido creada para esto.
La IA responde rápido, amable y con frases que te hacen sentir como si empatizase contigo. El problema es que realmente no entiende lo que dice. No siente, no tiene experiencias y no sabe lo que es vivir una ruptura, una pérdida o una crisis personal. Solo predice palabras basándose en datos.
Si tu mejor amiga es la IA y le cuentas todo, deberías pensarlo dos veces
Rizando el rizo, y dejando a un lado los problemas emocionales y psicológicos en lo que esto puede derivar, súmale otro grave problema: tus datos.
Antes comentado, tienes que saber es que, aunque estas IA parecen amigas de verdad, en realidad son programas diseñados para engancharte. No sienten, no piensan ni tienen emociones; simplemente responden según lo que sus creadores programaron y lo que aprenden de tus mensajes.
Esto tiene un lado oscuro y todo lo que le cuentas a tu ‘amiga’ o ‘amigo’ queda registrado en bases de datos que gestionan grandes empresas. De forma simple, si lo que buscas es alguien que te guarde el secreto, este no es tu sitio.
Tus aspectos más privados, tus miedos, tus opiniones políticas o tus fantasías sexuales pueden acabar siendo analizados para mejorar el producto o incluso para otros fines comerciales.
Y lo peor es que mucha gente no es consciente de esto. Piensan que están hablando con un ser que las entiende y las respeta, pero en realidad están compartiendo información con una máquina que no tiene ética ni sentimientos.
Además, en países como Estados Unidos —Europa tampoco es que sea muy estricta con esto—, la regulación sobre el uso de estos datos es todavía muy laxa, por lo que las empresas pueden hacer casi lo que quieran con esa información, sin que tú tengas mucho control.


Deja una respuesta