Los usuarios creen que los chatbots de IA con conscientes, según un estudio, a pesar de las advertencias de los expertos

​​

Una inteligencia artificial con consciencia propia es uno de los terrores más recurrentes de la ciencia ficción desde los tiempos de Isaac Asimov. Actualmente, en cambio, la mayoría de expertos insisten una y otra vez en que los chatbots actuales, como ChatGPT o Gemini se encuentran lejos de algo así. Su nombre es engañoso: de inteligentes no tienen gran cosa.

Sin embargo, llama la atención de muchos usuarios sí piensen de esa forma. Es más, no solo tienden a poner conciencia en la IA (humanizarla de alguna forma), sino que también perciben en ella la capacidad de albergar sentimientos. Eso al menos es lo que pone de manifiesto un nuevo estudio, que también advierte sobre los peligros que se esconden en ello.

La consciencia de la IA, un tema espinoso

Si se piensa bien, es cierto que chatbots de IA como ChatGPT o Claude pueden parecer inteligentes. Al fin y al cabo son herramientas creadas para conversar con fluidez y coherencia, e incluso para resultar empáticas. El problema, insisten una y otra vez lo expertos, es que se trata de una ilusión. Dicho de otra forma: la IA no tiene intenciones ni presenta estados mentales.

Esta tendencia, a decir verdad, no es ni mucho menos nueva. Los especialistas la conocen como antropomorfización, y hay muchas personas que llevan siglos proyectando rasgos humanos en animales, objetos o fenómenos naturales. ¿La principal diferencia? Que en este caso la inteligencia artificial sí responde de forma que simula consciencia e inteligencia.

En este sentido, los expertos son contundentes. Como bien explican algunos de ellos, los chatbots actuales no entienden lo que dicen, no tienen conciencia de sí mismos ni del usuario, y no experimentan emociones. Funcionan como modelos estadísticos de lenguaje que predicen qué palabra o frase es más probable a continuación, basándose en enormes cantidades de datos.

Esta es la clave de todo, dicen en el estudio: no hay experiencia interna de ningún tipo, solo cálculo. Y es ahí donde se produce la principal amenaza. Mucha gente está pasando esto por alto y comportándose como si los chatbots de inteligencia artificial fuesen seres conscientes, dicen los responsables del trabajo. Algo que ya se traduce en moderno problemas psicológicos.

Los peligros de «humanizar» la IA

Expertos en IA (como el CEO de IA de Microsoft) han advertido que esta creencia puede llevar a riesgos psicológicos reales, como una especie de «psicosis» o confusión entre realidad y simulación. De hecho, ya hay quienes hablan de emparejarse con chatbots de IA, o incluso de intentos de matrimonios. Algo que, por cierto, genera también confusión legal.

Si estas situaciones ya se dan ahora, con esta tecnología en teoría en pañales según los especialistas, es imposible calcular qué sucederá en el futuro, sobre todo si la robótica alcanza sus próximos objetivos. Pero desde luego, no se trata de una cuestión baladí, ni que vaya a dejar de ser relevante pronto. Más bien al contrario.

 

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *