Hace ya algún tiempo que numerosos profesionales de la medicina vienen advirtiendo acerca de los peligros de la inteligencia artificial. No son los únicos en hacerlo, pero sus preocupaciones sí parecen las más inmediatas. De hecho, un estudio acaba de confirmar que ya sucede: mucha gente acude a herramientas como ChatGPT para obtener diagnósticos médicos.
Pasa lo mismo cuando se trata de numerosos trabajos, estudios y demás. Solo que en el caso de la salud, el riesgo es mayor. Sobre todo porque los responsables del mismo trabajo son los primeros en asegurar que muchas de las recomendaciones médicas llevadas a cabo por la IA no se corresponden con las realidad. Es peligro, por lo tanto, es evidente.
Los falsos diagnósticos médicos de la IA
Ya lo dijo en su momento un experto en la materia: «La inteligencia artificial está ejerciendo la medicina sin tener la preparación adecuada para ello». Y según un nuevo estudio publicado por investigadores del MIT en la revista The New England Journal of Medicine, es verdad. Pero el principal problema es que la gente parece estar encantada con acudir a esta tecnología para ello.
El desarrollo de la investigación resulta cuanto menos curioso. Para ello participaron un total de trescientas personas «mixtas». Es decir, tanto cono conocimientos en medicina como sin saber nada de los mismos. A todos se les presentaron tres respuestas médicas: una provenientes de médicos auténticos, otra de plataformas médicas digitales y la última generada con inteligencia artificial.
Acto seguido se le pidió a cada sujeto que evaluara la exactitud, validez, confianza y completitud de cada respuesta. ¿Y qué sucedió entonces? Pues que los participantes calificaron las respuestas fruto de la IA como las más fiables y completas. Sucedió incluso siendo conscientes del alto grado de errores que comete esta tecnología: uno de cada cuatro diagnósticos está mal.
Esto último dio la sensación de convertirse en un inconveniente, señalan los expertos que llevaron a cabo el estudio. Los usuarios se mostraron conformes y reconocieron que estarían dispuestos a actuar según las recomendaciones dadas por la IA. O dicho de otra forma: que todos aquellos que vienen advirtiendo al respecto, están en lo cierto.
Una tecnología cada vez más difícil de distinguir
Otro detalle importante de este trabajo, pone de manifiesto lo complicado que es saber cuándo un diagnóstico está hecho por un médico de verdad y cuando por una IA. No se trata de que la máquina falle más (que en teoría lo hace), sino en que la forma de presentarse al paciente es igual de convincente. Ni los propios médicos que participaron en el estudio supieron distinguirlas.
Por supuesto, la medicina y la salud son cuestiones que no se deben tomar a la ligera, pero no son los únicos. Teniendo en cuenta que la mitad de lo que se publica en Internet ya está generado mediante IA, la fiabilidad de todo lo que llega del mundo digital está más en entredicho que nunca.


Deja una respuesta