Internet se ha llenado de contenido generado con inteligencia artificial, lo que incluye una gran cantidad de publicaciones con las famosas alucinaciones de IA. Un estudio elaborado por la consultora Llorente y Cuenca (LLYC) muestra unas cifras alarmantes.
El 30% de las fake news de internet están relacionadas con la alimentación, desde falsas propiedades de alimentos hasta recomendaciones de salud. Luis Martín, experto en inteligencia artificial y autor del estudio, ha confirmado que una enorme cantidad de bulos se cuelan en nuestra dieta.
La inteligencia artificial inunda internet de falsos consejos
Luis Martín ha participado en Madrid Fusión, donde ha comentado una tendencia preocupante. Los usuarios tienden a fiarse de cualquier consejo que pueda darles ChatGPT u otras herramientas de IA, incluso en alimentación.
«Estas noticias circulan siete veces más rápido que el resto de las noticias porque apelan a emociones como el miedo y, además, son mensajes muy simples», comenta Martín acerca de la enorme cantidad de publicaciones generadas por IA acerca de alimentación y salud.
El experto en IA confirma que la mayor parte del contenido no es falso, al menos no en su totalidad, sino que se basa en medias verdades. Luis Martín confirma que la fórmula «según un estudio» se repite a menudo, consigue que el contenido sea más verosímil aunque no hagan referencia a una investigación concreta.
ChatGPT extiende bulos en internet
Luis Martín ha utilizado la falsa creencia de la intolerancia a la leche con frases como «no estamos preparados para procesarla». Internet y la IA repiten este bulo, cuando solo entre el 2 y el 3% de la población tiene una verdadera intolerancia a la leche y entre el 10 y el 15% a la lactosa.
Lo mismo ocurre con otros bulos en internet como los beneficios de una dieta sin el mínimo azúcar asegurado que “es veneno” o que carne roja «inflama» o es siempre «procesada». «Si lo dice ChatGPT, nos lo creemos», critica el experto en alimentación.
La situación con ChatGPT y otros chatbots no es nueva. «La IA produce contenidos a escala y los personaliza a una gran velocidad, según Martín. “Le damos mucha autoridad a la IA. Como cuando decíamos que si lo ha dicho el Telediario, es verdad», añade.
El experto ha dejado claro que no todo es blanco o negro, los usuarios deben comprender que la inteligencia artificial también tiene sesgo. Si los modelos aceptan una información como verdad absoluta, es difícil que cambien de opinión.
«En esta era la confianza no se defiende reaccionando. Hay que anticiparse», ha recalcado Martín. Los usuarios deben decidir por sí mismos si siguen los consejos del chatbot de OpenAI, pero «nunca delegar la labor cognitiva a la IA».


Deja una respuesta