Del policía que se convirtió en rana al partido de fútbol que nunca existió: la IA sigue alucinando en los informes policiales

​​

Lo que más me sorprende de la inteligencia artificial no es lo que ha conseguido hasta ahora, o lo que podrá hacer. Lo que me deja sin palabras es cómo la gente, las empresas y las instituciones abrazan una IA de primera generación llena de fallos. Y aunque eso es trivial cuando le preguntas cualquier tontería a ChatGPT, desconcierta su uso en tareas críticas como un juicio, una evaluación médica, o un informe policial.

Hace unos días saltó a la actualidad un informe policial en Estados Unidos, que afirmaba que un agente se había convertido en rana. La IA analizaba lo que captaba la cámara del policía, en la tele estaban emitiendo la película Tiana y el sapo, y la IA llegó a esa incomprensible conclusión.

Más grave ha sido lo que ha ocurrido en el condado de West Midlands, en el Reino Unido, en donde prohibieron la entrada a los fans de un partido de fútbol en la Europa League, porque la IA les acusó de causar destrozos en un partido que nunca existió. Nadie se molestó en comprobarlo.

La IA es mentirosa por naturaleza

Aunque se está corrigiendo con los últimos modelos de IA, es sabido que la inteligencia artificial prefiere mentir, antes que reconocer que no tiene la respuesta. Y si cuela, cuela. Por desgracia, muchas veces así ocurre, que nos la cuela.

El pasado 6 de noviembre, se jugó un partido de la Europa League entre el Aston Villa y el Maccabi Tel Aviv de Israel. Un informe policial calificó el partido como “de alto riesgo”, así que la policía impidió la entrada al estadio a los hinchas del equipo israelí.

Después del partido se supo que el informe se basaba en los incidentes de los hinchas israelíes en el partido entre el West Ham y el Maccabi Tel Aviv… que nunca se ha celebrado.

¿Cómo puede la policía inventarse un partido? Todas las miradas apuntaron a la IA, pero el jefe de policía de West Midlands, Craig Guildford, negó que su departamento use la IA para generar el informe de inteligencia, y culpó del error al “scraping de redes sociales”.

Sin embargo, la semana pasa el jefe de policía tuvo que cambiar su declaración: “El viernes por la tarde me di cuenta de que el resultado erróneo relativo al partido entre el West Ham y el Maccabi Tel Aviv se debió al uso de Microsoft Copilot”. Vaya por Dios.

Las compañías de IA se cubren las espaldas diciendo que su chatbot puede cometer errores, y hay que comprobar los resultados. Pero si usas la IA para ahorrarte búsquedas y luego tienes que hacer una búsqueda para comprobar esos resultados… ¿De qué sirve la IA?

Un informe policial creado con IA ha impedido acceder al estadio a los fans de un equipo de fútbol. No es el fin del mundo pero, ¿y si la IA genera un informe de detención de una persona inocente o, al contrario, oculta o confunde hechos para eliminar como sospechoso a alguien que es culpable?

Lo cual nos lleva a la primera cuestión: ¿Por qué se confían tareas críticas a una IA de primera generación que reconoce que falla, y no se responsabiliza de los errores?

 

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *