Papá Noel traerá una novedad este año a muchos hogares: juguetes con inteligencia artificial. Al fin y al cabo, muchas compañías como la propia Mattel han descubierto que esta tecnología de moda ayuda a aumentar las ventas. Pero lo que en principio parece una anécdota sin importancia, puede suponer un peligro para la privacidad.
Así al menos parece ponerlo de manifiesto un estudio que ha decidido poner la lupa en algunos de los productos que de una forma u otra emplean la IA para ser más atractivos de cara a los consumidores. Desde osos de peluche parlanchines que responden a los niños, hasta cohetes o robots que son capaces de contar historias e innovaciones por el estilo.
Los riesgos de los juguetes con IA
Trouble in Toyland es un estudio que analiza posibles peligros o inconveniencias en los juguetes de forma anual. La importancia de la inteligencia artificial se demuestra en que, por primera vez, el informe se ha centrado especialmente en esta tecnología. Un riesgo que da la impresión de haber sustituido o a otros clásicos, como componentes tóxicos y esas cosas.
El primer aspecto en el que se centra el estudio es en lo invisible de la amenaza. A diferencia de otros problemas tradicionales de muñecos o juguetes en general, no es fácil para los padres detectar las contingencias de la IA. No se ven a simple vista, explican los expertos. Pero eso no quiere decir que no estén ahí y convenga tenerlas en cuenta.
Por ejemplo, los especialistas hablan de conversaciones inapropiadas. Hay que partir de la base de que no existe un control parental general para la IA, como sí tienen otros dispositivos tecnológicos. Y los presumibles filtros que suelen contener los chatbots son fáciles de vulnerar. De ahí que sea difícil adivinar cuándo el muñeco va a responder con algo indebido.
Otro riesgo está en la propia privacidad de los niños. Muchos juguetes con IA cuentan con cámaras, micrófonos o tecnología de reconocimiento facial. Es decir, que si lo desean pueden grabar la voz o la imagen de cualquier niño. Dado que también tienen conexión a Internet, nadie puede asegurar que esos datos no se empleen de alguna manera, llegado el caso.
El peligro de la manipulación emocional
A priori, que un juguete con IA interactúe con un niño no tendría por qué resultar algo negativo. Sin embargo, la misma investigación no tiene del todo claro la influencia emocional de estos juguetes. Como ejemplo, ponen cuando un niño dice que debe irse, y el muñeco le insiste en que no lo hiciese.
Teniendo en cuenta que cada vez más expertos denuncian el peligro de emplear la IA como terapeuta, incluso en adultos, es lógico tener reservas iguales o mayores cuando se trata de los más pequeños de la casa.


Deja una respuesta