La inteligencia artificial está en todas partes y, a pesar de las recomendaciones de algunos expertos, cada día se emplea más para todo. Trabajo, estudios, medicina, arte… ninguna tecnología ha logrado un éxito tan grande en tan poco tiempo, y casi todo el mundo coincide en que se trata de solo el principio. Quienes no son catastrofistas, auguran una sociedad automatizada.
No obstante, tampoco faltan aquellos que prevén que esta tecnología restará más de lo que sume, aunque de momento pueda parecer lo contrario. Por si fuera poco, ahora un nuevo informe científico apunta en esta dirección y advierte de manera seria y tajante: «Estamos confiando demasiado en la IA».
Científicos temerosos del futuro de la IA
Cada día surgen nuevas advertencias acerca de la inteligencia artificial. Gente más o menos conocedora del tema con todo tipo de teorías que parecen sacadas de una película de ciencia ficción al más puro estilo Terminator. Hablan de que la IA tendrá conciencia de ella misma, se volverá contra los humanos, dejarán a la gente sin empleo y ese tipo de ocurrencias tan pesimistas.
En esta ocasión, se trata de algo muy distinto. El aviso llega de un grupo de científicos, y de hecho ha sido publicado en un medio centrado exclusivamente en temas de investigación, como es Science Daily. La tarea realizada por la University of Surrey es clara: cada vez que la IA se usa cada vez más en ámbitos críticos como banca, atención médica o detección de delitos, los modelos actuales se comportan a menudo como cajas negras.
¿Qué quiere decir esto exactamente? Pues que los modelos de IA actúan y proporcionan resultados, pero sin que los especialistas sean capaces de entender su comportamiento. «No conocemos del todo a la IA», resume el estudio. Y lo cierto es que no son los únicos que han llegado a esa conclusión. Gente como el mismísimo Sam Altman, de OpenAI, ha tenido que reconocer lo mismo.
La opinión de los científicos que firman el trabajo insiste: no sirve con que la inteligencia artificial sea «inteligente», también hace falta algo más. En concreto, que sea explicable, que se sepa por qué hace lo que hace. Si no es así, los temores de los expertos pasan porque los usuarios terminen por ser vulnerables, como niños incapaces de comprender qué pasa a su alrededor.
Tomar medidas es tan importante como parece
Desde luego no es la primera vez en que científicos de algún tipo insisten en que la IA debe regularse. De lo contrario, las consecuencias pueden volverse impredecibles incluso a corto plazo. Los responsables de la investigación proponen un marco llamado SAGE (Settings, Audience, Goals and Ethics) que permita que los sistemas de inteligencia artificial sean comprensibles.
Al final, dicen, cualquier tecnología debe estar al servicio de las personas, y en todo lo que respecta al auge de la IA, no parece estar del todo claro que sea así.


Deja una respuesta