Sam Altman crea un puesto específico para vigilar los peligros de ChatGPT: «Será un trabajo estresante»

​​

Visto en líneas generales, parece que a Sam Altman le va bastante bien con OpenAI. Al fin y al cabo, ChatGPT continúa siendo el chatbot de inteligencia artificial más popular a día de hoy. No obstante, también hay algunos motivos para la preocupación. El primero, la competencia, claro, que incluso en algunas ocasiones ha obligado a encender las alarmas dentro de la compañía.

Más preocupante, sin embargo, parece el segundo: la falta de confianza de los usuarios. Muchos de ellos, incluyendo a los más jóvenes, no ven a la inteligencia artificial como una herramienta fabulosa que nos hará a todos la vida más fácil, sino como una amenaza. Temen perder sus puestos de trabajo (algo que ya está sucediendo en muchos casos) y cosas incluso peores.

Sam Altman toma medidas dentro de ChatGPT

Entre los principales recelos de la gente con respecto a la IA, está el hecho de que esta tome conciencia de sí misma, igual que en las películas y novelas de ciencia ficción. Pero también hay miedo a que esta tecnología se vuelva un riesgo para la seguridad o que incluso termine perjudicando a la sociedad de diferentes maneras. Todo eso llega a oídos de Sam Altman.

¿Y qué ha decidido hacer el máximo responsable de ChatGPT al respecto? Puesto que sus continuas declaraciones intentando calmar a la gente no parecen surtir mucho efecto, ha decidido crear un puesto específico dentro de OpenAI. Según The Guardian, una oferta de empleo busca un cargo de «Head of Preparedness», algo poco habitual dentro de cualquier empresa.

Antes que nada, por el sueldo. Quien consiga la vacante se agenciará nada más y nada menos que 550.000 dólares al año. ¿Y por hacer qué? Pues por enfrentarse de forma inmediata a los desafíos que supone la evolución de los modelos de inteligencia artificial más capaces. El propio Sam Altman ha declarado al respecto que será «un trabajo estresante».

Teniendo en cuenta lo que dice el artículo, quieren a alguien que pueda evaluar y mitigar amenazas emergentes que van desde posibles impactos en la salud mental de los usuarios, hasta problemas de ciberseguridad, uso malicioso o incluso implicaciones biológicas. Es decir, todo aquello de lo que se suelen quejar principalmente la mayoría de expertos en IA.

¿Una preocupación real o una acción de cara a la galería?

Mucha gente piensa que el anuncio de Sam Altman para vigilar los peligros de ChatGPT responde más a una medida mediática que otra cosa. Por tranquiliza al personal. De ahí que la oferta se haya vuelto pública y que el propio empresario haya opinado acerca de ella.

Aún así, tampoco faltan quienes consideran que los riesgos son reales, y que OpenAI se los toma en serio. Ya sea por una razón o por otra, está claro que los recelos hacia la IA siguen en aumento. Que estos sean o no fundados, es complicado saberlo.

 

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *