Desde que ChatGPT irrumpió en Internet y cambió el concepto de la inteligencia artificial (y algunas otras cosas, de paso), Sam Altman ha sido el más optimista de los hombres.
Siempre se ha referido a las grandes proezas que esta tecnología traería consigo. Al fin y al cabo, era parte interesada en el asunto. Poco a poco, en cambio, ha ido cambiando su discurso.
Desde hace tiempo, quizá por presión mediática, quién sabe, ha tenido que ir reconociendo algunas inquietudes que sobrevuelan la IA. E incluso anunció un flamante puesto dentro de OpenAI para analizar y buscar respuestas a las mismas. Ahora, en cambio, parece haberse centrado en otro asunto que le preocupa principalmente: los agentes de la IA.
¿Qué son los agentes de la IA?
Tanto si estás interesado y te fascina el mundo de la IA, como si te trae bastante sin cuidado, casi seguro que has escuchado hablar de los ya famosos agentes de la IA. Entre otras cosas, porque muchos expertos de primer nivel tampoco han dejado de referirse a ellos para esto y para lo otro. Sin embargo, no todo el mundo parece tener claro qué son y qué tienen que ver con Sam Altman.
Básicamente, los agentes de IA son sistemas avanzados basados en modelos como ChatGPT pero que no se limitan a responder texto a partir de un prompt. Pueden interactuar con otros programas, analizar sistemas y realizar acciones que antes requerían intervención humana. Dicho de otra forma: se trata de variantes de la IA más «poderosas», para entendernos.
A priori, estas capacidades hacen que los agentes de inteligencia artificial puedan resultar sumamente útiles para casi todo: desde facilitar el trabajo hasta ayudar en la ciberseguridad de empresas y particulares. Pero como todo lo que está relacionado con la IA, en realidad pueden tener dos caras. Y la menos negativa es la que preocupa al mandamás de OpenAI.
Lo que dice Sam Altman, tal y como exponen en Windows Central, es que estos agentes podrían descubrir fallos en sistemas críticos antes de que los desarrolladores o equipos de seguridad los detecten. O lo que es lo mismo, que serían capaces de ir un paso por delate de los humanos, con todo lo que eso podría conllevar en materia de seguridad digital.
Las dos caras de la IA
Para Altman, la misma capacidad de automatización y análisis que ayuda a acelerar tareas, podría ser explotada por delincuentes para acceder a datos o brechas de seguridad. Es decir, facilitar ataques automatizados que de alguna forma pasaran inadvertidos la mayoría de las veces.
Llama la atención que el máximo responsable de ChatGPT denuncie precisamente esta cuestión, evidenciando otra vez la cara menos amable de la IA ¿Lo hace para curarse en salud por lo que pueda pasar? ¿Para ser más creíble a la hora de analizar la IA? Imposible saberlo. Pero quizá todo responda a una estrategia, ya que este tipo de empresario no acostumbra a dar puntada sin hilo.


Deja una respuesta