Si pensabas que ChatGPT era el techo de la inteligencia artificial, prepárate, porque Sam Altman acaba de avisar al mundo de que solo es el principio. Durante su intervención en el India AI Impact Summit, el CEO de OpenAI ha lanzado una muy osada fecha clave para el boom definitivo de la IA. Aunque no es la primera vez que lo hace.
Afirma que la humanidad está a «solo un par de años» de las primeras versiones de una verdadera superinteligencia artificial. Habla en concreto de una entidad capaz de investigar mejor que los científicos humanos o gestionar empresas mejor que cualquier ejecutivo (incluyéndose a él mismo).
La fecha marcada en el calendario es 2028. Según Altman, para finales de ese año, la mayor parte de la capacidad intelectual del planeta podría estar ya dentro de los centros de datos y no en los cerebros humanos.
Teniendo esto en cuenta, aunque, de nuevo, lanzar fechas al aire es la predilección de estos ejecutivos al mando de las mayores empresas de IA del mundo, para Altman esto no es algo que ignorar.
Para el CEO de OpenAI, ignorarlo sería una irresponsabilidad. Con herramientas como Sora o el nuevo Openclaw ya en juego, advierte que el poder que dará la superinteligencia será tan grande que concentrarlo en manos de una sola empresa o un solo país «podría llevarnos a la ruina».
Es por eso que Altman propone un camino para evitar el desastre: usar a la propia superinteligencia para vigilarnos a nosotros mismos. Dado que los humanos podríamos vernos colapsados por la velocidad de estos sistemas, se necesitará que la propia IA diseñe nuevos mecanismos de gobernanza que aseguren un reparto justo del poder. Una especie de juez artificial que garantice que la tecnología se mantenga alineada con los valores humanos.
Democracia o caos: son los dos únicos caminos si llega la superinteligencia en 2028
Altman busca hacer frente a lo que este denomina como totalitarismo efectivo. Hay ejecutivos en Silicon Valley que sugieren que la humanidad debería sacrificar sus libertades como personas si a cambio la IA nos da la cura contra el cáncer o soluciona el cambio climático.
El creador de ChatGPT se posiciona en contra y afirma que no hace falta aceptar ese trato. La IA, según su filosofía, debe ser una extensión del humano, no un sustituto que te dicte cómo vivir. El único camino «justo y seguro», como dice, es la democratización de la tecnología, evitando que se convierta en el arma de unos pocos.
Como ejemplo, ha alertado de la posibilidad de que modelos de IA ayuden a diseñar nuevos patógenos biológicos. Aquí es donde entra su segundo principio: la seguridad debe ser un esfuerzo de toda la sociedad. No basta con que OpenAI ponga barreras para evitar esto. En su opinión, los gobiernos y las instituciones deben aportar su granito de arena.
Altman defiende un despliegue «gradual e iterativo». La idea es soltar la tecnología poco a poco para que la sociedad tenga tiempo de entenderla y decidir qué límites poner. Los motivos son simples: el impacto económico va a ser total y permitirá un crecimiento nunca visto. Pero todo, fuera de control, podría volverse en su contra.
Pese a todo esto, mantiene un tono que denota tranquilidad y optimismo, recordando que la humanidad siempre ha encontrado cosas nuevas y mejores que hacer cada vez que una tecnología ha destruido empleos. Es por eso que afirma rotundamente que es necesario adaptarse.
Por eso, su estrategia se basa en estar preparados para lo inesperado, manteniendo siempre el foco en que la IA sea una herramienta que ayude y no destruya.


Deja una respuesta