¿Estamos cerca de la AGI? Andrew Ng, experto mundial en IA, lo tiene claro: «El término se ha convertido más en marketing que en ciencia»

​​

Andrew Ng, referente global en IA y fundador de DeepLearning.AI, quiere cortar de raíz con toda la locura generada alrededor de la conocida como Inteligencia Artificial General.

Son muchos los expertos y grandes voces como la de Sergei Brin o incluso Sam Altman las que se lanzan a la piscina para dar fechas concretas.

El CEO de OpenAI, por ejemplo, asegura que la inteligencia artificial general llegará en marzo de 2028. La tecnología de OpenAI superará las capacidades del cerebro humano con la posibilidad de convertirse en un chatbot totalmente autónomo.

Sergei Brin, cofundador de Google, afirma que la AGI llegará en 2030. Según él, no solo se verá una, sino varias AGI compitiendo en el mundo. Demis Hassabis, algo más precavido con todo esto, apuesta por «justo después de 2030», pero ambos coinciden en que la humanidad está a uno o dos avances de cruzar esa temida frontera.

Medir la AGI con tareas reales

Sin embargo, Ng apunta que la gente suele pensar que lograr AGI significa que los ordenadores serán tan inteligentes como los humanos y capaces de hacer prácticamente cualquier trabajo intelectual. Pero él propone un enfoque distinto para medirlo: «Me gustaría proponer un nuevo test, que llamaré Turing-AGI Test, para ver si realmente hemos alcanzado la AGI».

La idea es la siguiente: un sistema de IA o un humano altamente capacitado reciben acceso a un ordenador con internet y herramientas como navegador web y Zoom. Luego se les asigna una tarea, por ejemplo, atención al cliente, durante varios días, con retroalimentación constante. El criterio para aprobar sería que la máquina realice la tarea tan bien como un humano calificado.

El gran problema que hay para él es que «AGI se ha convertido más en un término de marketing que en ciencia». Muchas empresas prometen avances próximos en AGI para generar interés o inversión, pero ajustan la definición a su conveniencia. Al final es engañar.

Esto es algo que secundan otras grandes compañías como Apple. Un grupo de investigadores hace un tiempo quiso realmente comprobar en qué punto está la humanidad con respecto a los avances y si realmente esto es un sueño cercano de conseguir.

Lo cierto es que tiraron por la ventana todas esas opiniones que menciona 2030 o 2035. Según ellos, los modelos de inteligencia artificial más avanzados que existen hoy —como los desarrollados por OpenAI, Anthropic o DeepSeek— todavía no pueden razonar con la profundidad y flexibilidad que se esperaría de una inteligencia general.

El Turing-AGI Test que propone Andre Ng podría ser la solución

Volviendo a la idea propuesta por Ng, deja claro que, si se realiza una competición de este tipo y todos los sistemas de IA no alcanzan el nivel humano, eso sería positivo: «Al reducir la exageración sobre AGI y disminuir la posibilidad de una burbuja, se creará un camino más fiable para continuar invirtiendo en IA».

«Si una empresa pasa esta prueba, habrán creado algo más que un lanzamiento de marketing: será algo increíblemente valioso», añade .

Por otro lado, el test permite comparar directamente IA y humanos en situaciones reales, algo que los benchmarks no consiguen captar.

Para Ng, la AGI todavía está lejos de la realidad. «Las empresas suelen justificar sus afirmaciones estableciendo metas mucho más bajas de lo que implicaría la verdadera AGI», sentencia.

 

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *