Durante muchos años, la compañía de Jensen Huang ha sido el gran y único motor de la inteligencia artificial. Sus tarjetas gráficas han entrenado modelos enormes como ChatGPT, y sin ellas, la IA no habría experimentado un boom tal y como lo ha hecho.
Pero ahora, OpenAI parece que está buscando alternativas para una parte concreta del trabajo: hacer que la IA responda rápido.
La compañía de Sam Altman se ha dado cuenta de que algunas GPU de Nvidia no son tan rápidas como necesitan cuando la IA tiene que dar respuestas en tiempo real. En herramientas como Codex, que genera código, cada segundo cuenta. Por eso están probando otras opciones para no depender de un solo proveedor.
Por supuesto, no se trata de dejar a Nvidia de lado, ya que eso sería un auténtico suicidio empresarial. La compañía sigue siendo vital para entrenar modelos grandes. Pero cuando se habla de inferencia, es decir, usar un modelo ya entrenado para responder preguntas, la cosa cambia. Ahí es donde OpenAI quiere más velocidad.
OpenAI busca chips a medida para ChatGPT: hola a los SRAM
El problema en sí no es técnico, pero, según se ha podido saber, las GPU de Nvidia y AMD dependen de memoria externa. Eso significa que el chip tiene que ir a buscar datos fuera de él mismo, y eso siempre tarda un tiempo, aunque sea poco. Para un chatbot que responde a millones de personas, esos segundos se notan.
Por eso OpenAI ha mirado a chips con memoria integrada, llamada SRAM. Al tener la memoria dentro del mismo chip, todo va más rápido. Así, ChatGPT puede responder más rápido sin esperar a que los datos lleguen desde fuera.
Empresas como Cerebras y Groq fabrican este tipo de chips. OpenAI ya cerró un acuerdo con Cerebras y estaba negociando con Groq. Eso sí, Nvidia, por su parte, ya ha firmado acuerdos millonarios con Groq y ha fichado a ingenieros para poder cubri también ese hueco.
Las aduanas chinas prohíben la entrada de las Nvidia H200 al país
Mientras tanto, parece que los problemas se le empiezan a acumular a la compañía fundada por Jensen Huang. Sin ir más lejos, y tras recibir un permiso para vender sus chips H200 de inteligencia artificial en China, el gigante asiático ha decidido ahora bloquear su entrada a través de aduanas.
Durante semanas, la situación parecía avanzar hacia buen puerto. Estados Unidos autorizaba ventas limitadas y el mercado chino respondía con pedidos masivos. Sin embargo, Nvidia pidió que todos los pedidos se pagaran por adelantado, anticipando posibles cambios en las reglas y buscando protegerse ante cualquier bloqueo futuro.
Como puedes imaginar, esto no ha sentado nada bien en Pekín. Casi de inmediato, el gobierno chino pidió a sus empresas que frenaran las compras. Y ahora ha ido un paso más allá: las aduanas chinas han comunicado que la entrada de las Nvidia H200 no está permitida.
Con todo esto ahora sobre la mesa, muchos expertos creen que este bloqueo no va solo de negocios. Las H200 se han convertido en una especie de ficha de intercambio, en el oro de la actualidad, y la gran pieza de negociación entre dos potencias enfrentadas.
También comentan que China podría estar usando esta situación para forzar concesiones. Por ejemplo, conseguir permisos especiales para universidades o centros de investigación.
Mientras tanto, las empresas chinas que ya habían hecho pedidos se quedan en el aire. Algunas habían reservado miles de unidades, confiando en que el acuerdo seguiría adelante. Por el momento tienen el dinero bloqueado y los planes de desarrollo en pausa.
Ahora es turno de Nvidia. Tendrá que decidir si mantiene su política de cobro por adelantado o si busca otra forma de no perder clientes en China.


Deja una respuesta