Cerebras es una empresa que ha creado interesantes productos para inferencia de inteligencia artificial, que es otra forma de decir «ejecución». Las aceleradoras de NVIDIA, como siempre repito y también dijo Pat Gelsinger antes de que le largaran, son muy caras para inferencia, pero ideales para entrenamiento. Pero desde el año pasado, el sector está mutando a centrarse más en la ejecución, y por eso OpenAI ha anunciado que su nuevo agente GPT-5.3-Codex-Spark funciona sobre equipos de Cerebras.

Esos productos son procesadores a nivel de oblea, por lo que tienen un gran tamaño. Su arquitectura es muy interesante, ya que son matrices de núcleos redundantes que permite eliminar aquellos que no se hayan transferido bien en el proceso de producción de la oblea y posteriormente configurable. Eso hace que sean más de 900 000 núcleos por oblea, y que tenga, para inferencia, una potencia enormemente superior a la de las aceleradoras de NVIDIA que se sacarían de una oblea. Y un procesador-oblea de Cerebras es mucho más barata. En algún momento, NVIDIA tendrá que sacar productos específicos de inferencia.

Sea como sea, es la primera vez que OpenAI despliega un LLM en hardware que no es de NVIDIA, lo cual es terriblemente significativo. Este nuevo LLM es una versión más rápida y de bajo consumo, pero se está desplegando por ahora a través de ChatGPT Pro en forma de beta.

Vía: Tom's Hardware.