Los gigantes de internet han estado desarrollando en los últimos años diversos chips de inteligencia artificial para cubrir sus necesidades específicas. Compañías como Google, Facebook, Amazon, Alibaba o Baidu, entre muchas otras se han ahorrado cientos de millones con esa táctica a la que aparentemente se va a unir Microsoft con un chip llamado Athena. El propósito es aumentar la velocidad de computación de ChatGPT en su integración con Bing, ya que este tipo de inteligencias artificiales necesitan una enorme capacidad de cómputo para la más simple de las preguntas.

El chip se centraría en las inferencias de aprendizaje automático, que generalmente son operaciones de matrices de números enteros o convoluciones, por lo que los procesadores generalistas son muy poco prácticos. Se trataría de un chip producido a 5 nm por TSMC, aunque la compañía aparentemente lo irá evolucionando para usar mejores litografía de la taiwanesa.

Microsoft estaría probando ya estos chips, y los introduciría formalmente el próximo año. Podrían terminar formando parte de los servicios en la nube de Azure, o ser simplemente exclusivos de ChatGPT. Lo que de momento no parecen ser es una competencia real de NVIDIA, la que más tiene evolucionadas sus soluciones para inteligencia artificial. Aunque el desarrollo de Athena permitiría a Microsoft reducir en un tercio el coste respecto a la oferta de NVIDIA.

Vía: WCCFTech.