Cerebras presentó en Hot Chips 2019 su pase de entrada a las empresas que trabajan con inteligencia artificial y todas sus ramas, cómo Deep Learning y/o Machine Learning; mediante software cómo TensorFlow, PyTorch y otros 😀

Este gran chip que ven arriba se lo denomina «Wafer Scale Engine» (WSE) y tiene 1,2 trillones de transistores, 400.000 núcleos de proceso y 18GB de memoria total (ja, la caché del Ryzen 9 está llorando en un rincón). Todo en este mismo SoC. El tamaño de esta pieza de ingeniería es más grande que el iPad 12,9″.
¿La competencia principal? Podría ser IBM
Debido a su exagerado tamaño, creemos que no será un competidor directo de IBM Power 9, presentado también el mismo día en Hot Chips. Hasta dónde sabemos, los procesadores de IBM no cuentan con tantos núcleos pero siempre se puede recurrir a más servidores. Habrá que ver cómo ambas empresas se disputan el mercado que, recordemos, Intel también está muy metida y Nvidia se acopló con IBM.

El concepto de IBM se basa en altísimas tasas de transferencia entre el CPUs (hasta 44 núcleos por c/u) / SRAM / DRAM (DDR4 y HBM2) / GPUs, aunque veremos que con sus 400GB/s directos a las GPUs y 340GB/s a la SRAM, poco podrá hacer contra Cerebras. El motherboard de IBM tiene unas conexiones duales de 10Gbits para conectarse entre los distintos nodos. No hemos encontrado la cantidad de núcleos de este POWER 9, pero recordemos que a IBM le suelen gustar las arquitecturas raras (no x86 ni x86_64), cada vez más necesarias y específicas para las super computadoras.
¿Qué tiene Cerebras para contrarrestar esto?
Hasta dónde sabemos, Cerebras no cuenta con un motherboard oficial aún. En cuánto se anuncie, el cliente podrá disponer de un ancho de banda enorme: 9 petabytes por segundo y latencias menores a 4ns (Ryzen ronda los 75ns y una RAM de 3200MHz brinda menos de 50GB/s). Cerebras tiene la ventaja de tener la memoria dentro de su mismo SoC 😀
Además, a la cabeza de este desarrollo está Andrew Feldman, que había fundado SeaMicro en el 2007 y AMD compró la empresa en el 2015, una buena inversión considerando los AMD Epyc que llegaron un poco después.
Los grandes chips con trillones de transistores responderán y corregirán las respuestas más rápido, algo esencial en el deep learning.
¡Wow! ¿Qué te parece?