nVidia ha publicado en su blog técnico una técnica en la que la empresa utiliza un modelo de inteligencia artificial llamado PrefixRL, el cual mediante el aprendizaje de refuerzo profundo, puede superar las herramientas tradicionales de EDA (Automatización de diseño electrónico) de los principales proveedores, como Cadence, Synopsys o Siemens/Mentor.
Los proveedores de EDA generalmente implementan su solución interna de inteligencia artificial para la colocación y el enrutamiento de silicio (PnR); sin embargo, la solución PrefixRL de nVidia parece estar haciendo maravillas en el flujo de trabajo de la empresa.
El objetivo de PrefixRL es crear un modelo de aprendizaje de refuerzo profundo que tenga como objetivo mantener la latencia igual que el intento EDA PnR mientras se logra un área de troquel más pequeña. Según el blog técnico, la última arquitectura de GPU Hopper H100 utiliza 13000 instancias de circuitos aritméticos que diseñó el modelo PrefixRL AI.
nVidia produjo un modelo que produce un circuito un 25% más pequeño que la salida EDA comparable. Todo esto mientras se logra una latencia similar o mejor. A continuación, puede comparar un diseño de sumador de 64 bits realizado por PrefixRL y el mismo diseño realizado por una herramienta EDA líder en la industria.
Los circuitos sumadores 64b diseñados por PrefixRL AI (izquierda) son hasta un 25 % más pequeños que los diseñados por una herramienta EDA de última generación (derecha) y son igual de rápidos y funcionalmente equivalentes
PrefixRL es una tarea computacionalmente exigente: la simulación física requirió 256 CPU`s para cada GPU y el entrenamiento del caso tomó más de 32.000 horas de GPU.
“Desarrollamos Raptor, una plataforma interna de aprendizaje por refuerzo distribuido que aprovecha especialmente el hardware de nVidia para este tipo de aprendizaje por refuerzo industrial.”
Usamos Raptor para entrenamiento desacoplado y en paralelo y cálculo de recompensa para superar la latencia de síntesis de circuito
Más info:
Designing Arithmetic Circuits with Deep Reinforcement Learning