¡Hola! Bienvenido a la primer parte de la historia de Nvidia. ¿Qué mejor momento que leer esto, a menos de una hora de la presentación de las RTX 3000? En breve tendrás el post offline en PDF, por Patreon ¡a partir de un dólar!
Nvidia se fundó en 1993, y dos años después lanzaba su chip Nvidia NV1 de 75MHz.
NV1: el primer chip gráfico completo
Este procesador es muy importante en la historia, porque fue el primer chip gráfico como tal. Tenía aceleración 2D y 3D a la vez (en el video: explicar porqué es importante esto), un chip de sonido de 32 canales de 16 bits a 48kHz (en el video: aclarar full specs y que el chip tiene 350 MIPS). Este chip dedicado podía procesar sonido mucho más rápido que el motor de sonido de las consolas de Nintendo de la época.
El primer intento de Nvidia vino bastante fuerte. Cómo nos enseña TuberViejuner, en el PCB no había sólo chips gráficos y VRAM, el chip de sonido era dedicado y podíamos acceder a él desde su chapita Input/Output.
Además, venía con una placa accesoria para conectar dos mandos de Sega Saturn. Ojo, el soporte era completo y podías conectar un joystick, un stick con toda su botonera y hasta la pistola. Luego bueno, si tenías un mando con conector MIDI también lo podías conectar a esta “placa de video-audio gamer”, pero te regalaban un joystick de Sega Saturn también, y esto no era casualidad.
El aporte de Sega
Nvidia se había aliado con Sega, quién lanzó bastantes ports para la NV1 y eso le dió una más razonable selección de juegos. Incluso la Diamond Edge venía con los CDs de instalación para el Virtua Fighter Remix y Panzer Dragoon.
El problema es que en algunos casos la API de Nvidia se veía peor que DirectDraw por software (CPU), y si querías usar DirectDraw en Nvidia el rendimiento se desplomaba.
Las APIs
Sin embargo, había juegos que no andaban bien con un Intel Pentium de la época, entonces tener una placa de video gamer era un antes y un después cuándo se trataba de jugar.
En esa época cada fabricante de procesadores programaba su propia API para procesar los gráficos de los juegos.
3DFX, ATI, Matrox, Nvidia y S3 tenían APIs distintas y era complicado crear juegos para cada una.
Videojuegos compatibles con NV1
Si quieres armarte una PC Retro Gamer y quizá te interesen los juegos que puede mover esta placa… «a un módico precio«.
- Battle Arena Toshinden
- Daytona USA (JAPAN)
- Descent: Destination Saturn
- NASCAR Racing
- Panzer Dragoon
- Virtua Fighter Remix
- Virtua Cop
Esta placa de video duró un año a pleno y poco más; Microsoft en el ‘96 liberó su API de gráficos Direct3D. Nvidia la hizo compatible con esta API pero el rendimiento era menor al esperado. La NV1 no podía calcular los polígonos de Direct3D, sino que la arquitectura calculaba cuadrados y tenía que traducir estas llamadas de DirectX en tiempo real, por lo que esa tarea extra resultaba en un rendimiento era terrible.
La adopción de Direct3D y OpenGL comenzó a hacerse más masiva y por suerte se hizo estándar, pero tranqui, todavía no llegamos exactamente a esa época. No fue hasta 1997 que Nvidia volvió a atacar pero con una arquitectura más estándar que pudiera converger con las tecnologías de las tarjetas gráficas de la competencia.
NV3: El amigo del estándar
El chip NV2 era una versión mejorada del primero, pero Nvidia tuvo problemas para que anduviera y además perdieron el financiamiento de Sega.
Nvidia dejó de perder el tiempo y desarrolló la Riva 128, lanzada en el ‘97 y apta para calcular polígonos como el cálculo 3D de bajo nivel. Con “bajo nivel” nos referimos a la figura primitiva que la GPU puede calcular para entregar la renderización del videojuego en tiempo real.
También incluía un motor dedicado al mapeo de texturas mixto sobre esos polígonos, dándole una gran rapidez al texturizar, con un pequeño sacrificio en la calidad.
La Riva 128 tenía 4MB de memoria SDR a 100MHz, corriendo sobre un bus de 128 bits y dando un formidable ancho de banda de 1.6GB/s.
La memoria SDR (Single Data Rate) puede transmitir un dato por ciclo, ya que tiene un carril único. El nuevo bus DDR (Double Data Rate) duplicaría el ancho de banda teórico a la misma frecuencia, ya que puede enviar y recibir un dato en un ciclo de reloj, de forma simultánea.
La Riva 128ZX tenía el doble de memoria, más frecuencia en el núcleo pero aún por debajo del rendimiento que daba 3dfx… bueno, cuestión de tiempo.
NV4: Comienza una competencia real
La Riva TNT duplicaba varios ítems de la Riva 128ZX. Tenía 16MB corriendo a 110MHz que le daba 1.76GB/s, y lanzaron versiones AGP 2X además del clásico conector PCI (no-Express). (notificar que tiene 2 TMUs y 2 ROPs).
También tenía soporte para colores de 32 bits que no tenía la más cara y potente Voodoo2 de 3dfx, que además necesitaba una placa para procesar gráficos 2D (a diferencia de la Nvidia).
Curiosidad: 3dfx inventó el SLI, y en esa época tenía bastante soporte.
La TNT iba a tener una frecuencia de 125MHz en el núcleo, pero la temperatura era incontrolable con los disipadores de esa época. Así que fue súper exitosa a pesar de correr a 90MHz, porque era una placa que te ahorraba incluir una gráfica 2D a la PC y además no rendía lejos de la Voodoo2.
Hubo usuarios que con un pad térmico, colocaban disipadores activos para llevar la tarjeta gráfica a frecuencias de entre 115MHz y 125MHz.
Sin embargo, a esas velocidades, la lenta memoria SDR de 100MHz comenzaría a ser un problema.
Si bien el soporte de drivers venía bien el año anterior, Nvidia supo ubicar drivers que exprimieran más a los chips gráficos, y la distancia con la Voodoo2 se acortó más.
3dfx lo tenía complicado en la gama media-alta, pero en la gama alta nadie competía con 3dfx.
NV5: Nvidia ya se ubica en high-end
Era fin de siglo y Nvidia logra mejorar entre 10 y 17% por clock, frente a la TNT del año anterior. Tuberviejuner hizo un review y comparativa muy interesante, contra todas las placas de video de la época.
La Riva TNT 2 Ultra viene a 150MHz y 32MB SDR (de 183MHz) con un ancho de banda de 3GB/s. En este año la diferencia de rendimiento es realmente notable, pero Matrox y 3dfx acompañan la gama media/alta y alta.
Nvidia le saca al menos 55% de diferencia a la Voodoo3 3000, y en ciertos casos el rendimiento era de casi el doble a costa de un precio 100 dólares mayor. La Voodoo3 3500 rendía un poco mejor que la TNT2 Ultra, y por 50 dólares menos que la Nvidia al momento de lanzamiento.
Es importante notar que a misma frecuencia de reloj, la TNT2 rendía bastante más que la TNT de 350nm. Fue una buena mejora y sumó esa frecuencia extra que trajo la TNT2 a 250nm.
NV10: GeForce 256
A fin de 1999, la productiva Nvidia logra lanzar la GeForce 256, que tiene nuevas tecnologías para acelerar las transformaciones e iluminación en objetos (T&L), una tarea que antes calculaba el CPU. Este hardware especial rendía 5 veces mejor que un P3 de 550MHz, y dejaba el CPU disponible para otras tareas más específicas.
La frecuencia no era tan alta como la TNT2 (apenas 120MHz), pero tenía el doble de pixel pipelines, osea que rendía 100% más que la TNT2 por clock. Seguía teniendo SDRAM hasta 166MHz e incluía decodificador de video MPEG-2.
Y la posta es que le daba bastantes problemas a la Voodoo4 4500, que costaba lo mismo. Review de la GeForce 256.
Con un consumo de alrededor de 20W, algunos motherboards no podían suministrar la energía por el zócalo AGP x2/x4 de la época.
Un paréntesis: Unreal Tournament
Si bien Quake en el ‘96 dio soporte y buenos resultados con OpenGL, Unreal Tournament con un presupuesto de 2 millones de dólares a mano de Epic Games, lanzó su primer demo en Septiembre del ‘99 con soporte exclusivo para 3dfx mediante su API Glide. Dos semanas después la demo conseguía soporte para OpenGL y Direct3D.
No conseguí la fecha de cuándo se implementó S3 Metal, pero esta API en Unreal permitió jugar con texturas y buen rendimiento a usuarios de la Diamond Viper II Z200, por ejemplo. Esta placa fue la unión de S3 y Diamond, teniendo el chip Savage 2000 de 12 millones de transistores. La GeForce 256 tenía el doble de transistores y aunque rendía más que la S3, ésta última era muy barata (mostrar en el video los precios de la GF 256 vs Diamond Viper II Z200. Ojo que aún no conseguí los precios).
NV11, NV15 y NV16: GeForce 2
La Geforce 2 MX fue una placa muy exitosa. Tenía 2 TMUs y 2 ROPs con un clock de 175MHz; que le daba un consumo de 4W versus la Geforce 2 GTS tope de gama con 8W, y la vieja GeForce 256 con 16W. Estos dos últimos modelos tenían el doble de TMUs y ROPs, sin embargo, la versión MX rendía un poco más que la 256; con un precio apenas superior a los $100.
La arquitectura de la GeForce 2 optimizaba la texturización. Mientras que placas anteriores tenían que enviar la información de la geometría al texturizador por cada pasada (cuánto más filtro anisotrópico, más pasadas), en el caso de la GeForce 2 se reducía o anulaba este re-envío innecesario de geometría cada N pasadas. El chip podía hacer dos texturizaciones en un ciclo de reloj por cada TMU (Texture Mapping Unit), lo cuál le daba una ventaja enorme frente a la GeForce 256 en aquellos juegos que usaran más de una textura por nivel (es decir, todos).
Incluso la GeForce 2 MX 400 soportaba configuraciones multi-monitor, tenía un motor dedicado a shaders e iluminación y llevó a Nvidia muy lejos ese año.
Por otro lado, la GeForce 2 Ultra fue una placa monstruosa, a un precio monstruoso. Por $499 dólares tenías lo tope de gama, y le dio batalla a otras placas muy respetadas, como la ATI Radeon 7500, que salió un año más tarde pero por $200 dólares.
Era momento de que Nvidia intentara otro movimiento para “ganar la guerra” en el 2001.
NV20: GeForce 3
Este chip duró muy poco en el mercado, debido a su precio tan alto ($499 en su lanzamiento). A 640×480 rendía similar a la GeForce 2 Ultra, porque su tecnología LMA para comprimir el buffer no era efectivo en esos casos. La GPU tuvo interesados solamente entre gamers de gama alta y entusiastas, porque era un chip muy avanzado para jugar a altas resoluciones y con antialiasing (Quincunx FSAA), también acelerado por un set de instrucciones propio de la GeForce 3.
Conclusión
Nvidia siempre intentó innovar en el sector en el que estuviera. Ya sea iniciando con NV1 y procesando los gráficos de una forma más bonita (pero poco estandarizada), hasta re-pensar los procesadores para hacer más con menos.
En la parte dos que se vendrá en breve, veremos una de las épocas más lindas de Nvidia, sino la más linda. Ya pasamos seis años (1995~2001) y los próximos seis son la bomba 😀
Ojalá les haya gustado la primer parte, ¡estén atentos a la segunda! Mira el vivo de Nvidia, hoy, con la presentación de las RTX 3000 Ampere.