TARJETA GRÁFICA

¿QUÉ ES UNA TARJETA GRÁFICA?

Una tarjeta gráfica, que también se conoce como adaptador gráfico, tarjeta de video o acelerador de gráficos, es un componente del ordenador, encargado de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor.


COMPONENTES

La GPU (acrónimo de «graphics processing unit», que significa «unidad de procesamiento gráfico») es un procesador dedicado al procesamiento de gráficos; su razón de ser es aligerar la carga de trabajo del procesador central y, por ello, está optimizada para el cálculo en coma flotante, predominante en las funciones 3D.


La memoria gráfica de acceso aleatorio, GRAM, son chips de memoria que almacenan y transportan información entre sí, no son determinantes en el rendimiento máximo de la tarjeta gráfica, pero unas especificaciones reducidas pueden limitar la potencia de la GPU.

El Convertidor Digital-a-Analógico de Memoria de Acceso Aleatorio, RAMDAC, es un conversor de señal digital a señal analógica de memoria RAM. Se encarga de transformar las señales digitales producidas en el ordenador en una señal analógica que sea interpretable por el monitor.

SALIDAS

Los sistemas de conexión más habituales entre la tarjeta gráfica y el monitor son:


VGA: El Video Graphics Array (VGA) o Super Video Graphics Array (SVGA o Súper VGA) fue el estándar analógico de los años 1990; diseñado para dispositivos con tubo de rayos catódicos (CRT); sufre de ruido eléctrico y distorsión por la conversión de digital a analógico y el error de muestreo al evaluar los píxeles a enviar al monitor.

DVI: Digital Visual Interface (DVI) o “interfaz visual digital” es sustituta de la anterior, pero digital; fue diseñada para obtener la máxima calidad de visualización en las pantallas digitales o proyectores. Evita la distorsión y el ruido. Cada vez más adoptado, aunque compite con el HDMI, pues el DVI no es capaz de transmitir audio.

HDMI: La “interfaz multimedia de alta definición” o High-Definition Multimedia Interface (HDMI) es una tecnología propietaria transmisora de audio y vídeo digital de alta definición cifrado sin compresión, en un mismo cable. Se conecta mediante patillas de contacto. Fue ideado inicialmente para televisores, y no para monitores, por eso no apaga la pantalla cuando deja de recibir señal y debe apagarse manualmente en caso de monitores.

TIPOS DE TARJETAS GRÁFICAS

TARJETA MDA

"Monochrome Display Adapter" o Adaptador monocromo, fue lanzada por IBM como una memoria de 4 KB de forma exclusiva para monitores TTL (que representaban los clásicos caracteres en negro o verde). No disponía de gráficos y su única resolución era la presentada en modo texto (80x25) en caracteres de 14x9 puntos, sin ninguna posibilidad de configuración.

Básicamente esta tarjeta usa el controlador de vídeo para leer de la ROM la matriz de puntos que se desea visualizar y se envía al monitor como información serie. No debe sorprender la falta de procesamiento gráfico, ya que, en estos primeros PCs no existían aplicaciones que realmente pudiesen aprovechar un buen sistema de vídeo. Prácticamente todo se limitaba a información en modo texto.

TARJETA CGA

"Color Graphics Array" o "Color graphics adapter" apareció en el año 1981 también de la mano de IBM y fue muy extendida. Permitía matrices de caracteres de 8x8 puntos en pantallas de 25 filas y 80 columnas, aunque solo usaba 7x7 puntos para representar los caracteres.

En modo gráfico admitía resoluciones de hasta 640x200. La memoria era de 16 KB y solo era compatible con monitores RGB y Compuestos. A pesar de ser superior a la MDA, muchos usuarios preferían esta última dado que la distancia entre puntos de la rejilla de potencial en los monitores CGA era mayor. El tratamiento del color, por supuesto de modo digital, se realizaba con tres bits y uno más para intensidades. Así era posible lograr 8 colores con dos intensidades cada uno, es decir, un total de 16 tonalidades diferentes.

Esta tarjeta tenía un fallo bastante habitual y era el conocido como "snow". Este problema era de carácter aleatorio y consistía en la aparición de "nieve" en la pantalla (puntos brillantes e intermitentes que distorsionaban la imagen).

TARJETA HGC

"Hercules Graphics Card" o más popularmente conocida como Hércules, aparece en el año 1982, con gran éxito convirtiéndose en un estándar de vídeo a pesar de no disponer del soporte de las rutinas de la BIOS por parte de IBM. Su resolución era de 720x348 puntos en monocromo con 64 KB de memoria. Al no disponer de color, la única misión de la memoria es la de referenciar cada uno de los puntos de la pantalla usando 30,58 KB para el modo gráfico (1 bit x 720 x 348)y el resto para el modo texto y otras funciones. Las lecturas se realizaban a una frecuencia de 50 HZ, gestionadas por el controlador de vídeo 6845.