CGA:


La Color Graphics Adapter (Adaptador de Gráficos en Color) o CGA, comercializada en 1981, fue la primera tarjeta gráfica en color de IBM (originalmente llamada "Color/Graphics Monitor Adapter"), y el primer estándar gráfico en color para el IBM PC. Cuando IBM introdujo en el mercado su PC en 1981, el estándar CGA, a pesar de haber aparecido al mismo tiempo, era poco usado al principio, ya que la mayoría de los compradores adquirían un PC para uso profesional. Para juegos había otros ordenadores mucho más populares, y en aquella época no se consideraba que los gráficos en color tuvieran otro uso que el puramente lúdico. En consecuencia, muchos de los primeros compradores del PC optaron por la MDA (Monochrome Display Adapter), que sólo permitía la visualización de texto. En 1982 se comercializó la Hércules Graphics Card, que permitía mostrar gráficos en monocromo a una resolución mucho mayor que la CGA, además de ser más compatible con la MDA, lo que perjudicó todavía más a las ventas de la CGA. Todo cambió en 1984 cuando IBM introdujo el PC AT y la Enhanced Graphics Adapter (EGA). Con ello, el precio de la antigua tarjeta CGA bajó considerablemente y se convirtió en una interesante alternativa de bajo coste, por lo que las nuevas empresas dedicadas a la fabricación de PCs clónicos la adoptaron rápidamente. Los PCs no-AT de bajo coste con tarjetas CGA se vendieron muy bien en los años siguientes, y como consecuencia muchos juegos fueron editados para ellos a pesar de sus limitaciones. La popularidad de la CGA comenzó a desaparecer cuando en 1987 la tarjeta VGA se convirtió en la nueva solución de alto nivel, relegando la EGA a los PCs de bajo coste. La tarjeta estándar CGA de IBM incorporaba 16 kilobytes de VRAM, y permitía mostrar varios modos gráficos y de texto. La resolución máxima de cualquier modo era 640×200, y la mayor profundidad de color soportada era de 4 bits (16 colores). El modo más conocido, usado en la mayoría de los juegos CGA, mostraba 4 colores a una resolución de 320×200. Aunque los 4 colores estaban considerados generalmente como el límite para la tarjeta CGA, era posible aumentar esa cantidad mediante varios métodos (algunos oficiales, otros no).

EGA:


EGA es el acrónimo inglés de Enhanced Graphics Adapter, el la especificación estándar de IBM PC para visualización de gráficos, situada entre CGA y VGA en términos de rendimiento gráfico (es decir, amplitud de colores y resolución). Introducida en 1984 por IBM para sus nuevos PC-AT, EGA tenía una profundidad de color de 16 colores y una resolución de hasta 640×350 píxels. La tarjeta EGA tenía 16 kilobytes de ROM para ampliar la de la BIOS con funciones adicionales e incluía el generador de direcciones de video Motorola MC6845. A cada uno de los 16 colores se les podía asignar un color RGB de una paleta en el modo de alta resolución 640×350; EGA permitía escoger los colores de una paleta de 64 diferentes (dos bits por pixel para rojo, verde y azul). EGA también incluía la función completa de 16 colores de CGA en los modos gráficos de 640×200 y 320×200; sólo los colores 16 CGA/RGBI estaban disponibles en este modo. Los modos CGA originales estaban presentes, pero EGA no era 100% compatible con CGA. EGA también podía controlar un monitor MDA ajustando los jumpers de la placa; sólo a 640×350. La tarjeta IBM EGA básica incluía 64 kilobytes de memoria de vídeo, suficiente para controlar un monitor monocromo de alta resolución (y permitiendo todos los colores a 640×200 and 320×200 modes), si bien la mayoría de las tarjetas EGA y sus clones incluían 256 KB de memoria. Algunos clones de EGA de terceros fabricantes (principalmente las tarjetas de ATI Technologies y Paradise boards) incluían un rango de gráficos ampliado (por ejemplo, 640×400, 640×480 and 720×540), así como detección automática del monitor, y algunas un modo especial de 400 líneas para usar con monitores CGA. El estándar EGA quedó obsoleto con la introducción del VGA por IBM en Abril de 1987 con los ordenadores PS/2.

MCGA


MultiColor Graphics Adapter (MCGA) fue el nombre que IBM asignó a lo que más tarde sería parte del estándar genérico VGA. El ordenador IBM PS/2 Model 25, introducido en 1987, incorporaba MCGA integrado en la placa base. MCGA se parecía a VGA en que tenía un modo de 256 colores. VGA incluía además una serie de modos de pantalla de alta resolución, si bien el modo de 256 colores se convirtió en el más popular para videojuegos. Este modo de pantalla en VGA era frecuentemente citado como MCGA, si bien MCGA sólo existió en el PS/2; nunca se fabricaron tarjetas MCGA independientes. Los modos de pantalla ofrecidos por MCGA eran los mismos de CGA además de 640x480 monocromo y 60 Hz de refresco y 320x200 256 colores y 70 Hz de refresco. El adaptador de pantalla utilizaba un conector D-shell de 15 pines. No ofrecía soporte para los modos de texto monocromo compatibles con el monitor 5151. Se podría considerar a MCGA como un paso intermedio entre CGA y VGA (MCGA no era compatible con EGA, mientras que VGA sí era completamente compatible hacia atrás). Esto resultó en la frustrante situación de que muchos juegos EGA (300x200 16 colores) se ejecutaran en el modo CGA 4 colores (o incluso no se ejecutaran), incluso cuando MCGA era capaz de ofrecer una resolución de 320x200 256 colores. Afortunadamente, algunos juegos EGA 16 colores (por ejemplo, las aventuras gráficas de Sierra y Lucasfilms Games) podían ejecutarse específicamente en MCGA en el modo de 256 colores, aunque sólo aplicando los 16 colores originales. Los juegos programados para VGA 256 colores podían ejecutarse satisfactoriamente en sistemas con MCGA siempre que se ajustaran a la resolución de 320x200 256 color y no intentaran usar características específicas de VGA, como la multipaginación. El período de vida de MCGA fue muy breve y abarcó apenas dos modelos de computadores (PS/2 Model 25 y Model 30), dejándose de fabricar en 1992 sin que ningún fabricante ofreciera tarjetas clónicas de este adaptador, dada la superioridad del estándar VGA introducido al mismo tiempo.

XGA


XGA (siglas en inglés de Extended Graphics Array) es un estándar de visualización de gráficos para ordenadores creada por IBM en 1990. El estándar XGA permite una resolución máxima de 1024x768 pixeles, con una paleta gráfica de 256 colores, o 640x480 con una profundidad de color de 16 bits por pixel (65.536 colores) El estándar XGA-2 permite mayor profundidad de color para el modo 1024x768 y mayor frecuencia de refresco de pantalla, además de una resolución de 1360x1024 a 16 colores. Todos estos modos de pantalla conservan la relación de aspecto 4:3 redondeado a 8 pixeles. El formato de presentación de gráficos XGA no es un reemplazo para el estándar Super VGA, sino sólo un conjunto particular de modos de pantalla dentro del rango permitido por éste. No debe confundirse XGA con el estándar VESA EVGA, comercializado en las mismas fechas.

DVI


La interfaz de vídeo digital o interfaz visual digital (en inglés DVI, "digital visual interface" o "digital video interface") es un conector de vídeo diseñado para obtener la máxima calidad de visualización posible en pantallas digitales tales como los monitores de cristal líquido de pantalla plana y los proyectores digitales. Fue desarrollada por el consorcio industrial DDWG ("Digital Display Working Group", Grupo de Trabajo para la Pantalla Digital).

Los estándares anteriores, como el VGA, son analógicos y están diseñados para dispositivos CRT (tubo de rayos catódicos o tubo catódico). La fuente varía su tensión de salida con cada línea que emite para representar el brillo deseado. En una pantalla CRT, esto se usa para asignar al rayo la intensidad adecuada mientras éste se va desplazando por la pantalla. Este rayo no está presente en pantallas digitales; en su lugar hay una matriz de pixeles, y se debe asignar un valor de brillo a cada uno de ellos. El decodificador hace esta tarea tomando muestras del voltaje de entrada a intervalos regulares. Cuando la fuente es también digital (como un ordenador), esto puede provocar distorsión si las muestras no se toman en el centro de cada pixel, y, en general, el grado de ruido entre pixeles adyacentes es elevado. DVI adopta un enfoque distinto. El brillo de los pixeles se transmite en forma de lista de números binarios. Cuando la pantalla está establecida a su resolución nativa, sólo tiene que leer cada número y aplicar ese brillo al pixel apropiado. De esta forma, cada pixel del buffer de salida de la fuente se corresponde directamente con un pixel en la pantalla, mientras que con una señal analógica el aspecto de cada pixel puede verse afectado por sus pixeles adyacentes, así como por el ruido eléctrico y otras formas de distorsión analógica.

Aliasing:


El aliasing es el artefacto gráfico característico que hace que en una pantalla ciertas curvas y líneas inclinadas presenten un efecto visual tipo "sierra" o "escalón". El aliasing ocurre cuando se intenta representar una imagen con curvas y líneas inclinadas en una pantalla, framebuffer o imagen, pero que debido a la resolución finita del sustrato resulta que éste sea incapaz de representar la curva como tal, y por tanto dichas curvas se muestran en pantalla dentadas al estar compuestas por cuadros menudos (los píxeles).

Anti Aliasing:


En el área del procesamiento digital de señales en general, se le llama antialiasing a los procesos que permiten minimizar el aliasing cuando se desea representar una señal de alta resolución en un sustrato de más baja resolución. En la mayoría de los casos, el antialiasing consiste en la remoción de la información de frecuencia, demasiado elevada para poder ser representada. Cuando tal información es dejada en la señal, se pueden producir artefactos impredecibles.