Diferencia entre revisiones de «Tarjeta gráfica»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
m Revertidos los cambios de 190.244.121.12 a la última edición de Dferg
Línea 128: Línea 128:
La [[Graphics Processing Unit|GPU]], —acrónimo de «Graphics Processing Unit», que significa «Unidad de Procesado de Gráficos»— es un procesador (como la [[CPU]]) dedicado al procesamiento de gráficos; su razón de ser es aligerar la carga de trabajo del procesador central y, por ello, está optimizada para el cálculo en [[coma flotante]], predominante en las funciones 3D. La mayor parte de la información ofrecida en la especificación de una tarjeta gráfica se refiere a las características de la GPU, pues constituye la parte más importante de la tarjeta. Dos de las más importantes de dichas características son la [[frecuencia de reloj]] del núcleo, que en [[2006]] oscilaba entre 250 MHz en las tarjetas de gama baja y 750 MHz en las de gama alta, y el número de ''pipelines'' (''vertex'' y ''fragment shaders''), encargadas de traducir una imagen 3D compuesta por vértices y líneas en una imagen 2D compuesta por píxeles.
La [[Graphics Processing Unit|GPU]], —acrónimo de «Graphics Processing Unit», que significa «Unidad de Procesado de Gráficos»— es un procesador (como la [[CPU]]) dedicado al procesamiento de gráficos; su razón de ser es aligerar la carga de trabajo del procesador central y, por ello, está optimizada para el cálculo en [[coma flotante]], predominante en las funciones 3D. La mayor parte de la información ofrecida en la especificación de una tarjeta gráfica se refiere a las características de la GPU, pues constituye la parte más importante de la tarjeta. Dos de las más importantes de dichas características son la [[frecuencia de reloj]] del núcleo, que en [[2006]] oscilaba entre 250 MHz en las tarjetas de gama baja y 750 MHz en las de gama alta, y el número de ''pipelines'' (''vertex'' y ''fragment shaders''), encargadas de traducir una imagen 3D compuesta por vértices y líneas en una imagen 2D compuesta por píxeles.


=== Memoria de vídeo ===
es un periferico de entrada y salida


{| border="2" cellpadding="4" cellspacing="0" style="margin: 0.5em 0.5em 0.5em 1em; padding: 0.5em; background: #f9f9f9; border: 1px #aaa solid; border-collapse: collapse; font-size: 95%;" align="right"
|-
! Tecnología
! Frecuencia (MHz)
! Ancho de banda (GB/s)
! Ancho de banda (GB/s)
|- align="center"
|- align="center"

Revisión del 18:46 23 abr 2009

ATI X850XT
nVIDIA GeForce 6600GT

Una tarjeta gráfica, tarjeta de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es una tarjeta de expansión para una computadora, encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor. Las tarjetas gráficas más comunes son las disponibles para las computadoras compatibles con la IBM PC, debido a la enorme popularidad de éstas, pero otras arquitecturas también hacen uso de este tipo de dispositivos.

En el contexto de las IBM PC, se denota con el mismo término tanto a las habituales tarjetas dedicadas y separadas como a las GPU integradas en la placa base (aunque estas ofrecen prestaciones inferiores).

Algunas tarjetas gráficas han ofrecido funcionalidades añadidas como captura de vídeo, sintonización de TV, decodificación MPEG-2[1]​ y MPEG-4 o incluso conectores Firewire, de ratón, lápiz óptico o joystick.

Las tarjetas gráficas no son dominio exclusivo de los PC; contaron o cuentan con ellas dispositivos como los Commodore Amiga (conectadas mediante los slots Zorro II y Zorro III), Apple II, Apple Macintosh, Spectravideo SVI-328, equipos MSX y, por supuesto, en las videoconsolas modernas, como la Wii, la Playstation 3 y la Xbox360.

Historia

La historia de las tarjetas gráficas da comienzo a finales de los años 1960, cuando se pasa de usar impresoras como elemento de visualización a utilizar monitores. Las encargadas de crear aquellas primeras imágenes fueron las tarjetas de vídeo.[2]

Año Modo texto Modo gráficos Colores Memoria
MDA 1981 80*25 - 1 4 KB
CGA 1981 80*25 640*200 4 16 KB
HGC 1982 80*25 720*348 1 64 KB
EGA 1984 80*25 640*350 16 256 KB
IBM 8514 1987 80*25 1024*768 256 -
MCGA 1987 80*25 320*200 256 -
VGA 1987 720*400 640*480 256 256 KB
SVGA 1989 80*25 1024*768 256 2 MB
XGA 1990 80*25 1024*768 65K 1 MB

La primera tarjeta gráfica, que se lanzó con los primeros IBM PC, fue desarrollada por IBM en 1981. La MDA (Monochrome Display Adapter) trabajaba en modo texto y era capaz de representar 25 líneas de 80 caracteres en pantalla. Contaba con una memoria de vídeo de 4KB, por lo que sólo podía trabajar con una página de memoria. Se usaba con monitores monocromo, de tonalidad normalmente verde.[3]

A partir de ahí se sucedieron diversas controladoras para gráficos, resumidas en la tabla adjunta.[4][5][6][7]

VGA tuvo una aceptación masiva, lo que llevó a compañías como ATI, Cirrus Logic y S3 Graphics, a trabajar sobre dicha tarjeta para mejorar la resolución y el número de colores. Así nació el estándar SVGA (Super VGA). Con dicho estándar se alcanzaron los 2 MB de memoria de vídeo, así como resoluciones de 1024 x 768 puntos a 256 colores.

La evolución de las tarjetas gráficas dio un giro importante en 1995 con la aparición de las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y ATI, entre otros. Dichas tarjetas cumplían el estándar SVGA, pero incorporaban funciones 3D. En 1997, 3dfx lanzó el chip gráfico Voodoo, con una gran potencia de cálculo, así como nuevos efectos 3D (Mip Mapping, Z-Buffering, Antialiasing...). A partir de ese punto, se suceden una serie de lanzamientos de tarjetas gráficas como Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA. La potencia alcanzada por dichas tarjetas fue tal que el puerto PCI donde se conectaban se quedó corto. Intel desarrolló el puerto AGP (Accelerated Graphics Port) que solucionaría los cuellos de botella que empezaban a aparecer entre el procesador y la tarjeta. Desde 1999 hasta 2002, NVIDIA dominó el mercado de las tarjetas gráficas (absorbiendo incluso a 3dfx)[8]​ con su gama GeForce. En ese período, las mejoras se orientaron hacia el campo de los algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, las memorias también necesitaban mejorar su velocidad, por lo que se incorporaron las memorias DDR a las tarjetas gráficas. Las capacidades de memoria de vídeo en la época pasan de los 32 MB de GeForce, hasta los 64 y 128 MB de GeForce 4.

En 2006, NVIDIA y ATI se repartían el liderazgo del mercado[9]​ con sus series de chips gráficos GeForce y Radeon, respectivamente.

Componentes

GPU

La GPU, —acrónimo de «Graphics Processing Unit», que significa «Unidad de Procesado de Gráficos»— es un procesador (como la CPU) dedicado al procesamiento de gráficos; su razón de ser es aligerar la carga de trabajo del procesador central y, por ello, está optimizada para el cálculo en coma flotante, predominante en las funciones 3D. La mayor parte de la información ofrecida en la especificación de una tarjeta gráfica se refiere a las características de la GPU, pues constituye la parte más importante de la tarjeta. Dos de las más importantes de dichas características son la frecuencia de reloj del núcleo, que en 2006 oscilaba entre 250 MHz en las tarjetas de gama baja y 750 MHz en las de gama alta, y el número de pipelines (vertex y fragment shaders), encargadas de traducir una imagen 3D compuesta por vértices y líneas en una imagen 2D compuesta por píxeles.

Memoria de vídeo

Tecnología Frecuencia (MHz) Ancho de banda (GB/s)
GDDR 166 - 950 1,2 - 30,4
GDDR2 533 - 1000 8,5 - 16
GDDR3 700 - 1700 5,6 - 54,4
GDDR4 1600 - 1800 64 - 86,4
GDDR5 3200 - 7000 24 - 448

Según la tarjeta gráfica esté integrada en la placa base (bajas prestaciones) o no, utilizará la memoria RAM propia del ordenador o dispondrá de una propia. Dicha memoria es la memoria de vídeo o VRAM. Su tamaño oscila entre 128 MB y 1 GB. La memoria empleada en 2006 estaba basada en tecnología DDR, destacando DDR2, GDDR3,GDDR4 y GDDR5. La frecuencia de reloj de la memoria se encontraba entre 400 MHz y 3,6 GHz.

Han conseguido hacer memorias GDDR5 a 7GHZ, gracias al proceso de reducción de 50 nm, permitiendo un gran ancho de banda en buses muy pequeños (incluso de 64 bits)

Una parte importante de la memoria de un adaptador de vídeo es el Z-Buffer, encargado de gestionar las coordenadas de profundidad de las imágenes en los gráficos 3D.

RAMDAC

El RAMDAC es un conversor de digital a analógico de memoria RAM. Se encarga de transformar las señales digitales producidas en el ordenador en una señal analógica que sea interpretable por el monitor. Según el número de bits que maneje a la vez y la velocidad con que lo haga, el conversor será capaz de dar soporte a diferentes velocidades de refresco del monitor (se recomienda trabajar a partir de 75 Hz, nunca con menos de 60).[10]​ Dada la creciente popularidad de los monitores digitales y que parte de su funcionalidad se ha trasladado a la placa base, el RAMDAC está quedando obsoleto.

Salidas

Salidas SVGA, S-Video y DVI de una tarjeta gráfica

Los sistemas de conexión más habituales entre la tarjeta gráfica y el dispositivo visualizador (como un monitor o un televisor) son:

  • SVGA: estándar analógico de los años 1990; diseñado para dispositivos CRT, sufre de ruido eléctrico y distorsión por la conversión de digital a analógico y el error de muestreo al evaluar los píxeles a enviar al monitor.
  • DVI: sustituto del anterior, fue diseñado para obtener la máxima calidad de visualización en las pantallas digitales como los LCD o proyectores. Evita la distorsión y el ruido al corresponder directamente un píxel a representar con uno del monitor en la resolución nativa del mismo.
  • S-Video: incluido para dar soporte a televisores, reproductores de DVD, vídeos, y videoconsolas.

Otras no tan extendidas en 2007 son:

  • Vídeo Compuesto: analógico de muy baja resolución mediante conector RCA.
  • Vídeo por componentes: utilizado también para proyectores; de calidad comparable a la de SVGA, dispone de tres clavijas (Y, Cb y Cr).
  • HDMI: tecnología de audio y vídeo digital cifrado sin compresión en un mismo cable.

Interfaces con la placa base

Bus Anchura
(bits)
Frecuencia
(MHz)
Ancho
de banda
(MB/s)
Puerto
ISA XT 8 4,77 8 Paralelo
ISA AT 16 8,33 16 Paralelo
MCA 32 10 20 Paralelo
EISA 32 8,33 32 Paralelo
VESA 32 40 160 Paralelo
PCI 32 - 64 33 - 100 132 - 800 Paralelo
AGP 1x 32 66 264 Paralelo
AGP 2x 32 133 528 Paralelo
AGP 4x 32 266 1000 Paralelo
AGP 8x 32 533 2000 Paralelo
PCIe x1 1*32 25 / 50 100 / 200 Serie
PCIe x4 1*32 25 / 50 400 / 800 Serie
PCIe x8 1*32 25 / 50 800 / 1600 Serie
PCIe x16 1*32 25 / 50 1600 / 3200 Serie

En orden cronológico, los sistemas de conexión entre la tarjeta gráfica y la placa base han sido, principalmente:

  • ISA: arquitectura de bus de 16 bits a 8 MHz, dominante durante los años 1980; fue creada en 1981 para los IBM PC.
  • MCA: intento de sustitución en 1987 de ISA por IBM. Disponía de 32 bits y una velocidad de 10 MHz, pero era incompatible con los anteriores.
  • EISA: respuesta en 1988 de la competencia de IBM; de 32 bits, 8.33 MHz y compatible con las placas anteriores.
  • VESA: extensión de ISA que solucionaba la restricción de los 16 bits, duplicando el tamaño de bus y con una velocidad de 33 MHz.
  • PCI: bus que desplazó a los anteriores a partir de 1993; con un tamaño de 32 bits y una velocidad de 33 MHz, permitía una configuración dinámica de los dispositivos conectados sin necesidad de ajustar manualmente los jumpers. PCI-X fue una versión que aumentó el tamaño del bus hasta 64 bits y aumentó su velocidad hasta los 133 MHz.
  • AGP: bus dedicado, de 32 bits como PCI; en 1997 la versión inicial incrementaba la velocidad hasta los 66 MHz.
  • PCIe: interfaz serie que desde 2004 empezó a competir contra AGP, llegando a doblar en 2006 el ancho de banda de aquel. No debe confundirse con PCI-X, versión de PCI.

En la tabla adjunta[11][12]​ se muestran las características más relevantes de algunos de dichos interfaces.

Dispositivos refrigerantes

Conjunto de disipador y ventilador

Debido a las cargas de trabajo a las que son sometidas, las tarjetas gráficas alcanzan temperaturas muy altas. Si no es tenido en cuenta, el calor generado puede hacer fallar, bloquear o incluso averiar el dispositivo. Para evitarlo, se incorporan dispositivos refrigerantes que eliminen el calor excesivo de la tarjeta. Se distinguen dos tipos:

  • Disipador: dispositivo pasivo (sin partes móviles y, por tanto, silencioso); compuesto de material conductor del calor, extrae este de la tarjeta. Su eficiencia va en función de la estructura y la superficie total, por lo que son bastante voluminosos.
  • Ventilador: dispositivo activo (con partes móviles); aleja el calor emanado de la tarjeta al mover el aire cercano. Es menos eficiente que un disipador y produce ruido al tener partes móviles.

Aunque diferentes, ambos tipos de dispositivo son compatibles entre sí y suelen ser montados juntos en las tarjetas gráficas; un disipador sobre la GPU (el componente que más calor genera en la tarjeta) extrae el calor, y un ventilador sobre él aleja el aire caliente del conjunto.

Alimentación

Hasta ahora la alimentación eléctrica de las tarjetas gráficas no había supuesto un gran problema, sin embargo, la tendencia actual de las nuevas tarjetas es consumir cada vez más energía. Aunque las fuentes de alimentación son cada día más potentes, el cuello de botella se encuentra en el puerto PCIe que sólo es capaz de aportar una potencia de 150 W.[13]​ Por este motivo, las tarjetas gráficas con un consumo superior al que puede suministrar PCIe incluyen un conector (PCIe power connector)[14]​ que permite una conexión directa entre la fuente de alimentación y la tarjeta, sin tener que pasar por la placa base, y, por tanto, por el puerto PCIe.

Aun así, se pronostica que no dentro de mucho tiempo las tarjetas gráficas podrían necesitar una fuente de alimentación propia, convirtiéndose dicho conjunto en dispositivos externos.[15]

Tipos de Tarjetas gráficas

Tarjeta MDA

"Monochrome Display Adapter" o Adaptador monocromo. Fue lanzada por IBM como una memoria de 4 KB de forma exclusiva para monitores TTL (que representaban los clásicos caracteres en ambar o verde). No disponía de gráficos y su única resolución era la presentada en modo texto (80x25) en caracteres de 14x9 puntos, sin ninguna posibilidad de configuración.

Básicamente esta tarjeta usa el controlador de vídeo para leer de la ROM la matriz de puntos que se desea visualizar y se envía al monitor como información serie. No debe sorprender la faltra de procesamiento gráfico, ya que, en estos primeros PCs no existían aplicaciones que realmente pudiesen aprovechar un buen sistema de vídeo. Prácticamente todo se limitaba a información en modo texto.

Este tipo de tarjeta se identifica rápidamente ya que incluye (o incluia en su dia) un puerto de comunicación para la impresora ¡Una asociación más que extraña a día de hoy!

Tarjeta CGA

"Color Graphics Array" o "Color graphics adapter" según el texto al que se recurra. Aparece en el año 1981 también de la mano de IBM y fue muy extendida. Permitia matrices de caracteres de 8x8 puntos en pantallas de 25 filas y 80 columnas, aunque solo usaba 7x7 puntos para representar los caracteres. Este detalle le imposibilitaba el representar subrayados, por lo que los sustituía por diferentes intensidades en el caracter en cuestión.En modo gráfico admitía resoluciones de hasta 640x200. La memoria era de 16 KB y solo era compatible con monitores RGB y Compuestos. A pesar de ser superior a la MDA, muchos usuarios preferian esta ultima dado que la distancia entre puntos de la rejilla de potencial en los monitores CGA era mayor. El tratamiento del color, por supuesto de modo digital, se realizaba con tres bits y uno más para intensidades. Así era posible lograr 8 colores con dos intensidades cada uno, es decir, un total de 16 tonalidades diferentes pero no reproducibles en todas las resoluciones tal y como se muestra en el cuadro adjunto.


Esta tarjeta tenia un fallo bastante habitual y era el conocido como "snow". Este problema era de caracter aleatorio y consistía en la aparición de "nieve" en la pantalla (puntos brillantes e intermitentes que distorsionaban la imagen). Tanto era así que algunas BIOS de la época incluían en su SETUP la opción de eliminación de nieve ("No snow").


Tarjeta HGC

"Hercules Graphics Card" o más popularmente conocida como Hércules (nombre de la empresa productora), aparece en el año 1982, con gran éxito convirtiéndose en un estandar de vídeo a pesar de no disponer del soporte de las rutinas de la BIOS por parte de IBM. Su resolución era de 720x348 puntos en monocromo con 64 KB de memoria. Al no disponer de color, la única misión de la memoria es la de referenciar cada uno de los puntos de la pantalla usando 30,58 KB para el modo gráfico (1 bit x 720 x 348)y el resto para el modo texto y otras funciones. Las lecturas se realizaban a una frecuencia de 50 HZ, gestionadas por el controlador de vídeo 6845. Los caracteres se dibujaban en matrices de 14x9 puntos con

Fabricantes

Fabricantes de GPU
ATI NVIDIA
Fabricantes

de tarjetas

GECUBE POINT OF VIEW
MSI GALAXY
SAPPHIRE XFX
ASUS ASUS
GIGABYTE ZOTAC

En el mercado de las tarjetas gráficas hay que distinguir dos tipos de fabricantes:

  • De chips: generan exclusivamente la GPU. Los dos más importantes son:
  • GPU integrado en el chipset de la placa base: también destaca Intel además de los antes citados Nvidia y ATI

Otros fabricantes como Matrox o S3 Graphics tienen una cuota de mercado muy reducida

  • De tarjetas: integran los chips adquiridos de los anteriores con el resto de la tarjeta, de diseño propio. De ahí que tarjetas con el mismo chip den resultados diferentes según la marca.


En la tabla adjunta se muestra una relación de los dos fabricantes de chips y algunos de los fabricantes de tarjetas con los que trabajan.

API para gráficos

A nivel de programador, trabajar con una tarjeta gráfica es complicado; por ello, surgieron interfaces que abstraen la complejidad y diversidad de las tarjetas gráficas. Los dos más importantes son:

Efectos gráficos

Algunas de las técnicas o efectos habitualmente empleados o generados mediante las tarjetas gráficas son:

  • Antialiasing: retoque para evitar el aliasing, efecto que aparece al representar curvas y rectas inclinadas en un espacio discreto y finito como son los píxeles del monitor.
  • Shader: procesado de píxeles y vértices para efectos de iluminación, fenómenos naturales y superficies con varias capas, entre otros.
  • HDR: técnica novedosa para representar el amplio rango de niveles de intensidad de las escenas reales (desde luz directa hasta sombras oscuras).
  • Mapeado de texturas: técnica que añade detalles en las superficies de los modelos, sin aumentar la complejidad de los mismos.
  • Motion Blur: efecto de emborronado debido a la velocidad de un objeto en movimiento.
  • Depth Blur: efecto de emborronado adquirido por la lejanía de un objeto.
  • Lens flare: imitación de los destellos producidos por las fuentes de luz sobre las lentes de la cámara.
  • Efecto Fresnel (reflejo especular): reflejos sobre un material dependiendo del ángulo entre la superficie normal y la dirección de observación. A mayor ángulo, más reflectante.

Véase también

Referencias

Enlaces externos