Diferencia entre revisiones de «Televisión»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
Sin resumen de edición
m Revertidos los cambios de 190.232.94.174 a la última edición de Aibdescalzo
Línea 1: Línea 1:
La '''televisión''', '''TV''' y popularmente '''tele''', es un sistema de [[telecomunicación]] para la transmisión y recepción de imágenes en movimiento y sonido a distancia.
La '''televisión''', '''TV''' y popularmente '''tele''', es un sistema de [[telecomunicación]] para la transmisión y recepción de imágenes en movimiento y sonido a distancia.

muerance de la gripe porcino
Esta transmisión puede ser efectuada mediante [[Onda (física)|ondas]] de [[radio (medio de comunicación)|radio]] o por redes especializadas de [[televisión por cable]]. El [[receptor]] de las señales es el [[televisor]].
Esta transmisión puede ser efectuada mediante [[Onda (física)|ondas]] de [[radio (medio de comunicación)|radio]] o por redes especializadas de [[televisión por cable]]. El [[receptor]] de las señales es el [[televisor]].



Revisión del 22:00 28 abr 2009

La televisión, TV y popularmente tele, es un sistema de telecomunicación para la transmisión y recepción de imágenes en movimiento y sonido a distancia.

Esta transmisión puede ser efectuada mediante ondas de radio o por redes especializadas de televisión por cable. El receptor de las señales es el televisor.

La palabra "televisión" es un híbrido de la voz griega "Tele" (distancia) y la latina "visio" (visión). El término televisión se refiere a todos los aspectos de transmisión y programación de televisión. A veces se abrevia como TV. Este término fue utilizado por primera vez en 1900 por Constantin Perski en el Congreso Internacional de Electricidad de París (CIEP).

El Día Mundial de la Televisión se celebra el 21 de noviembre en conmemoración de la fecha en que se celebró en 1996 el primer Foro Mundial de Televisión en las Naciones Unidas.

Televisor Braun HF 1, un modelo alemán de los años 1950.

Historia

Primeros desarrollos

La telefotografía

Los primeros intentos de transmitir imágenes a distancia se realizan mediante la electricidad y sistemas mecánicos. La electricidad ejercía como medio de unión entre los puntos y servía para realizar la captación y recepción de la imagen, los medios mecánicos efectuaban las tareas de movimientos para realizar los barridos y descomposición secuencial de la imagen a transmitir. Para 1884 aparecieron los primeros sistemas de transmisión de dibujos, mapas escritos y fotografías llamados telefotos. En estos primeros aparatos se utilizaba la diferencia de resistencia para realizar la captación.

El desarrollo de las células fotosensibles de selenio, en las que su resistividad varía según la luz que incida en ellas, el sistema se perfeccionó hasta tal punto que en 1927 se estableció un servicio regular de transmisión de telefotografía entre Londres y Nueva York. Las ondas de radio pronto sustituyeron a los cables de cobre, aunque nunca llegaron a eliminarlos por completo, sobre todo en los servicios punto a punto.

El desarrollo de la telefotografía alcanzó su cumbre con los teleinscriptores, y su sistema de transmisión. Estos aparatos permitían recibir el periódico diario en casa del cliente, mediante la impresión del mismo que se hacia desde una emisora especializada.

Hasta la década de los años 80 del siglo XX se vinieron utilizando sistemas de telefoto para la transmisión de fotografías destinados a los medios de comunicación.

El movimiento en la imagen

Cámaras en un plató de TV.

La imagen en movimiento es lo que caracteriza a la televisión. Los primeros desarrollos los realizaron los franceses Rionoux y Fournier en 1906. Estos desarrollaron una matriz de células fotosensibles que conectaban, al principio una a una, con otra matriz de lamparillas. A cada célula del emisor le correspondía una lamparilla en el receptor.

Pronto se sustituyeron los numerosos cables por un único par. Para ello se utilizó un sistema de conmutación que iba poniendo cada célula en cada instante en contacto con cada lámpara. El problema fue la sincronización de ambos conmutadores, así como la velocidad a la que debían de girar para lograr una imagen completa que fuera percibida por el ojo como tal.

La necesidad de enviar la información de la imagen en serie, es decir utilizando solamente una vía como en el caso de la matriz fotosensible, se aceptó rápidamente. En seguida se desarrollaron sistemas de exploración, también llamados de desintegración, de la imagen. Se desarrollaron sistemas mecánicos y eléctricos.

Televisión mecánica, el disco de Nipkow y la rueda fónica

En 1884 Paul Nipkow diseña y patenta el llamado disco de Nipkow, un proyecto de televisión que no podría llevarse a la práctica. En 1910, el disco de Nipkow fue utilizado en el desarrollo de los sistemas de televisión de los inicios del siglo XX y en 1925, el 25 de marzo, el inventor escocés John Logie Baird efectúa la primera experiencia real utilizando dos discos, uno en el emisor y otro en el receptor, que estaban unidos al mismo eje para que su giro fuera síncrono y separados 2m. Se transmitió una cabeza de un maniquí con una definición de 28 líneas y una frecuencia de cuadro de 14 cuadros por segundo.

Baird ofreció la primera demostración pública del funcionamiento de un sistema de televisión a los miembros de la Royal Institution y a un periodista el 26 de enero de 1926 en su laboratorio de Londres. En 1927, Baird transmitió una señal a 438 millas a través de una línea de teléfono entre Londres y Glasgow.

Este disco permite la realización de un barrido secuencial de la imagen mediante una serie de orificios realizados en el mismo. Cada orificio, que en teoría debiera tener un tamaño infinitesimal y en la practica era de 1mm, barría una línea de la imagen y como éstos, los agujeros, estaban ligeramente desplazados, acababan realizando el barrido total de la misma. El número de líneas que se adoptaron fue de 30 pero esto no dio los resultados deseados, la calidad de la imagen no resultaba satisfactoria.

En 1928 Baird funda la compañía Baird TV Development Co para explotar comercialmente la TV. Esta empresa consiguió la primera señal de televisión transatlántica entre Londres y Nueva York. Ese mismo año Paul Nipkow ve en la Exposición de radio de Berlín un sistema de televisión funcionando perfectamente basado en su invento con su nombre al pie del mismo. En 1929 se comienzan las emisiones regulares en Londres y Berlín basadas en el sistema Nipkow Baird y que se emitía en banda media de radio.

Se desarrollaron otros exploradores mecánicos como el que realizó la casa Telefunken, que dio buenos resultados, pero que era muy complejo y constaba de un cilindro con agujeros que tenían una lente cada uno de ellos.

La formación de la imagen en la recepción se realizaba mediante el mismo principio que utilizaba en la captación. Otro disco similar, girando síncronamente, era utilizado para mirar a través de él una lámpara de neón cuya luminosidad correspondía a la luz captada en ese punto de la imagen. Este sistema, por el minúsculo tamaño del área de formación de la imagen, no tuvo mucho éxito, ya que únicamente permitía que ésta fuera vista por una persona, aun cuando se intentó agrandar la imagen mediante la utilización de lentes. Se desarrollaron sistemas basados en cinta en vez de discos y también se desarrolló, que fue lo que logró resolver el problema del tamaño de la imagen, un sistema de espejos montados en un tambor que realizaban la presentación en una pantalla. Para ello el tambor tenía los espejos ligeramente inclinados, colocados helicoidalmente. Este tambor es conocido como la rueda de Weiller. Para el desarrollo práctico de estos televisores fue necesaria la sustitución de la lámpara de neón, que no daba la luminosidad suficiente, por otros métodos, y entre ellos se utilizó el de poner una lampara de descarga de gas y hacer pasar la luz de la misma por una célula de Kerr que regulaba el flujo luminoso en relación a la tensión que se le aplicaba en sus bornes. El desarrollo completo del sistema se obtuvo con la utilización de la rueda fónica para realizar el sincronismo entre el emisor y el receptor.

La exploración de la imagen, que se había desarrollado de forma progresiva por la experiencias de Senlecq y Nipkow se cuestiona por la exposición del principio de la exploración entrelazada desarrollado por Belin y Toulón. La exploración entrelazada solventaba el problema de la persistencia de la imagen, las primeras líneas trazadas se perdían cuando todavía no se habían trazado las últimas produciendo el conocido como efecto ola. En la exploración entrelazada se exploran primero las líneas impares y luego las pares y se realiza lo mismo en la presentación de la imagen. Brillounin perfecciona el disco de Nipkow para que realice la exploración entrelazada colocándole unas lentes en los agujeros aumentando así el brillo captado.

En 1932 se realizan las primeras emisiones en París. Estas emisiones tienen una definición de 60 líneas pero tres años después se estaría emitiendo con 180. La precariedad de las células empleadas para la captación hacía que se debiera iluminar muy intensamente las escenas produciendo muchísimo calor que impedía el desarrollo del trabajo en los platós.

La rueda fónica

La rueda fónica fue el sistema de sincronización mecánico que mejores resultados dio. Consistía en una rueda de hierro que tenia tantos dientes como agujeros había en el tambor o disco. La rueda y el disco estaban unidos por el mismo eje. La rueda estaba en medio de dos bobinas que eran recorridas por la señal que llegaba del emisor. En el centro emisor se daba, al comienzo de cada agujero, principio de cada línea, un pulso mucho más intenso y amplio que las variaciones habituales de las células captadoras, que cuando era recibido en el receptor al pasar por las bobinas hace que la rueda dé un paso posicionando el agujero que corresponde.

Televisión electrónica

En 1937 comenzaron las transmisiones regulares de TV electrónica en Francia y en el Reino Unido. Esto llevó a un rápido desarrollo de la industria televisiva y a un rápido aumento de telespectadores aunque los televisores eran de pantalla pequeña y muy caros. Estas emisiones fueron posibles por el desarrollo de los siguientes elementos en cada extremo de la cadena.

En el receptor, el TRC

La implementación del llamado tubo de rayos catódicos o tubo de Braum, por S. Thomson en 1895 fue un precedente que tendría gran transcendencia en la televisión, si bien no se pudo integrar, debido a las deficiencias tecnológicas, hasta entrado el siglo XX y que perdura en la primera mitad del XXI.

Desde los comienzos de los experimentos sobre los rayos catódicos hasta que el tubo se desarrolló lo suficiente para su uso en la televisión fueron necesarios muchos avances en esa investigación. Las investigaciones de Wehnelt, que añadió su cilindro, los perfeccionamientos de los controles electrostático y electromagnéticos del haz, con el desarrollo de las llamadas "lentes electrónicas" de Vichert y los sistemas de deflexión permitieron que el investigador Holweck desarrollara el primer tubo de Braum destinado a la televisión. Para que este sistema trabajase correctamente se tuvo que construir un emisor especial, este emisor lo realizó Belin que estaba basado en un espejo móvil y un sistema mecánico para el barrido.

Una vez resuelto el problema de la presentación de la imagen en la recepción quedaba por resolver el de la captación en el emisor. Los exploradores mecánicos frenaban el avance de la técnica de la TV. Era evidente que el progreso debía de venir de la mano de la electrónica, como en el caso de la recepción. El 27 de enero de 1926 John Logie Baird hizo una demostración ante la Real Institución de Inglaterra, el captador era mecánico, compuesto de tres discos y de construcción muy rudimentaria. Alfredo Dinsdale lo describe de esta manera en su libro Televisión;

el aparato estaba montado con ejes de bicicletas viejas, tableros de mesas de café y lentes de cristal de claraboyas, todo unido con lacre, cuerdas, etc., lo cual hizo que no impresionara muy favorablemente a aquellos que estaban acostumbrados a los primorosos mecanismos de los constructores de aparatos; sin embargo, la importancia de las pruebas fue real y decisiva para el mundo científico de aquellos tiempos.

La primera imagen sobre un tubo de rayos catódicos se formó en 1911 en el Instituto Tecnológico de San Petersburgo y consistía en unas rayas blancas sobre fondo negro y fueron obtenidas por Boris Rosing en colaboración con Zworrykin. La captación se realizaba mediante dos tambores de espejos (sistema Weiller) y generaba una exploración entrelazada de 30 líneas y 12,5 cuadros por segundo.

Las señales de sincronismo eran generadas por potenciómetros unidos a los tambores de espejos que se aplicaban a las bobinas deflexoras del TRC, cuya intensidad de haz era proporcional a la iluminación que recibía la célula fotoeléctrica.

En el emisor, el iconoscopio

En 1931 Vladimir Kosma Zworykin desarrolló el captador electrónico que tanto se esperaba, el iconoscopio. Este tubo electrónico permitió el abandono de todos los demás sistemas que se venían utilizando y perduró, con sus modificaciones, hasta la irrupción de los captadores de CCD's a finales el siglo XX.

El iconoscopio está basado en un mosaico electrónico compuesto por miles de pequeñas células fotoeléctricas independientes que se creaban mediante la construcción de un sandwich de tres capas, una muy fina de mica que se recubría en una de sus caras de una sustancia conductora (grafito en polvo impalpable o plata) y en la otra cara una sustancia fotosensible compuesta de millares de pequeños globulitos de plata y óxido de cesio. Este mosaico, que era también conocido con el nombre de mosaico electrónico de Zworykin se colocaba dentro de un tubo de vacío y sobre el mismo se proyectaba, mediante un sistema de lentes, la imagen a captar. La lectura de la "imagen electrónica" generada en el mosaico se realizaba con un haz electrónico que proporcionaba a los pequeños condensadores fotoeléctricos los electrones necesarios para su neutralización. Para ello se proyecta un haz de electrones sobre el mosaico, las intensidades generadas en cada descarga, proporcionales a la carga de cada célula y ésta a la intensidad de luz de ese punto de la imagen pasan a los circuitos amplificadores y de allí a la cadena de transmisión, después de los diferentes procesados precisos para el óptimo rendimiento del sistema de TV.

La exploración del mosaico por el haz de electrones se realizaba mediante un sistema de deflexión electromagnético, al igual que el utilizado en el tubo del receptor.

Se desarrollaron otro tipo de tubos de cámara como el disector de imagen de Philo Taylor Farnsworth y luego el Icotrón y el superemitrón, que era un híbrido de iconoscopio y disector, y al final apareció el orticón, desarrollado por la casa RCA y que era mucho menor, en tamaño, que el iconoscopio y mucho más sensible. Este tubo fue el que se desarrolló y perduró hasta su desaparición.

Vladimir Zworykin realizó sus estudios y experimentos del iconoscopio en la RCA, después de dejar San Petersburgo y trabajando con Philo Taylor Farnsworth quien lo acusó de copiar sus trabajos sobre el disector de imagen.

Bloque óptico de una cámara de TV de CCDs.

Los transductores diseñados fueron la base para las cámaras de televisión. Estos equipos integraban, e integran, todo lo necesario para captar una imagen y transformarla en una señal eléctrica. La señal, que contiene la información de la imagen más los pulsos necesarios para el sincronismo de los receptores, se denomina señal de vídeo. Una vez que se haya producido dicha señal, ésta puede ser manipulada de diferentes formas, hasta su emisión por la antena, el sistema de difusión deseado.

Entre ambos, la señal de vídeo

La señal transducida de la imagen contiene la información de ésta, pero como hemos visto, es necesario, para su recomposición, que haya un perfecto sincronismo entre la deflexión de exploración y la deflexión en la representación.

La exploración de una imagen se realiza mediante su descomposición, primero en fotogramas a los que se llaman cuadros y luego en líneas, leyendo cada cuadro. Para determinar el número de cuadros necesarios para que se pueda recomponer una imagen en movimiento así como el número de líneas para obtener una óptima calidad en la reproducción y la óptima percepción del color (en la TV en color) se realizaron numerosos estudios empíricos y científicos del ojo humano y su forma de percibir. Se obtuvo que el número de cuadros debía de ser al menos de 24 al segundo (luego se emplearon por otras razones 25 y 30) y que el número de líneas debía de ser superior a las 300.

La señal de vídeo la componen la propia información de la imagen correspondiente a cada línea (en el sistema PAL 625 líneas y en el NTSC 525 por cada cuadro) agrupadas en dos grupos, las líneas impares y las pares de cada campo, a cada un de estos grupos de líneas se les denomina campo (en el sistema PAL se usan 25 cuadros por segundo mientras que en el sistema NTSC 30). A esta información hay que añadir la de sincronismo, tanto de cuadro como de línea, esto es, tanto vertical como horizontal. Al estar el cuadro dividido en dos campos tenemos por cada cuadro un sincronismo vertical que nos señala el comienzo y el tipo de campo, es decir cuando empieza el campo impar y cuando empieza el campo par. Al comienzo de cada línea se añade el pulso de sincronismo de línea u horizontal (modernamente con la TV en color también se añade información sobre la sincronía del color).

La codificación de la imagen se realiza entre 0V para el negro y 0,7V para el blanco. Para los sincronismos se incorporan pulsos de -0,3V, lo que da una amplitud total de la forma de onda de vídeo de 1V. Los sincronismos verticales están constituidos por una serie de pulsos de -0,3V que proporcionan información sobre el tipo de campo e igualan los tiempos de cada uno de ellos.

El sonido, llamado audio, es tratado por separado en toda la cadena de producción y luego se emite junto al vídeo en una portadora situada al lado de la encargada de transportar la imagen.

El desarrollo de la TV

Control Central en un centro emisor de TV.

En 1945 se establecen las normas CCIR que regulan la exploración, modulación y transmisión de la señal de TV. Había multitud de sistemas que tenían resoluciones muy diferentes, desde 400 líneas a hasta más de 1.000. Esto producía diferentes anchos de banda en las transiciones. Poco a poco se fueron concentrando en dos sistemas, el de 512 líneas, adoptado por EE.UU. y el de 625 líneas, adoptado por Europa (España adoptó las 625 líneas en 1951). También se adoptó muy pronto el formato de 4/3 para la relación de aspecto de la imagen.

Es a mediados del siglo XX donde la televisión se convierte en bandera tecnológica de los países y cada uno de ellos va desarrollando sus sistemas de TV nacionales y privados. En 1953 se crea Eurovisión que asocia a varios países de Europa conectando sus sistemas de TV mediante enlaces de microondas. Unos años más tarde, en 1960, se crea Mundovisión que comienza a realizar enlaces con satélites geoestacionarios cubriendo todo el mundo.

La producción de televisión se desarrolló con los avances técnicos que permitieron la grabación de las señales de vídeo y audio. Esto permitió la realización de programas grabados que podrían ser almacenados y emitidos posteriormente. A finales de los años 50 del siglo XX se desarrollaron los primeros magnetoscopios y las cámaras con ópticas intercambiables que giraban en una torreta delante del tubo de imagen. Estos avances, junto con los desarrollos de las máquinas necesarias para la mezcla y generación electrónica de otras fuentes, permitieron un desarrollo muy alto de la producción.

En los años 70 se implementaron las ópticas Zoom y se empezaron a desarrollar magnetoscopios más pequeños que permitían la grabación de las noticias en el campo. Nacieron los equipos periodismo electrónico o ENG. Poco después se comenzó a desarrollar equipos basados en la digitalización de la señal de vídeo y en la generación digital de señales, nacieron de esos desarrollos los efectos digitales y las paletas gráficas. A la vez que el control de las máquinas permitía el montaje de salas de postproducción que, combinando varios elementos, podían realizar programas complejos.

El desarrollo de la televisión no se paró con la transmisión de la imagen y el sonido. Pronto se vio la ventaja de utilizar el canal para dar otros servicios. En esta filosofía se implementó, a finales de los años 80 del siglo XX el teletexto que transmite noticias e información en formato de texto utilizando los espacios libres de información de la señal de vídeo. También se implementaron sistemas de sonido mejorado, naciendo la televisión en estéreo o dual y dotando al sonido de una calidad excepcional, el sistema que logró imponerse en el mercado fue el NICAM.

La televisión en color

Véase también: Introducción de la televisión en color en distintos países.

Plantilla:Image-PAL-NTSC-SECAM Ya en 1928 se desarrollaron experimentos de la transmisión de imágenes en color. Baird, basándose en la teoría tricromática de Young, realizó experimentos con discos de Nipkow a los que cubría los agujeros con filtros rojos, verdes y azules logrando emitir las primeras imágenes en color el 3 de julio de 1928. El 17 de agosto de 1940 Guillermo González Camarena patenta, en México y E.U.A, un Sistema Tricromático Secuencial de Campos. Ocho años más tarde, 1948, Goldmark, basándose en la idea de Baird y Camarena, desarrolló un sistema similar, llamado sistema secuencial de campos el cual estaba compuesto por una serie de filtros de colores rojo, verde y azul que giran anteponiéndose al captador y, de igual forma, en el receptor, se anteponen a la imagen formada en la pantalla del tubo de rayos catódicos. El éxito fue tal que la Columbia Broadcasting System lo adquirió para sus transmisiones de TV.

El siguiente paso fue la transmisión simultánea de las imágenes de cada color con el denominado trinoscopio. El trinoscopio ocupaba tres veces más espectro radioeléctrico que las emisiones monocromáticas y, encima, era incompatible con ellas a la vez que muy costoso.

El elevado número de televisores en blanco y negro exigió que el sistema de color que se desarrollara fuera compatible con las emisiones monocromas. Esta compatibilidad debía realizarse en ambos sentidos, de emisiones en color a recepciones en blanco y negro y de emisiones en monocromo a recepciones en color.

En búsqueda de la compatibilidad nace el concepto de luminancia y de crominancia. La luminancia porta la información del brillo, la luz, de la imagen, lo que corresponde al blanco y negro, mientras que la crominancia porta la información del color. Estos conceptos fueron expuestos por Valensi en 1937.

En 1950 la Radio Corporation of America, (RCA) desarrolla un tubo de imagen que portaba tres cañones electrónicos, los tres haces eran capaces de impactar en pequeños puntos de fósforo de colores, llamados luminóforos, mediante la utilización de una máscara, la Shadow Mask o Trimask. Esto permitía prescindir de los tubos trinoscópicos tan abultados y engorrosos. Los electrones de los haces al impactar con los luminóforos emiten una luz del color primario correspondiente que mediante la mezcla aditiva genera el color original.

Mientras en el receptor se implementaban los tres cañones correspondientes a los tres colores primarios en un solo elemento, en el emisor, en la cámara, se mantenían los tubos separados, uno por cada color primario. Para la separación se hace pasar la la luz que conforma la imagen por un prisma dicroico que filtra cada color primario a su correspondiente captador.

Sistemas actuales de TVC
Barras de color EBU vistas en un MFO y un vectoscopio.

El primer sistema de televisión en color ideado que respetaba la doble compatibilidad con la televisión monocroma se desarrolló en 1951 por un grupo de ingenieros dirigidos por Hirsh en los laboratorios de la Hazeltime Corporation en los EE.UU. Este sistema fue adoptado por la Federal Communication Commission de USA (FCC) y era el NTSC que son las siglas de National Television System Commission. El sistema tuvo éxito y se extendió por toda América del Norte y Japón.

Las señales básicas que utiliza son la luminancia (Y), que nos da el brillo y es lo que se muestra en los receptores monocromos, y las componentes de color, las dos señales diferencia de color, la R-Y y B-Y (el rojo menos la luminancia y el azul menos la luminancia). Esta doble selección permite dar un tratamiento diferenciado al color y al brillo. El ojo humano es mucho más sensible a las variaciones y definición del brillo que a las del color, esto hace que los anchos de banda de ambas señales sean diferentes, lo cual facilita su transmisión ya que ambas señales se deben de implementar en la misma banda cuyo ancho es ajustado.

El sistema NTSC modula en amplitud a dos portadoras de la misma frecuencia desfasadas 90º que luego se suman, modulación QAM o en cuadratura. En cada una de las portadoras se modula una de las diferencias de color, la amplitud de la señal resultante indica la saturación del color y la fase el tinte o tono del mismo. Esta señal se llama de crominancia. Los ejes de modulación están situados de tal forma que se cuida la circunstancia de que el ojo es más sensible al color carne, esto es que el eje I se orienta hacia el naranja y el Q hacia los magentas. Al ser la modulación con portadora suprimida hace falta mandar una salva de la misma para que los generadores del receptor puedan sincronizarse con ella. Esta salva o burst suele ir en el pórtico anterior del pulso de sincronismo de línea. La señal de crominancia se suma a la de luminancia componiendo la señal total de la imagen.

Las modificaciones en la fase de la señal de vídeo cuando ésta es transmitida producen errores de tinte, es decir de color (cambia el color de la imagen).

El NTSC fue la base de la que partieron otros investigadores, principalmente europeos. En Alemania se desarrolló, por un equipo dirigido por Walter Bruch un sistema que subsanaba los erres de fase, este sistema es el PAL, Phase Altenating Line.

Para ello la fase de la subportadora se altena en cada línea. La subportadora que modula la componente R-Y, que en PAL se llama V, tiene una fase de 90º en una línea y de 270º en la siguiente, esto hace que los errores de fase que se produzcan en la transmisión (y que afectan igual y en el mismo sentido a ambas líneas) se compensen a la representación de la imagen al verse una línea junto a la otra, Si la integración de la imagen para la corrección del color la realiza el propio ojo humano tenemos el denominado PAL S (PAL Simple) y si se realiza mediante un circuito electrónico el PAL D (PAL Delay, retardado). El PAL fue propuesto como sistema de color paneuropeo en la Conferencia de Oslo de 1966 pero no se llegó a un acuerdo y como resultado los países de Europa Occidental, con la excepción de Francia, adoptaron el PAL mientras que los de Europa Oriental y Francia el SECAM.

En Francia se desarrolló por el investigador Henri de France un sistema diferente, el SECAM, « SÉquentiel Couleur À Mémoire » que basa su actuación en la trasmisión secuencial de cada componente de color moduladas en FM de tal forma que en una línea se manda una componente y en la siguiente la otra componente. Luego el receptor las combina para deducir el color de la imagen.

Todos los sistemas tenían ventajas e inconvenientes. Mientras que el NTSC y el PAL dificultaban la edición de la señal de vídeo por su secuencia de color en cuatro y ocho campos, respectivamente, el sistema SECAM hacía imposible el trabajo de mezcla de señales de vídeo.

La alta definición "HD"

El sistema de televisión de definición estándar, conocido por la siglas "SD", tiene, en PAL, una definición de 720x576 pixeles (720 puntos horizontales en cada línea y 576 puntos verticales que corresponden a las líneas activas del PAL) esto hace que una imagen en PAL tenga un total de 414.720 pixeles. En NSTC se mantienen los puntos por línea pero el número de líneas activas es solo de 525 lo que da un total de pixeles de 388.800 siendo los pixeles levemente anchos en PAL y levemente altos en NSTC.

Se han desarrollaro 28 sistemas diferentes de televisión de alta definición. Hay diferencias en cuanto a relación de cuadros, número de líneas y pixeles y forma de barrido. Todos ellos se pueden agrupar en cuatro grandes grupos de los cuales dos ya han quedado obsoletos (los referentes a las normas de la SMPTE 295M, 240M y 260M) manteniéndose otros dos que difieren, fundamentalmente en el número de líneas activas, uno de 1080 líneas activas (SMPT 274M) y el otro de 720 líneas activas (SMPT 269M).

En el primero de los grupos, con 1080 líneas activas, se dan diferencias de frecuencia de cuadro y de muestras por línea (aunque el número de muestras por tiempo activo de línea se mantiene en 1.920) también la forma de barrido cambia, hay barrido progresivo o entrelazado. De la misma forma ocurre en el segundo grupo, donde las líneas activas son 720 teniendo 1.280 muestras por tiempo de línea activo. En este caso la forma de barrido es siempre progresiva.

En el sistema de HD de 1080 líneas y 1.920 muestras por línea tenemos 2.073.600 pixeles en la imagen y en el sistema de HD de 720 líneas y 1.280 muestras por líneas tenemos 921.600 pixeles en la pantalla. En relación con los sistemas convencionales tenemos que la resolución del sistema de 1.800 líneas es 5 veces mayor que el del PAL y cinco veces y media que el del NTSC. Con el sistema de HD de 720 líneas es un 50% mayor que en PAL y un 66% mayor que en NTSC.[1]

La alta resolución requiere también una redifinición del espacio de color cambiando el triangulo de gamut.

La relación de aspecto

En la década de los 90 del siglo XX se empezaron a desarrollar sistemas de televisión de alta definición todos estos sistemas, en principio analógicos, aumentaban el número de líneas de la imagen y cambiaban la relación de aspecto pasando del formato utilizado hasta entonces, relación de aspecto 4/3, al un formato más apaisado de 16/9. Este nuevo formato, más agradable a la vista se estableció como estándar incluso en emisiones de definición estándar.

La relación de aspecto se expresa por la anchura de la pantalla en relación a la altura. El formato estándar hasta ese momento tenía una relación de aspecto de 4/3. El adoptado es de 16/9. La compatibilidad entre ambas relaciones de aspecto se puede realizar de diferentes formas.

Una imagen de 4/3 que se vaya a ver en una pantalla de 16/9 puede presentarse de tres formas diferentes:

  • Con barras negra verticales a cada lado (letterbox). Manteniendo la relación de 4/3 pero perdiendo parte de la zona activa de la pantalla.
  • Agrandando la imagen hasta que ocupe toda la pantalla horizontalmente. Se pierde parte de la imagen por la parte superior e inferior de la misma.
  • Deformando la imagen para adaptarla la formato de la pantalla. Se usa toda la pantalla y se ve toda la imagen, pero con la geometría alterada (los círculos se ven elipses con el diámetro mayor orientado de derecha a izquierda).

Una imagen de 16/9 que se vaya a ver en una pantalla de 4/3, de forma similar, tiene tres formas de verse:

  • Con barras horizontales arriba y abajo de la imagen (letterbox). Se ve toda la imagen pero se pierde tamaño de pantalla (hay varios formatos de letterbox dependiendo de la parte visible de la imagen que se vea (cuanto más grande se haga más se recorta), se usan el 13/9 y el 14/9).
  • Agrandando la imagen hasta ocupar toda la pantalla verticalmente, perdiéndose las partes laterales la imagen.
  • Deformando la imagen para adaptarla a la relación de aspecto de la pantalla. se ve toda la imagen en toda la pantalla, pero con la geometría alterada (los círculos se ven elipses con el diámetro mayor orientado de arriba a abajo).[1]
El PALplus

En Europa Occidental, donde el sistema de televisión de la mayoría de los países es el PAL, se desarrollo, con apoyo de la Unión Europea, un formato a caballo entre la alta definición y la definición estándar. Este formato recibió el nombre de PALplus y aunque fue apoyado por la administración no logró cuajar.

El PALplus fue una extensión del PAL para transmitir imágenes de 16:9 sin tener que perder resolución vertical. En un televisor normal se recibe una imagen de apaisada con franjas negras arriba y abajo de la misma (letterbox) de 432 líneas activas. El PALplus mandaba información adicional para rellenar las franjas negras llegando a 576 líneas de resolución vertical. Mediante señales auxiliares que iban en las líneas del intervalo de sincronismo vertical se comandaba al receptor PALplus indicándole si la captación había sido realizada en barrido progresivo o entrelazado. El sistema se amplió con el llamado "Colorplus" que mejoraba la decodificación del color.

La digitalización

Archivo:TelevisionDigital-Septiembre.png
Televisión Digital Terrestre en el mundo.

A finales de los años 80 del siglo XX se empezaron a desarrollar sistemas de digitalización. La digitalización en la televisión tiene dos partes bien diferenciadas. Por un lado está la digitalización de la producción y por el otro la de la transmisión.

En cuanto a la producción se desarrollaron varios sistemas de digitalización. Los primeros de ellos estaban basados en la digitalización de la señal compuesta de vídeo que no tuvieron éxito. El planteamiento de digitalizar las componentes de la señal de vídeo, es decir la luminancia y las diferencias de color, fue el que resultó más idóneo. En un principio se desarrollaron los sistemas de señales en paralelo, con gruesos cables que precisaban de un hilo para cada bit, pronto se sustituyó ese cable por la transmisión multiplexada en tiempo de las palabras correspondientes a cada una de las componentes de la señal, además este sistema permitió incluir el audio, embebiéndolo en la información transmitida, y otra serie de utilidades.

Para el mantenimiento de la calidad necesaria para la producción de TV se desarrolló la norma de Calidad Estudio CCIR-601. Mientras que se permitió el desarrollo de otras normas menos exigentes para el campo de las producciones ligeras (EFP) y el periodismo electrónico (ENG).

La diferencia entre ambos campos, el de la producción en calidad de estudio y la de en calidad de ENG estriba en la magnitud el flujo binario generado en la digitalización de las señales.

La reducción del flujo binario de la señal de vídeo digital dio lugar a una serie de algoritmos, basados todos ellos en la transformada discreta del coseno tanto en el dominio espacial como en el temporal, que permitieron reducir dicho flujo posibilitando la construcción de equipos más accesibles. Esto permitió el acceso a los mismos a pequeñas empresas de producción y emisión de TV dando lugar al auge de las televisiones locales.

En cuanto a la transmisión, la digitalización de la misma fue posible gracias a las técnicas de compresión que lograron reducir el flujo a menos de 5 Mbit/s, hay que recordar que el flujo original de una señal de calidad de estudio tiene 270 Mbit/s. Esta compresión es la llamada MPEG-2 que produce flujos de entre 4 y 6 Mbit/s sin pérdidas apreciables de calidad subjetiva.

Las transmisiones de TV digital tienen tres grandes áreas dependiendo de la forma de la misma aun cuando son similares en cuanto a tecnología. La transmisión se realiza por satélite, cable y vía radiofrecuencia terrestre, ésta es la conocida como TDT.

El avance de la informática, tanto a nivel del hardware como del software, llevaron a sistemas de producción basados en el tratamiento informático de las señal de televisión. Los sistemas de almacenamiento, como los magnetoscopios, pasaron a ser sustituidos por servidores informáticos de vídeo y los archivos pasaron a guardar sus informaciones en discos duros y cintas de datos. Los ficheros de vídeo incluyen los metadatas que son información referente a su contenido. El acceso a la información se realiza desde los propios ordenadores donde corren programas de edición de vídeo de tal forma que la información residente en el archivo es accesible en tiempo real por el usuario. En realidad los archivos se estructuran en tres niveles, el on line, para aquella información de uso muy frecuente que reside en servidores de discos duros, el near line, información de uso frecuente que reside en cintas de datos y éstas están en grandes librerías automatizadas, y el archivo profundo donde se encuentra la información que está fuera de línea y precisa de su incorporación manual al sistema. Todo ello está controlado por una base de datos en donde figuran los asientos de la información residente en el sistema.

La incorporación de información al sistema se realiza mediante la denominada función de ingesta. Las fuentes pueden ser generadas ya en formatos informáticos o son convertidas mediante conversores de vídeo a ficheros informáticos. Las captaciones realizadas en el campo por equipos de ENG o EFP se graban en formatos compatibles con el del almacenamiento utilizando soportes diferentes a la cinta magnética, las tecnologías existentes son DVD de rayo azul (de Sony), grabación en memorias ram (de Panasonic) y grabación en disco duro (de Ikegami).

La existencia de los servidores de vídeo posibilita la automatización de las emisiones y de los programas de informativos mediante la realización de listas de emisión, los llamados play out.

Hitos técnicos en el desarrollo de la televisión

Estudio de TV.
  • 1907 — El diseño de Nipkow puede llevarse a cabo.
  • 1911 — Rosing y Zworykin crean un sistema de televisión, con imágenes muy crudas y sin movimiento.
  • 1926 — El japonés Kenjito Takayanagi realiza la primera transmisión de televisión usando un tubo de rayos catódicos.
  • 1927 — Philo Farnsworth realiza en San Francisco la primera demostración pública de su disector de imagen, un sistema similar al iconoscopio.
  • 1928 — Baird Television Development Company consigue la primera señal de televisión transatlántica entre Londres y Nueva York.
  • 1929 — BBC transmite imágenes de 30 líneas formadas mecánicamente.
  • 1932 — Vendidos en Inglaterra 10.000 receptores de televisión con disco Nipkow de 30 líneas.
  • 1937Marconi-EMI comercializan un sistema de 405 líneas totalmente eléctrico.
  • 1941Guillermo González Camarena - Ingeniero de origen mexicano que obtiene el 14 de agosto, en EE.UU., la patente 2296019 por inventar un adaptador cromoscópico simplificado para la televisión (una primera versión fue creada por John Logie Baird en el 29, pero no siendo operativa, y siendo perfeccionado por él antes de morir en 1946), sin lugar a dudas, entre los muchos proyectos de la televisión en color, uno de los padres de esta fue Camarena.[2][3]
  • 1956 — La casa norteamericana AMPEX diseña el primer magnetoscopio, el cuadruplex.
  • 1985Sony desarrolla el sistema de grabación betacam. Ampex desarrolla el ADO Ampex Digital Óptica el primer efectos digitales.
  • 1980 1982 — Desarrollo de conversores de normas y de croma-keys digitales.
  • 1983 — Se aprueba la norma CCIR-601, 4:2:2 para calidad estudio y 4:1:1 y 4:2:0 para ENG.
  • 1985 — Primer magnetoscopio digital en formato D1 realizado por Ampex y Sony. Se desarrollan los efectos digitales (DVE).
  • 1987 — Sale la norma del interfaz paralelo para la conexión de equipos digitales.
  • 19871992 — Se crean los formatos D2 y D3 que digitalizan la señal compuesta de vídeo. Fueron formatos de tránsito.
  • 1993 — Se aprueba la norma para la conexión en serie de equipos, el denominado SDI Serial Digital Interface. Sale el sistema D5 de Panasonic y el betacam digital de Sony.
  • 1995 — Se aprueban las normativas para las emisiones digitales, por satélite la DVB-S, por cable la DVB-C basadas en la compresión MPEG-2.
  • 1997 — Nacen las plataformas digitales por satélite. Se aprueba la norma DVB-T para la televisión digital terrestre. En EEUU se aprueba la ATSC (Advanced Television System Committee) para la transmisión de televisión digital terrestre.


Curiosidad: La cámara de televisión del Apolo XI que permitió ver en tiempo real los primeros pasos sobre la superficie lunar era de barrido mecánico, como el disco de Nipkow, debido a su insensibilidad a los campos magnéticos.

Tipos de televisión

Difusión analógica

La televisión hasta tiempos recientes, principios del siglo XXI, fue analógica totalmente y su modo de llegar a los televidentes era mediante el aire con ondas de radio en las bandas de VHF y UHF. Pronto salieron las redes de cable que distribuían canales por las ciudades. Esta distribución también se realizaba con señal analógica, las redes de cable tener una banda asignada, más que nada para poder realizar la sintonía de los canales que llegan por el aire junto con los que llegan por cable. Su desarrollo depende de la legislación de cada país, mientras que en algunos de ellos se desarrollaron rápidamente, como en Inglaterra y Estados Unidos, en otros como España no han tenido casi importancia hasta que a finales del siglo XX la legislación permitió su instalación.

El satélite, que permite la llegada de la señal a zonas muy remotas y de difícil acceso, su desarrollo, a partir de la tecnología de los lanzamientos espaciales, permitió la explotación comercial para la distribución de las señales de televisión. El satélite realiza dos funciones fundamentales, la de permitir los enlaces de las señales de un punto al otro del orbe, mediante enlaces de microondas, y la distribución de la señal en difusión.

Cada uno de estos tipos de emisión tiene sus ventajas e inconvenientes, mientras que el cable garantiza la llegada en estado óptimo de la señal, sin interferencias de ningún tipo, precisa de una instalación costosa y de un centro que realice el embebido de las señales, conocido con el nombre de cabecera. Solo se puede entender un tendido de cable en núcleos urbanos donde la aglomeración de habitantes haga rentable la inversión de la infraestructura necesaria. Otra ventaja del cable es la de disponer de un camino de retorno que permite crear servicios interactivos independientes de otros sistemas (normalmente para otros sistemas de emisión se utiliza la línea telefónica para realizar el retorno). El satélite, de elevado costo en su construcción y puesta en órbita permite llegar a lugares inaccesibles y remotos. También tiene la ventaja de servicios disponibles para los televidentes, que posibilitan la explotación comercial y la rentabilidad del sistema. La comunicación vía satélite es una de las más importantes en la logística militar y muchos sistemas utilizados en la explotación civil tienen un trasfondo estratégico que justifican la inversión económica realizada. La transmisión vía radio es la más popular y la más extendida. La inversión de la red de distribución de la señal no es muy costosa y permite, mediante la red de reemisores necesaria, llegar a lugares remotos, de índole rural. La señal es mucho menos inmune al ruido y en muchos caso la recepción se resiente. Pero es la forma normal de la difusión de las señales de TV.

Difusión digital

Barras de color EBU en formato YUV.

Estas formas de difusión se han mantenido con el nacimiento de la televisión digital con la ventaja de que el tipo de señal es muy robusta a las interferencias y la norma de emisión está concebida para una buena recepción. También hay que decir que acompaña a la señal de televisión una serie de servicios extras que dan un valor añadido a la programación y que en la normativa se ha incluido todo un campo para la realización de la televisión de pago en sus diferentes modalidades.

La difusión de la televisión digital se basa en el sistema DVB Digital Video Broadcasting y es el sistema utilizado en Europa. Este sistema tiene una parte común para la difusión de satélite, cable y terrestre. Esta parte común corresponde a la ordenación del flujo de la señal y la parte no común es la que lo adapta a cada modo de transmisión. Los canales de transmisión son diferentes, mientras que el ancho de banda del satélite es grande el cable y la vía terrestre lo tienen moderado, los ecos son muy altos en la difusión vía terrestre mientas que en satélite prácticamente no existen y en el cable se pueden controlar, las potencias de recepción son muy bajas para el satélite (llega una señal muy débil) mientras que en el cable son altas y por vía terrestre son medias, la misma forma tiene la relación señal-ruido.

Los sistemas utilizados según el tipo de canal son los siguientes, para satélite el DVB-S, para cable el DVB-C y para terrestre (también llamando terrenal) DVB-T. Muchas veces se realizan captaciones de señales de satélite que luego son metidas en cable, para ello es normal que las señales sufran una ligera modificación para su adecuación la norma del cable.

En EE.UU. se ha desarrollado un sistema diferente de televisión digital, el ATSC Advanced Television System Committee que mientras que en las emisiones por satélite y cable no difiere mucho del europeo, en la TDT es totalmente diferente. La deficiencia del NTSC ha hecho que se unifique lo que es televisión digital y alta definición y el peso de las compañías audiovisuales y cinematográficas han llevado a un sistema de TDT característico en el que no se ha prestado atención alguna a la inmunidad contra los ecos.

Televisión terrestre

La difusión analógica por vía terrestre, por radio, está constituida de la siguiente forma; del centro emisor se hacen llegar las señales de vídeo y audio hasta los transmisores principales situados en lugares estratégicos, normalmente en lo alto de alguna montaña dominante. Estos enlaces se realizan mediante enlaces de microondas punto a punto. Los transmisores principales cubren una amplia zona que se va rellenando, en aquellos casos que haya sombras, con reemisores. La transmisión se realiza en las bandas de UHF y VHF, aunque esta última está prácticamente extinguida ya que en Europa se ha designado a la aeronáutica y a otros servicios como la radio digital.

La difusión de la televisión digital vía terrestre, conocida como TDT se realiza en la misma banda de la difusión analógica. Los flujos de transmisión se han reducido hasta menos de 6Mb/s lo que permite la incorporación de varios canales. Lo normal es realizar una agrupación de cuatro canales en un Mux el cual ocupa un canal de la banda (en analógico un canal es ocupado por un programa). La característica principal es la forma de modulación. La televisión terrestre digital dentro del sistema DVB-T utiliza para su transmisión la modulación OFDM Orthogonal Frecuency Division Multiplex que le confiere una alta inmunidad a los ecos, aún a costa de un complicado sistema técnico. La OFDM utiliza miles de portadoras para repartir la energía de radiación, las portadoras mantienen la ortogonalidad en el dominio de la frecuencia. Se emite durante un tiempo útil al que sigue una interrupción llamada tiempo de guarda. Para ello todos los transmisores deben estar síncronos y emitir en paralelo un bit del flujo de la señal. El receptor recibe la señal y espera el tiempo de guarda para procesarla, en esa espera se desprecian los ecos que se pudieran haber producido. La sincronía en los transmisores se realiza mediante un sistema de GPS.

La televisión digital terrestre en los EE.UU., utiliza la norma ATSC Advanced Television System Committee que deja sentir la diferente concepción respecto al servicio que debe tener la televisión y el peso de la industria audiovisual y cinematográfica estadounidense. La televisión norteamericana se ha desarrollado a base de pequeñas emisoras locales que se unían a una retransmisión general para ciertos programas y eventos, al contrario que en Europa donde han primado las grandes cadenas nacionales. Esto hace que la ventaja del sistema europeo que puede crear redes de frecuencia única para cubrir un territorio con un solo canal no sea apreciada por los norteamericanos. El sistema americano no ha prestado atención a la eliminación del eco. La deficiencia del NTSC es una de las causas de la ansias para el desarrollo de un sistema de TV digital que ha sido asociado con el de alta definición.

EL ATSC estaba integrado por empresas privadas, asociaciones e instituciones educativas. La FCC Federal Communication Commission aprobó la norma resultante de este comité como estándar de TDT en EE.UU. el 24 de diciembre de 1996. Plantea una convergencia con los ordenadores poniendo énfasis en el barrido progresivo y en el píxel cuadrado. Han desarrollado dos jerarquías de calidad, la estándar (se han definido dos formatos, uno entrelazado y otro progresivo, para el entrelazado usan 480 líneas activas a 720 pixeles por línea y el progresivo 480 líneas con 640 pixeles por línea, la frecuencia de cuadro es la de 59,94 y 60 Hz y el formato es de 16/9 y 3/4) y la de alta definición (en AD tienen dos tipos diferentes uno progresivo y otro entrelazado, para el primero se usan 720 líneas de 1280 pixeles, para el segundo 1080 líneas y 1920 pixeles por línea a 59,94 y 60 cuadros segundo y un formato de 16/9 para ambos). Han desarrollado dos jerarquías de calidad, la estándar y la de alta definición. Utiliza el ancho de banda de un canal de NTSC para la emisión de televisión de alta definición o cuatro en calidad estándar.

Los sistemas de difusión digitales están llamados a sustituir a los analógicos, se prevé que se dejen de realizar emisiones en analógico, en Europa esta previsto el Apagón analógico para el 2012 y en EE.UU se ha decretado el 17 de febrero de 2009 como la fecha límite en la que todas las estaciones de televisión dejen de transmitir en sistema analógico y pasen a transmitir exclusivamente en sistema digital. El día 8 de Septiembre de 2008 al mediodía se realizó la primera transición entre sistemas en el poblado de Wilmington Carolina del Norte.

Televisión por cable

La televisión por cable surge por la necesidad de llevar señales de televisión y radio, de índole diversa, hasta el domicilio de los abonados, sin necesidad de que éstos deban disponer de diferentes equipos receptores, reproductores y sobre todo de antenas.

Precisa de una red de cable que parte de una cabecera en donde se van embebiendo, en multiplicación de frecuencias, los diferentes canales que tienen orígenes diversos. Muchos de ellos provienen de satélites y otros son creados ex profeso para la emisión por cable.

La ventaja del cable es la de disponer de un canal de retorno, que lo forma el propio cable, que permite el poder realizar una serie de servicios sin tener que utilizar otra infraestructura.

La dificultad de tender la red de cable en lugares de poca población hace que solamente los núcleos urbanos tengan acceso a estos servicios.

La transmisión digital por cable esta basada en la norma DVB-C, muy similar a la de satélite, y utiliza la modulación QAM.

Televisión por satélite

La difusión vía satélite se inició con el desarrollo de la industria espacial que permitió poner en órbita geoestacionaria satélites con transductores que emiten señales de televisión que son recogidas por antenas parabólicas.

El alto coste de la construcción y puesta en órbita de los satélites, así como la vida limitada de los mismos, se ve aliviado por la posibilidad de la explotación de otras serie de servicios como son los enlaces punto a punto para cualquier tipo de comunicación de datos. No es desdeñable el uso militar de los mismos, aunque parte de ellos sean de aplicaciones civiles, ya que buena parte de la inversión esta realizada con presupuesto militar.

La ventaja de llegar a toda la superficie de un territorio concreto, facilita el acceso a zonas muy remotas y aisladas. Esto hace que los programas de televisión lleguen a todas partes.

La transmisión vía satélite digital se realiza bajo la norma DVB-S, la energía de las señales que llegan a las antenas es muy pequeña aunque el ancho de banda suele ser muy grande.

Televisión IP (IPTV)

El desarrolo de redes IP, basadas en accesos de los clientes a las mismas mediante ADSL o fibra óptica, que proporcionan gran ancho de banda, así como el aumento de las capacidades de compresión de datos de los algoritmos tipo MPEG, ha hecho posible la distribución de la señal de televisión de forma digital encapsulada en mediante protocolos IP.

Han surgido asi, a partir del año 2003, plataformas de distribución de televisión IP (IPTV) soportadas tanto en redes del tipo ADSL, VDSL o de fibra óptica para visualización en televisor, como para visualización en ordenadores y teléfonos móviles.

Tipos de televisores

Se conoce como televisor al aparato electrodoméstico destinado a la recepción de la señal de televisión. Suele constar de un sintonizador y de los mandos y circuitos necesarios para la conversión de las señales eléctricas, bien sean analógicas o digitales, en representación de las imágenes en movimiento en la pantalla y el sonido por los altavoces. Muchas veces hay servicios asociados a la señal de televisión que el televisor debe procesar, como el teletexto o el sistema NICAM de audio.

Desde los receptores mecánicos hasta los modernos televisores planos ha habido todo un mundo de diferentes tecnologìas. El tubo de rayos catódicos, que fue el que proporcionó el gran paso en el desarrollo de la televisión, se resiste a desaparecer al no encontrarse, todavía, quien lo sustituya, manteniendo la calidad de imagen y el precio de producción que éste proporciona. Las pantallas planas de cristal líquido o de plasma no han logrado sustituirlo al dar una imagen de inferior calidad y tener un elevado precio, su gran ventaja es la línea moderna de su diseño. Los televisores preparados para la alta definición tampoco están abriéndose paso al carecer de horas de programación en esa calidad y al contentarse el usuario con la calidad de la emisión estándar.

A poco tiempo del llamado apagón analógico todavía son escasos los televisores y otros electrodomésticos que se usan en televisión, como grabadores, que incluyen el sintonizador TDT o los decodificadores para la recepción de cable y satélite.

Algunos tipos de televisores
  • Televisor blanco y negro: la pantalla sólo muestra imágenes en blanco y negro.
  • Televisor en color: la pantalla es apta para mostrar imágenes en color.
  • Televisor pantalla LCD: plano, con pantalla de cristal líquido (o LCD)
  • Televisor pantalla de plasma: plano, usualmente se usa esta tecnología para formatos de mayor tamaño.
  • Televisor de Alta Definición o HDTV .

Véase también

Archivo:Giga1.JPG
Consola de edición.

Emisiones televisivas

Referencias

Bibliografía

  • Televisión. Volumen I, Autor, Eugenio García-Calderón López. Edita, Departamento de publicaciones de la E.T.S.Ingenieros de Telecumunicaciones. ISBN 84-7402-099-9
  • Escuela de Radio Maymo, Autor, Fernando Maymo. Curso de Radio por correo. Depósito legal B-19103-1963.
  • Televisión digital. Autor, Tomás Bethencourt Machado. ISBN 84-607-3527-3.

Enlaces externos