La televisión es un sistema para la transmisión y recepción de imágenes en movimiento y sonido a distancia que emplea un mecanismo de difusión. La transmisión puede ser efectuada por medio de ondas de radio, por redes de televisión por cable, televisión por satélite o IPTV, los que existen en modalidades abierta y paga. El receptor de las señales es el televisor.
La palabra «televisión» es un
híbrido de la voz griega τῆλε (tēle, «lejos») y la latina visiōnem (acusativo
de visiō «visión»). El término televisión se refiere a todos los
aspectos de transmisión y programación de televisión. A veces se abrevia
como TV. Este término fue utilizado por primera vez en 1900 por
Constantin Perskyi en el Congreso
Internacional de Electricidad de París (CIEP).
La televisión es el medio de comunicación de masas por
excelencia, de manera que la reflexión
filosófica sobre ellos, se aplica a ésta.
El Día Mundial de la Televisión
se celebra el 21 de
noviembre en conmemoración de la fecha en que se celebró en
1996 el primer Foro Mundial de Televisión en las Naciones
Unidas.
Televisor Braun HF
1, un modelo Alemán de los años 1950
Los servicios de provisión de
contenidos en la modalidad de Vídeo sobre Demanda y/o Internet Streaming no se
clasifican como servicios de Televisión.
La aparición de televisores que pueden conectarse a [[Internet]] en los últimos
años de la primera década del siglo XXI, abre la posibilidad de la
denominada Televisión inteligente en donde se
mezclan y conjugan contenidos de la transmisión convencional (broadcast)
con otros que llegan vía Internet.
Historia
El concepto de televisión (visión a distancia) se puede
rastrear hasta Galileo Galilei y
su telescopio. Sin embargo no es hasta 1884, con la invención del Disco de Nipkow de Paul Nipkow cuando
se hiciera un avance relevante para crear un medio. El cambio que traería la
televisión tal y como hoy la conocemos fue la invención del iconoscopio de Vladímir Zvorykin y Philo Taylor Farnsworth. Esto daría paso a la televisión completamente
electrónica, que disponía de una tasa de refresco mucho mejor, mayor definición
de imagen y de iluminación propia.
Primeros desarrollos
En los orígenes de
la televisión se expusieron diversas soluciones mecánicas, como el disco de Nipkow, en 1884; sin
embargo, se desecharon estos sistemas mecánicos en beneficio de los sistemas de
captación totalmente electrónicos actuales.
En 1925 el inventor escocés John Logie Baird efectúa la
primera experiencia real utilizando dos discos, uno en el emisor y otro en el
receptor, que estaban unidos al mismo eje para que su giro fuera síncrono y
separados por 2 mm.
Las primeras emisiones públicas
de televisión las efectuó la BBC One en Inglaterra en
1936 la TF1 de
Francia en 1935; y la CBS y NBC en Estados
Unidos en 1930. En ambos casos se utilizaron sistemas mecánicos
y los programas no se emitían con un horario regular.
La primera emisora
con programación y horario regular fue creada en 1930 en Berlín por Manfred von Ardenne. En 1928, von
Ardennse hizo cargo de su herencia con control total sobre cómo podría
gastarse, y estableció su laboratorio de investigación privada Forschungslaboratorium
für Elektronenphysik, en Berlin-Lichterfelde, para llevar a cabo su
propia investigación en tecnología de radio y televisión y microscopía electrónica. Inventó
el microscopio electrónico de barrido. En la Muestra de Radio de Berlín en agosto de 1931, Ardenne dio al mundo la primera
demostración pública de un sistema de televisión utilizando un tubo de rayos catódicos para transmisión y recepción. (Ardenne nunca
desarrollaron un tubo de cámara, usando la CRT en su lugar como un escáner de punto volante para
escanear diapositivas y película.) Ardenne logra su primera transmisión de
imágenes de televisión de 24 de diciembre de 1933, seguido de pruebas para un
servicio público de televisión en 1934. El primer servicio mundial de televisión
electrónicamente escaneada comenzó en Berlín en 1935, que culminó con la
emisión en directo de los Juegos Olímpicos de Berlín 1936 desde Berlin a lugares públicos en toda Alemania.
Las emisiones con programación se
iniciaron en Inglaterra en 1936, y en Estados
Unidos el día 30 de abril de 1939, coincidiendo con la
inauguración de la Exposición
Universal de Nueva York. Las emisiones programadas se
interrumpieron durante la Segunda Guerra Mundial, reanudándose
cuando terminó.
Televisión electrónica
En 1937 comenzaron
las transmisiones regulares de TV electrónica en Francia y en el Reino Unido. Esto llevó a un
rápido desarrollo de la
industria televisiva y a un rápido aumento de telespectadores, aunque los
televisores eran de pantalla pequeña y muy caros. Estas
emisiones fueron posibles por el desarrollo del tubo de rayos catódicos y el
iconoscopio.
Captación de imagen
El iconoscopio está basado
en el principio de emisión fotoeléctrica: la imagen se proyecta sobre un
mosaico formado por células fotoeléctricas que emiten electrones que originan
la señal de imagen. Se usó en Estados Unidos entre 1936 y 1946.
El vidicón es un tubo de 2,2 cm
de diámetro y 13,3 cm de largo basado en la fotoconductividad de algunas
sustancias. La imagen óptica se proyecta sobre una placa conductora que, a su
vez, es explorada por el otro lado mediante un rayo de electrones muy fino.
El plumbicón está
basado en el mismo principio que el vidicón, sin embargo, su placa
fotoconductora está formada por tres capas: la primera, en contacto con la
placa colectora, y la tercera están formadas por un semiconductor; la segunda,
por óxido de plomo. De este modo, se origina un diodo que se halla polarizado
inversamente; debido a ello, la corriente a través de cada célula elemental, en
ausencia de luz, es extraordinariamente baja y la sensibilidad del plumbicón,
bajo estas características, muy elevada.
La señal de vídeo
La señal de vídeo es una señal
eléctrica variable que contiene diferentes tensiones dependiendo de la luminosidad
de la imagen a transmitir, y señales de sincronismo de línea y cuadro. Es una
señal translucida de la imagen contiene la información de ésta de forma
analógica, pero es necesario, para su recomposición, que haya un perfecto
sincronismo entre la deflexión de exploración y la deflexión en la
representación. En los sistemas empleados la tensión varía entre 0 y 1 V (0,7
para la señal de imagen y 0,3 para sincrónicos))
La exploración de
una imagen se realiza mediante su descomposición, primero en fotogramas a los
que se llaman cuadros y luego en líneas, leyendo cada cuadro.
Para determinar el número de cuadros necesarios para que se pueda recomponer
una imagen en movimiento así como el número de líneas para obtener una óptima
calidad en la reproducción y la óptima percepción del color (en la TV en color)
se realizaron numerosos estudios empíricos y científicos del ojo humano y su
forma de percibir. Se obtuvo que el número de cuadros debía de ser al menos de
24 al segundo (luego se emplearon por otras razones 25 y 30) y que el número de
líneas debía de ser superior a las 300.
La señal de vídeo la componen la
propia información de la imagen correspondiente a cada línea (en la mayoría de
países europeos y africanos 625 líneas y en gran parte de Asia y América 525
por cada cuadro) agrupadas en dos campos, las líneas impares y las pares de
cada cuadro. A esta información hay que añadir la de sincronismo, tanto de
cuadro como de línea, esto es, tanto vertical como horizontal.
Al estar el cuadro dividido en dos campos tenemos por cada cuadro un
sincronismo vertical que nos señala el comienzo y el tipo de campo, es decir,
cuando empieza el campo impar y cuando empieza el campo par. Al comienzo de
cada línea se añade el pulso de sincronismo de línea u horizontal (modernamente
con la TV en color también se añade información sobre la dominante del color).
La codificación de la imagen se
realiza entre 0 V para el negro y 0,7 V para el blanco. Para los
sincronismos se incorporan pulsos de -0,3 V, lo que da una amplitud total
de la forma de onda de vídeo de 1 V. Los sincronismos verticales están
constituidos por una serie de pulsos de -0,3 V que proporcionan
información sobre el tipo de campo e igualan los tiempos de cada uno de ellos.
El sonido, llamado audio, es tratado
por separado en toda la cadena de producción y luego se emite junto al vídeo en
una portadora situada al lado de la encargada de transportar la imagen.
El desarrollo de la TV
Es a finales del siglo XX cuando
la televisión se convierte en una verdadera bandera tecnológica de los países y
cada uno de ellos va desarrollando sus sistemas de TV nacionales y privados.
En 1953 se
crea Eurovisión que asocia
a varios países de Europa conectando sus sistemas de TV mediante enlaces de
microondas. Unos años más tarde, en 1960, se crea Mundovisión que
comienza a realizar enlaces con satélites geoestacionarios cubriendo
todo el mundo.
La producción de televisión se desarrolló con los avances técnicos que permitieron la grabación de las señales de vídeo y audio. Esto permitió la realización de programas grabados que podrían ser almacenados y emitidos posteriormente. A finales de los años 50 del siglo XX se desarrollaron los primeros magnetoscopios y las cámaras con ópticas intercambiables que giraban en una torreta delante del tubo de imagen. Estos avances, junto con los desarrollos de las máquinas necesarias para la mezcla y generación electrónica de otras fuentes, permitieron un desarrollo muy alto de la producción.
En los años 70 se implementaron
las ópticas Zoom y se empezaron a desarrollar magnetoscopios más pequeños que
permitían la grabación de las noticias en el campo. Nacieron los equipos periodismo electrónico o ENG. Poco después se
comenzó a desarrollar equipos basados en la digitalización de la señal de vídeo
y en la generación digital de señales, nacieron de esos desarrollos los
efectos digitales y las paletas gráficas. A la vez que el control de
las máquinas permitían el montaje de salas de postproducción que, combinando
varios elementos, podían realizar programas complejos.
El desarrollo de la televisión no
se paró con la transmisión de la imagen y el sonido. Pronto se vio la ventaja
de utilizar el canal para dar otros servicios. En esta filosofía se implementó,
a finales de los años 80 del siglo XX el teletexto que
transmite noticias e información en formato de texto utilizando los espacios
libres de información de la señal de vídeo. También se implementaron sistemas
de sonido mejorado, naciendo la televisión en estéreo o dual y dotando al
sonido de una calidad excepcional, el sistema que logró imponerse en el mercado
fue el NICAM.
La televisión en color
Ya en 1928 se
desarrollaron experimentos de la transmisión de imágenes en color en los cuales
también tomo parte el ingeniero escocés John Logie
Baird. En 1940, el ingeniero mexicano del Instituto Politécnico Nacional, Guillermo González Camarena desarrolló y patentó, tanto en México como en
Estados Unidos, un Sistema Tricromático Secuencial de Campos. En 1948, el
inventor estadounidense Peter
Goldmark, quien trabajaba para
Columbia Broadcasting System, basándose en las ideas de Baird y González
Camarena, desarrolló un sistema similar llamado Sistema Secuencial de
Campos, que la empresa adquirió para sus transmisiones televisivas.
Entre los primeros
sistemas de televisión en color desarrollados, estuvo un sistema con
transmisión simultánea de las imágenes de cada color con receptor basado en un
tubo electrónico denominado trinoscope (trinoscopio, en español)
desarrollado por la empresa Radio Corporation Of
America (RCA). Las señales transmitidas por este sistema
ocupaban tres veces más espectro radioeléctrico que las emisiones
monocromáticas y, además, era incompatible con ellas a la vez que muy costoso.
El elevado número de televisores en blanco y negro que ya había en Estados
Unidos, exigía que el sistema de color que se desarrollara fuera compatible con
los receptores monocromáticos. Esta compatibilidad debía realizarse en ambos
sentidos, de modo que las emisiones en color fueran recibidas en receptores
para blanco y negro y a la inversa. Este sistema fue abandonado.
Para el desarrollo
de sistemas viables de televisión en color, surgieron los conceptos de luminancia y de crominancia. La primera
representa la información del brillo de la imagen, lo que
corresponde a la señal básica en blanco y negro, mientras que la segunda es la
información del color. Estos conceptos habían sido expuestos anteriormente por
el ingeniero francés Georges Valensi en 1938, cuando creó y patentó un sistema
de transmisión de televisión en color, compatible con equipos para señales en
blanco y negro.
En 1950, Radio
Corporation of America desarrolló un nuevo tubo de imagen con tres cañones
electrónicos, implementados en un solo elemento, que emitían haces que chocaban
contra pequeños puntos de fósforo de color, llamados luminóforos,
mediante la utilización de una máscara de sombras que permitía
prescindir de los voluminosos trinoscopios, anteriormente desarrollados por la
empresa. Los electrones de los haces al impactar contra los luminóforos emiten
luz del color primario (azul, rojo y verde) correspondiente que mediante
la mezcla aditiva genera
el color original. En el emisor (la cámara) se mantenían los tubos separados,
uno por cada color primario. Para la separación, se hacen pasar los rayos luminosos
que conforman la imagen por un prisma
dicroico que filtra cada color
primario a su correspondiente captador.
Sistemas actuales de
Televisión en Color
El primer sistema de televisión en color que respetaba la
doble compatibilidad con la televisión monocroma fue desarrollado en 1951 por
la empresa estadounidense Hazeltine Corporation, bajo la supervisión de Arthur Loughren, vicepresidente de
la empresa y Charles Hirsch, Ingeniero Jefe de la División de Investigación.
Este sistema fue adoptado en 1953 por la Federal
Communications Commission (Comisión
Federal de Comunicaciones de Estados Unidos) y se conoció como NTSC. El sistema tuvo éxito y se extendió a buena parte de los
países americanos y algunos países asiáticos, como Japón.
Las señales básicas
del sistema NTSC son la luminancia (Y) y las
componentes de diferencia de color, R-Y y B-Y (es decir el rojo menos la
luminancia y el azul menos la luminancia). Este par de componentes permite dar
un tratamiento diferenciado al color y al brillo. El ojo humano es mucho más
sensible a las variaciones y definición del brillo que a las del color y esto
hace que los anchos de banda de ambas señales sean diferentes, lo cual facilita
su transmisión ya que ambas señales se deben de implementar en la misma banda
cuyo ancho es ajustado.
El sistema NTSC
emplea dos señales portadoras de la misma
frecuencia para los componentes de diferencia de color, aunque desfasadas en
90º, moduladas con portadora suprimida por modulación de amplitud en cuadratura. Al
ser sumadas, la amplitud de la señal resultante indica la saturación del
color y la fase es el tinte o
tono del mismo. Esta señal se llama de crominancia.
Los ejes de modulación, denominados I (en
fase) y Q (en cuadratura) están situados de tal forma que se
cuida la circunstancia de que el ojo es más sensible al color carne,
esto es que el eje I se orienta hacia el naranja y el Q hacia el color magenta.
Al ser la modulación con portadora suprimida, es
necesario enviar una ráfaga o salva de la misma para que los generadores del
receptor puedan sincronizarse con ella. Esta ráfaga suele ir en el pórtico
anterior o inicio del pulso de sincronismo de línea. La señal de crominancia se
suma a la de luminancia componiendo la señal total de la imagen. Las modificaciones
en la fase de la señal de vídeo cuando ésta es transmitida producen errores de
tinte.
El sistema de televisión
cromática NTSC fue la base de la cual partieron otros investigadores,
principalmente europeos. En Alemania un equipo dirigido por el ingeniero Walter Bruch desarrolló
un sistema que subsanaba los errores de fase, y que fue denominado PAL (Phase Altenating Line, Línea de Fase
Alternada, por sus siglas en inglés). Para lograr este cometido, la fase de la
subportadora se alterna en cada línea. La subportadora que modula la componente
R-Y, que en el sistema PAL se llama V, tiene una fase de 90º en una línea y de 270º
en la siguiente. Esto hace que los errores de fase que se produzcan en la
transmisión (y que afectan igual y en el mismo sentido a ambas líneas) se
compensen a la representación de la imagen al verse una línea junto a la otra.
Si la integración de la imagen para la corrección del color la realiza el
propio ojo humano, entonces el sistema se denomina PAL S (PAL Simple) y si se
realiza mediante un circuito electrónico, es el PAL D (PAL Delay, retardado).
En Francia, el investigador Henri de
France desarrolló un sistema diferente, denominado SECAM (Siglas
de SÉquentiel Couleur À Mémoire, Color secuencial con memoria, por
sus siglas en francés) que basa su actuación en la trasmisión secuencial de
cada componente de color que modula en FM de tal forma que en una línea
aparece una componente de color y en la siguiente la otra. Luego, el receptor
las combina para deducir el color de la imagen. El PAL fue propuesto como
sistema de color paneuropeo en la Conferencia de Oslo de 1966. Pero no se llegó
a un acuerdo y como resultado, los gobiernos de los países de Europa
Occidental, con la excepción de Francia, adoptaron el PAL, mientras que los de
Europa Oriental y Francia el SECAM.
Todos los sistemas tienen
ventajas e inconvenientes. Mientras que el NTSC y el PAL dificultan la edición
de la señal de vídeo por su secuencia de color en cuatro y ocho campos,
respectivamente, el sistema SECAM hace imposible el trabajo de mezcla de
señales de vídeo.
La alta definición
El sistema de
televisión de definición estándar, conocido por la siglas "SD", tiene
en su versión digital, una definición de 720x576 píxeles (720 puntos
horizontales en cada línea y 576 puntos verticales que corresponden a las
líneas activas de las normas de 625 líneas) con un total de 414.720 píxeles. En
las normas de 525 líneas se mantienen los puntos por línea pero el número de
líneas activas es solo de 480, lo que da un total de píxeles de 388.800 siendo
los píxeles levemente anchos en PAL y levemente altos en NTSC.
Se han desarrollado
28 sistemas diferentes de televisión de alta definición. Hay diferencias en
cuanto a relación de cuadros, número de líneas y pixeles y forma de barrido.
Todos ellos se pueden agrupar en cuatro grandes grupos de los cuales dos ya han
quedado obsoletos (los referentes a las normas de la SMPTE 295M, 240M y 260M)
manteniéndose otros dos que difieren, fundamentalmente, en el número de líneas
activas, uno de 1080 líneas activas (SMPT 274M) y el otro de 720 líneas activas
(SMPT 269M).
En el primero de
los grupos, con 1080 líneas activas, se dan diferencias de frecuencia de cuadro
y de muestras por línea (aunque el número de muestras por tiempo activo de
línea se mantiene en 1920) también la forma de barrido cambia, hay barrido
progresivo o entrelazado. De la misma forma ocurre en el segundo grupo, donde
las líneas activas son 720 teniendo 1280 muestras por tiempo de línea activo.
En este caso la forma de barrido es siempre progresiva.
En el sistema de HD de 1080
líneas y 1920 muestras por línea tenemos 2.073.600 pixeles en la imagen y en el
sistema de HD de 720 líneas y 1280 muestras por líneas tenemos 921.600 pixeles
en la pantalla. En relación con los sistemas convencionales tenemos que la
resolución del sistema de 1.080 líneas es 5 veces mayor que el del PAL y cinco
veces y media que el del NTSC. Con el sistema de HD de 720 líneas es un 50%
mayor que en PAL y un 66% mayor que en NTSC.
La alta resolución
requiere también una redefinición del espacio de color cambiando el
espacio de color a Rec.709.
La relación de aspecto
En la década de 1990 se empezaron a desarrollar los sistemas
de televisión de alta definición. Todos
estos sistemas, en principio analógicos, aumentaban el número de líneas de la
imagen y cambiaban la relación de aspecto (relación
entre la anchura y la altura de la imagen) pasando del formato utilizado hasta
entonces de 4:3, al de 16:9. Este nuevo formato, más agradable a la vista se
estableció como norma, incluso en emisiones de definición estándar. La
compatibilidad entre ambas relaciones de aspecto se puede realizar de
diferentes formas.
1. Una imagen de
4:3 que sea observada en una pantalla de 16:9 puede presentarse de tres formas
diferentes:
- Con barras negras verticales a cada lado (pillarbox), con lo que se mantiene la relación de 4:3 pero se pierde parte de la zona activa de la pantalla.
- Agrandando la imagen hasta que ocupe toda la pantalla horizontalmente. Se pierde parte de la imagen por la parte superior e inferior de la misma.
- Deformando la imagen para adaptarla al formato de la pantalla. Se usa toda la pantalla y se ve toda la imagen, pero con la geometría alterada, ya que los círculos se transforman en elipses con su eje mayor orientado horizontalmente.
2. Una imagen de 16:9 observada
en pantallas de 4:3, de forma similar, puede ser presentada en tres formas:
- Con barras horizontales arriba y abajo de la imagen (letterbox). Se ve toda la imagen pero se pierde tamaño de pantalla. Hay dos formatos de letterbox (13:9 y 14:9) y se usa uno u otro, dependiendo de la parte visible de la imagen observada: cuanto más grande se haga, más se recorta.
- Agrandando la imagen hasta ocupar toda la pantalla verticalmente, perdiéndose las partes laterales de la imagen.
- Deformando la imagen para adaptarla a la relación de aspecto de la pantalla. Como en el caso de la relación de 4:3 la geometría es alterada, ya que los círculos se convierten en elipses con su eje mayor orientado verticalmente.
El PAL plus
En Europa
occidental, y demás países donde se utiliza el sistema PAL, se desarrolló, con
apoyo de la Unión Europea, un formato intermedio entre la alta definición y la
definición estándar denominado PALplus pero
no logró ser implantado. El PALplus
fue una extensión del estándar PAL para transmitir imágenes con relación de
16:9 sin tener que perder resolución vertical. En un televisor con relación de
aspecto 4:3, se recibe una imagen con franjas negras en la parte superior e
inferior de la misma con 432 líneas activas. Un emisor PALplus enviaba información adicional para rellenar las franjas
negras llegando a 576 líneas de resolución vertical. Mediante señales
auxiliares que iban en las líneas del intervalo de sincronismo vertical, se
indicaba al receptor PALplus si el
barrido de la imagen era progresivo o entrelazado. El sistema se amplió con el
llamado "Color plus" que mejoraba la decodificación del color.
La digitalización
A
finales de los años 1980 se empezaron a desarrollar sistemas de digitalización.
La digitalización en la televisión tiene dos partes bien diferenciadas. Por un
lado está la digitalización de la producción y por el otro la de la
transmisión.
En
cuanto a la producción se desarrollaron varios sistemas de digitalización. Los
primeros de ellos estaban basados en la digitalización de la señal compuesta de
vídeo que no tu vieron éxito. El planteamiento de digitalizar las componentes
de la señal de vídeo, es decir la luminancia y las diferencias de color, fue el
que resultó más idóneo. En un principio se desarrollaron los sistemas de
señales en paralelo, con gruesos cables que precisaban de un hilo para cada
bit, pronto se sustituyó ese cable por la transmisión multiplexada en tiempo de
las palabras correspondientes a cada una de las componentes de la señal, además
este sistema permitió incluir el audio, embebiéndolo en la información
transmitida, y otra serie de utilidades.
A finales de los años 1980 se
empezaron a desarrollar sistemas de digitalización. La digitalización en la
televisión tiene dos partes bien diferenciadas. Por un lado está la
digitalización de la producción y por el otro la de la transmisión.
En cuanto a la producción se
desarrollaron varios sistemas de digitalización. Los primeros de ellos estaban
basados en la digitalización de la señal compuesta de vídeo que no tu vieron
éxito. El planteamiento de digitalizar las componentes de la señal de vídeo, es
decir la luminancia y las diferencias de color, fue el que resultó más idóneo.
En un principio se desarrollaron los sistemas de señales en paralelo, con
gruesos cables que precisaban de un hilo para cada bit, pronto se sustituyó ese
cable por la transmisión multiplexada en tiempo de las palabras
correspondientes a cada una de las componentes de la señal, además este sistema
permitió incluir el audio, embebiéndolo en la información transmitida, y otra
serie de utilidades.
Para el mantenimiento de la
calidad necesaria para la producción de TV se desarrolló la norma de Calidad
Estudio CCIR-601. Mientras que se permitió el desarrollo de otras
normas menos exigentes para el campo de las producciones ligeras (EFP) y el
periodismo electrónico (ENG).
La diferencia entre
ambos campos, el de la producción en calidad de estudio y la de en calidad de
ENG estriba en la magnitud el flujo binario generado en la digitalización de
las señales.
La reducción del
flujo binario de la señal de vídeo digital dio lugar a una serie de algoritmos,
basados todos ellos en la transformada discreta del coseno tanto en el
dominio espacial como en el temporal, que permitieron reducir dicho flujo
posibilitando la construcción de equipos más accesibles. Esto permitió el
acceso a los mismos a pequeñas empresas de producción y emisión de TV dando
lugar al auge de las televisiones locales.
En cuanto a la transmisión, la
digitalización de la misma fue posible gracias a las técnicas de compresión que
lograron reducir el flujo a menos de 5 Mbit/s,
hay que recordar que el flujo original de una señal de calidad de estudio tiene
270 Mbit/s. Esta compresión es la llamada MPEG-2 que
produce flujos de entre 4 y 6 Mbit/s sin pérdidas apreciables de calidad
subjetiva.
Las transmisiones de TV digital
tienen tres grandes áreas dependiendo de la forma de la misma aun cuando son
similares en cuanto a tecnología. La transmisión se realiza por satélite, cable y vía radiofrecuencia
terrestre, ésta es la conocida como TDT.
El avance de la
informática, tanto a nivel del hardware como del software, llevaron a sistemas
de producción basados en el tratamiento informático de la señal de televisión.
Los sistemas de almacenamiento, como los magnetoscopios, pasaron a ser
sustituidos por servidores informáticos de vídeo y los archivos pasaron a
guardar sus informaciones en discos duros y cintas de datos. Los ficheros de
vídeo incluyen los metadatos que son
información referente a su contenido. El acceso a la información se realiza
desde los propios ordenadores donde corren programas de edición de vídeo de tal
forma que la información residente en el archivo es accesible en tiempo real
por el usuario. En realidad los archivos se estructuran en tres niveles,
el on line, para aquella información de uso muy frecuente que
reside en servidores de discos duros, el near line, información de
uso frecuente que reside en cintas de datos y éstas están en grandes librerías
automatizadas, y el archivo profundo donde se encuentra la
información que está fuera de línea y precisa de su incorporación manual al
sistema. Todo ello está controlado por una base de datos en donde figuran los
asientos de la información residente en el sistema.
La incorporación de información
al sistema se realiza mediante la denominada función de ingesta. Las fuentes
pueden ser generadas ya en formatos informáticos o son convertidas mediante
conversores de vídeo a ficheros informáticos. Las captaciones realizadas en el
campo por equipos de ENG o EFP se graban en formatos compatibles con el del
almacenamiento utilizando soportes diferentes a la cinta magnética, las
tecnologías existentes son DVD de rayo azul (de Sony), grabación en memorias
ram (de Panasonic) y grabación en disco duro (de Ikegami).
La existencia de los servidores
de vídeo posibilita la automatización de las emisiones y de los programas de
informativos mediante la realización de listas de emisión.
Tipo de
Televisión
Difusión analógica
La televisión hasta
tiempos recientes, principios del siglo XXI, fue analógica totalmente y su modo
de llegar a los televidentes era mediante el aire con ondas de radio en las
bandas de VHF y UHF. Pronto salieron
las redes de cable que distribuían canales por las ciudades. Esta distribución
también se realizaba con señal analógica, las redes de cable pueden tener una
banda asignada, más que nada para poder realizar la sintonía de los canales que
llegan por el aire junto con los que llegan por cable. Su desarrollo depende de
la legislación de cada país, mientras que en algunos de ellos se desarrollaron
rápidamente, como en Inglaterra y Estados Unidos, en
otros como España no han tenido casi importancia hasta que a finales
del siglo XX la legislación permitió
su instalación.
El satélite, que
permite la llegada de la señal a zonas muy remotas y de difícil acceso, su
desarrollo, a partir de la tecnología de los lanzamientos espaciales, permitió
la explotación comercial para la distribución de las señales de televisión. El
satélite realiza dos funciones fundamentales, la de permitir los enlaces de las
señales de un punto al otro del orbe, mediante enlaces de microondas,
y la distribución de la señal en difusión.
Cada uno de estos tipos de
emisión tiene sus ventajas e inconvenientes, mientras que el cable garantiza la
llegada en estado óptimo de la señal, sin interferencias de ningún tipo,
precisa de una instalación costosa y de un centro que realice el embebido de
las señales, conocido con el nombre de cabecera. Solo se puede
entender un tendido de cable en núcleos urbanos donde la aglomeración de
habitantes haga rentable la inversión de la infraestructura necesaria. Otra
ventaja del cable es la de disponer de un camino de retorno que permite crear
servicios interactivos independientes de otros sistemas (normalmente para otros
sistemas de emisión se utiliza la línea telefónica para realizar el retorno).
El satélite, de elevado costo en su construcción y puesta en órbita permite
llegar a lugares inaccesibles y remotos. También tiene la ventaja de servicios
disponibles para los televidentes, que posibilitan la explotación comercial y
la rentabilidad del sistema. La comunicación vía satélite es una de las más
importantes en la logística militar y muchos sistemas utilizados en la
explotación civil tienen un trasfondo estratégico que justifican la inversión
económica realizada. La transmisión vía radio es la más popular y la más
extendida. La inversión de la red de distribución de la señal no es muy costosa
y permite, mediante la red de reemisores necesaria, llegar a lugares remotos,
de índole rural. La señal es mucho menos inmune al ruido y en muchos casos la
recepción se resiente. Pero es la forma normal de la difusión de las señales de
TV.
Difusión digital
Estas formas de difusión se han
mantenido con el nacimiento de la televisión digital con la ventaja de que el
tipo de señal es muy robusta a las interferencias y la norma de emisión está
concebida para una buena recepción. También hay que decir que acompaña a la
señal de televisión una serie de servicios extras que dan un valor añadido a la
programación y que en la normativa se ha incluido todo un campo para la
realización de la televisión de pago en sus diferentes modalidades.
La difusión de la televisión digital se basa en el sistema DVB Digital Video Broadcasting y es el sistema utilizado en Europa. Este sistema tiene una parte común para la difusión de satélite, cable y terrestre. Esta parte común corresponde a la ordenación del flujo de la señal y la parte no común es la que lo adapta a cada modo de transmisión. Los canales de transmisión son diferentes, mientras que el ancho de banda del satélite es grande el cable y la vía terrestre lo tienen moderado, los ecos son muy altos en la difusión vía terrestre mientas que en satélite prácticamente no existen y en el cable se pueden controlar, las potencias de recepción son muy bajas para el satélite (llega una señal muy débil) mientras que en el cable son altas y por vía terrestre son medias, la misma forma tiene la relación señal-ruido.
La difusión de la televisión digital se basa en el sistema DVB Digital Video Broadcasting y es el sistema utilizado en Europa. Este sistema tiene una parte común para la difusión de satélite, cable y terrestre. Esta parte común corresponde a la ordenación del flujo de la señal y la parte no común es la que lo adapta a cada modo de transmisión. Los canales de transmisión son diferentes, mientras que el ancho de banda del satélite es grande el cable y la vía terrestre lo tienen moderado, los ecos son muy altos en la difusión vía terrestre mientas que en satélite prácticamente no existen y en el cable se pueden controlar, las potencias de recepción son muy bajas para el satélite (llega una señal muy débil) mientras que en el cable son altas y por vía terrestre son medias, la misma forma tiene la relación señal-ruido.
Los sistemas
utilizados según el tipo de canal son los siguientes, para satélite el DVB-S,
para cable el DVB-C y para terrestre (también llamando terrenal) DVB-T. Muchas
veces se realizan captaciones de señales de satélite que luego son metidas en
cable, para ello es normal que las señales sufran una ligera modificación para
su adecuación a la norma del cable.
En EE.UU. se ha desarrollado un
sistema diferente de televisión digital, el ATSC Advanced Television
System Committee que mientras que en las emisiones por satélite y
cable no difiere mucho del europeo, en la TDT es totalmente diferente. La
deficiencia del NTSC ha hecho que se unifique lo que es televisión digital y
alta definición y el peso de las compañías audiovisuales y cinematográficas ha
llevado a un sistema de TDT característico en el que no se ha prestado atención
alguna a la inmunidad contra los ecos.
Televisión terrestre
La difusión analógica por vía
terrestre, por radio, está constituida de la siguiente forma; del centro emisor
se hacen llegar las señales de vídeo y audio hasta los transmisores principales
situados en lugares estratégicos, normalmente en lo alto de alguna montaña
dominante. Estos enlaces se realizan mediante enlaces de microondas punto a
punto. Los transmisores principales cubren una amplia zona que se va
rellenando, en aquellos casos que haya sombras, con reemisores. La transmisión
se realiza en las bandas de UHF y VHF, aunque esta última está prácticamente
extinguida ya que en Europa se ha designado a la aeronáutica y a otros
servicios como la radio digital.
La difusión de la
televisión digital vía terrestre, conocida como TDT se realiza en
la misma banda de la difusión analógica. Los flujos de transmisión se han
reducido hasta menos de 6 Mb/s lo que permite la incorporación de varios
canales. Lo normal es realizar una agrupación de cuatro canales en un Mux el
cual ocupa un canal de la banda (en analógico un canal es ocupado por un
programa). La característica principal es la forma de modulación. La televisión
terrestre digital dentro del sistema DVB-T utiliza para su transmisión la
modulación OFDM Orthogonal
Frecuency Division Multiplex que le confiere una alta inmunidad a los
ecos, aún a costa de un complicado sistema técnico. La OFDM utiliza miles de
portadoras para repartir la energía de radiación, las portadoras mantienen la
ortogonalidad en el dominio de la frecuencia. Se emite durante un tiempo útil
al que sigue una interrupción llamada tiempo de guarda. Para ello
todos los transmisores deben estar síncronos y emitir en paralelo un bit del
flujo de la señal. El receptor recibe la señal y espera el tiempo de guarda
para procesarla, en esa espera se desprecian los ecos que se pudieran haber
producido. La sincronía en los transmisores se realiza mediante un sistema
de GPS.
La televisión
digital terrestre en los EE. UU., utiliza la norma ATSC Advanced
Television System Committee que deja sentir la diferente concepción
respecto al servicio que debe tener la televisión y el peso de la industria
audiovisual y cinematográfica estadounidense. La televisión norteamericana se
ha desarrollado a base de pequeñas emisoras locales que se unían a una
retransmisión general para ciertos programas y eventos, al contrario que en
Europa donde han primado las grandes cadenas nacionales. Esto hace que la
ventaja del sistema europeo que puede crear redes de frecuencia única para
cubrir un territorio con un solo canal no sea apreciada por los
norteamericanos. El sistema americano no ha prestado atención a la eliminación
del eco. La deficiencia del NTSC es una de las causas de las ansias para el
desarrollo de un sistema de TV digital que ha sido asociado con el de
alta definición.
alta definición.
EL ATSC estaba
integrado por empresas privadas, asociaciones e instituciones educativas. La
FCC Federal Communication Commission aprobó la norma
resultante de este comité como estándar de TDT en EE. UU. el 24 de diciembre de
1996. Plantea una convergencia con los ordenadores poniendo énfasis en el
barrido progresivo y en el píxel cuadrado. Han
desarrollado dos jerarquías de calidad, la estándar (se han definido dos
formatos, uno entrelazado y otro progresivo, para el entrelazado usan 480
líneas activas a 720 píxeles por línea y el progresivo 480 líneas con 640
píxeles por línea, la frecuencia de cuadro es la de 59,94 y 60 Hz y el formato
es de 16/9 y 3/4) y la de alta definición (en AD tienen dos tipos diferentes
uno progresivo y otro entrelazado, para el primero se usan 720 líneas de 1.280
pixeles, para el segundo 1.080 líneas y 1.920 pixeles por línea a 59,94 y 60
cuadros segundo y un formato de 16/9 para ambos). Han desarrollado dos
jerarquías de calidad, la estándar y la de alta definición. Utiliza el ancho de
banda de un canal de NTSC para la emisión de televisión de alta definición o
cuatro en calidad estándar.
Los sistemas de
difusión digitales están llamados a sustituir a los analógicos, se prevé que se
dejen de realizar emisiones en analógico, en Europa está previsto
el apagón analógico para el 2012
y en EE. UU. Se ha decretado el 17 de febrero de 2009 como la fecha límite en
la que todas las estaciones de televisión dejen de transmitir en sistema
analógico y pasen a transmitir exclusivamente en sistema digital. El día 8 de
septiembre de 2008 al mediodía se realizó la primera transición entre sistemas
en el poblado de Wilmington, Carolina del Norte.
Televisión por cable
La televisión por cable surge por
la necesidad de llevar señales de televisión y radio, de índole diversa, hasta el
domicilio de los abonados, sin necesidad de que éstos deban disponer de
diferentes equipos receptores, reproductores y sobre todo de antenas.
Precisa de una red de cable que
parte de una «cabecera» en donde se van embebiendo, en multiplicación de
frecuencias, los diferentes canales que tienen orígenes diversos. Muchos de
ellos provienen de satélites y otros son creados ex profeso para la emisión por
cable.
La ventaja del cable es la de
disponer de un canal de retorno, que lo forma el propio cable, que permite el
poder realizar una serie de servicios sin tener que utilizar otra
infraestructura.
La dificultad de tender la red de
cable en lugares de poca población hace que solamente los núcleos urbanos
tengan acceso a estos servicios.
La transmisión digital por cable
está basada en la norma DVB-C, muy similar a la de satélite, y utiliza la
modulación QAM.
Televisión por
satélite
La difusión vía
satélite se inició con el desarrollo de la industria espacial que permitió
poner en órbita geoestacionaria satélites con transductores que emiten señales
de televisión que son recogidas por antenas parabólicas.
El alto coste de la
construcción y puesta en órbita de los satélites, así como la vida limitada de
los mismos, se ve aliviado por la posibilidad de la explotación de otra serie
de servicios como son los enlaces punto a punto para cualquier tipo de
comunicación de datos. No es desdeñable el uso militar de los mismos, aunque
parte de ellos sean de aplicaciones civiles, ya que buena parte de la inversión
está realizada con presupuesto militar.
La ventaja de
llegar a toda la superficie de un territorio concreto, facilita el acceso a
zonas muy remotas y aisladas. Esto hace que los programas de televisión lleguen
a todas partes.
La transmisión vía
satélite digital se realiza bajo la norma DVB-S, la energía de las señales que
llegan a las antenas es muy pequeña aunque el ancho de banda suele ser muy
grande.
Televisión IP (IPTV)
El desarrollo de redes IP
administradas, basadas en accesos de los clientes a las mismas mediante XDSL o fibra óptica,
que proporcionan gran ancho de
banda, así como el aumento de las capacidades de compresión de
datos de los algoritmos tipo MPEG, ha hecho posible
la distribución de la señal de televisión de forma digital encapsulada en
mediante tecnología IP.
Han surgido así, a partir del año
2003, plataformas de distribución de televisión IP (IPTV) soportadas
tanto en redes del tipo XDSL, o de fibra óptica para visualización en televisor,
como para visualización en computadoras y teléfonos móviles.
Es frecuente emplear de forma
equivocada el término IPTV para con cualquier servicio de vídeo que utiliza el
Protocolo de Internet IP. En términos formales debe utilizarse únicamente para
redes gestionadas de IP. No es el caso de una red de tipo "best-effort" como Internet.
La televisión de 3D
La visión estereoscópica o
estereovisión es una técnica ya conocida y utilizada en la fotografía de
principios del siglo XX. A finales de ese mismo siglo el cine en 3D, en tres
dimensiones, era ya habitual y estaba comercializado. A finales de la primera
década del siglo XXI comienzan a verse los primeros sistemas comerciales de
televisión en 3D basados en la captación, transmisión y representación de dos
imágenes similares desplazadas la una respecto a la otra y polarizadas. Aunque
se experimentó algún sistema sin que se necesitaran gafas con filtros
polarizados para ver estas imágenes en tres dimensiones, como el de la casa
Philips, los sistemas existentes, basados en el mismo principio que el cine en
3D, precisan de la utilización de filtros de color, color rojo para el ojo derecho y cian para el ojo izquierdo,
El sistema de captación está
compuesto por dos cámaras convencionales o de alta resolución debidamente
adaptadas y sincronizadas controlando los parámetros de convergencia y
separación así como el monitoreado de las imágenes captadas para poder corregir
en tiempo real los defectos propios del sistema. Normalmente se realiza una
grabación y una posterior postproducción en donde se corrigen los defectos
inherentes a este tipo de producciones (aberraciones, diferencias de
colorimetría, problemas de convergencia, etc.).
Tipos de
Televisores
Se conoce como televisor al
aparato electrodoméstico destinado a la recepción de la señal de televisión.
Suele constar de un sintonizador y de los mandos y circuitos necesarios para la
conversión de las señales eléctricas, bien sean analógicas o digitales, en
representación de las imágenes en movimiento en la pantalla y el sonido por los
altavoces. Muchas veces hay servicios asociados a la señal de televisión que el
televisor debe procesar, como el teletexto o
el sistema NICAM de audio.
Desde los receptores mecánicos
hasta los modernos televisores planos ha habido todo un mundo de diferentes
tecnologías. El tubo de rayos catódicos, que fue el que proporcionó el gran
paso en el desarrollo de la televisión, se resiste a desaparecer al no
encontrarse, todavía, quien lo sustituya, manteniendo la calidad de imagen y el
precio de producción que éste proporciona. Las pantallas planas de cristal
líquido o de plasma no han logrado sustituirlo al dar una imagen de inferior
calidad y tener un elevado precio, su gran ventaja es la línea moderna de su
diseño. Los televisores preparados para la alta definición tampoco están
abriéndose paso al carecer de horas de programación en esa calidad y al
contentarse el usuario con la calidad de la emisión estándar.
A poco tiempo del llamado «apagón analógico» todavía son escasos los
televisores y otros electrodomésticos que se usan en televisión, como
grabadores, que incluyen el sintonizador TDT o los decodificadores para
la recepción de cable y satélite.
Algunos tipos de televisores
- Televisor blanco y negro: la pantalla sólo muestra imágenes en blanco y negro.
- Televisor en color: la pantalla es apta para mostrar imágenes en color. (Puede ser CRT, LCD, Plasma o LED)
- Televisor pantalla de plasma: plano, usualmente se usa esta tecnología para formatos de mayor tamaño.
- Televisor LED: Plano, con una pantalla constituida por LEDs.
- Televisor Holográfico: Proyector que proyecta una serie de imágenes en movimiento sobre una pantalla transparente.
Durante una conferencia de prensa
en Berlín, dentro de la feria de muestras industriales y electrónica de consumo
IFA 2009, Sony anunció sus planes de presentar avances en la experiencia de
visualización 3D para los hogares. Sony se refiere a la tecnología 3D de
algunos de sus televisores, como BRAVIA, que además de su pantalla LCD
incorporaría un sistema para reproducir contenidos en alta definición, las
imágenes 3D se verían mediante unas gafas especiales o sin estas.
Sony desarrolló la compatibilidad
de la tecnología 3D en otros modelos de televisores, además de otras unidades
como productos relacionados con Blu-ray, VAIO o la consola de videojuegos
PlayStation, de modo que sea posible ver imágenes 3D en una variedad de
contenidos multimedia reproducidos desde el televisor del hogar, como
películas, series o incluso videojuegos. Aunque empezó como avance aprovechando
la feria IFA alemana, en el año 2010 ya salieron a la venta los primeros
modelos.
Funcionalidades
Algunos televisores incluyen
funcionalidades como:
- Modo hotel: bloquea el acceso al menú, para que no se pueda cambiar nada, como descolocar o borrar canales, además de limitar el volumen para que no suba demasiado. También se pueden agregar canales especiales de los hoteles, para ayuda o servicio al cliente.
Véase También
- Portal: Televisión. Contenido relacionado con Televisión.
- On Screen Display (OSD)
Emisiones televisivas
www.es.wikipedia.org/wiki/Televisi
No hay comentarios:
Publicar un comentario