Sunteți pe pagina 1din 49

SISTEMAS DE PRODUCCIÓN AUDIOVISUAL

VIDEO DIGITAL

1.  INTRODUCCIÓN – VENTAJAS DE LA DIGITALIZACIÓN ........................................................................... 2 


2.  REPASO DE CONCEPTOS DE DIGITALIZACIÓN .................................................................................... 2 
3.  SEÑALES DIGITALES DE VIDEO: ASPECTOS IMPORTANTES ..................................................................... 6 
Frame rate ......................................................................................................................... 6 
Resolución o tamaño del video ................................................................................................. 8 
Aspecto de imagen ................................................................................................................ 8 
PAR – Pixel aspect ratio .......................................................................................................... 8 
Profundidad de color – Color a la hora de grabar ............................................................................ 8 
Color – Color a la hora de emitir .............................................................................................. 10 
Subsampling ...................................................................................................................... 12 
La norma 4:4:4 .................................................................................................................. 13 
La norma 4x4 .................................................................................................................... 13 
Las normas 2:1:0, 4:1:1 y 4:2:0 ............................................................................................... 14 
Tasas binarias de video activo de las diferentes normas ................................................................. 15 
Tabla resumen de formatos de captación ................................................................................... 15 
4.  COMPRESIÓN ....................................................................................................................... 16 
Teoría de la información ....................................................................................................... 16 
Tipos de compresión ............................................................................................................ 17 
5.  CODECS – FORMATOS DE GRABACIÓN .......................................................................................... 17 
Diferentes tipos de codecs .................................................................................................... 18 
H265 ............................................................................................................................... 21 
6.  INTERFACES PARA SEÑAL DIGITAL DE VIDEO .................................................................................. 22 
Interfaz paralelo ................................................................................................................ 22 
Interfaz serie .................................................................................................................... 23 
7.  TRAMAS DE VIDEO DIGITAL EN LA SEÑAL SDI .................................................................................. 26 
La referencia temporal......................................................................................................... 26 
El borrado del campo digital .................................................................................................. 27 
Datos auxiliares.................................................................................................................. 28 
8.  MEDIDAS EN LA SEÑAL SDI ........................................................................................................ 29 
Calidad de señal y Jitter ....................................................................................................... 29 
9.  ILUMINACIÓN ....................................................................................................................... 31 
Luz dura y luz suave ............................................................................................................ 32 
Tipos de lámparas ............................................................................................................... 32 
10. MEDIDAS EN LA SEÑAL DE VIDEO ................................................................................................ 33 
FORMA DE ONDA ................................................................................................................. 34 
RGB PARADE...................................................................................................................... 35 
HISTOGRAMA ..................................................................................................................... 36 
VECTORSCOPIO .................................................................................................................. 37 
11. UN POCO SOBRE CORRECCIÓN DE COLOR ..................................................................................... 40 
Corrección básica en Premiere ............................................................................................... 41 
Curvas ............................................................................................................................. 42 
Práctica: Corrección de videos de fuente externa......................................................................... 43 
Práctica: Corrección de videos vuestros..................................................................................... 43 
12. EQUIPOS TÉCNICOS DE VIDEO ................................................................................................... 43 
Paneles de interconexión, cables y conectores ............................................................................ 43 
Distribuidores .................................................................................................................... 47 
Matrices ........................................................................................................................... 47 
Mezcladores de video ........................................................................................................... 47 
Generador de sincronismo ..................................................................................................... 48 
Videoservidores.................................................................................................................. 48 
Conversores ...................................................................................................................... 49 
Monitorización ................................................................................................................... 49 
Conversor Video a IP ............................................................................................................ 49 

xendika@gmail.com Página 1
1. INTRODUCCIÓN – VENTAJAS DE LA DIGITALIZACIÓN
Una de las grandes ventajas de los sistemas digitales es que los defectos introducidos en la cadena de producción
pueden limitarse a los generados por los procesos de conversión A/D, suponiendo que la señal es procesada,
grabada y distribuida en formato digital.

La television digital aporta ventajas notables con respecto a la television analogica:

 Multigeneracion sin degradacion.


 Facil multiplexado de varias fuentes.
 Predecible, reproducible y de calidad constante.
 Tratamiento digital de errores.
 Facil almacenamiento, retardo y manipulacion.
 Integracion en el entorno de ordenador. Sinergia informatica.
 Mejor utilizacion del canal.
 Compresion de datos.
 Posibilidad de autodiagnosis.

Existen normas que especifican los parametros de las señales digitales compuestas y por componentes. Los
organismos reguladores mas importantes son: EBU, SMPTE e ITU-R

2. REPASO DE CONCEPTOS DE DIGITALIZACIÓN


 Se entiende por analogica aquella forma de representar la informacion que es una analogía del hecho fisico
que representa, es decir, se mantiene una similitud fisica entre el hecho y su representacion.

 Digital es toda forma de representar la informacion mediante codigos numericos preestablecidos. Estos
codigos deben ser conocidos tanto por el emisor como, por el receptor. Ademas deben estar bien adaptados
al canal de transmisión.

 La mayoria de las imagenes son en origen analogicas, por lo que se tienen que digitalizar. Las dos fases de
la digitalizacion son: el muestreo y la cuantificacion.

 El muestreo consiste en tomar muestras de la señal analogica a intervalos regulares. El numero de muestras
por segundo o frecuencia de muestreo tiene que ser, al menos, el doble del ancho de banda de la señal a
muestrear.

xendika@gmail.com Página 2
 Si no se respeta el criterio de Nyquist, se producira aliassing, que no es otra cosa que la aparición de
frecuencias fantasma, que se producen por interacción entre una señal de muestreo de frecuencia
insuficiente y la señal analogica muestreada.

 La cuantificacion consiste en codificar las muestras con un nilmero limitado de bits. Esto genera errores de
redondeo, que se conocen como "ruido de cuantificacion". El valor del ruido de cuantificacion disminuye 6
dB con cada bit extra utilizado para cuantificar las muestras. En aplicaciones profesionales es deseable una
relacion señal/ruido de cuantificacion de al menos 55 dB. Esto nos conduce a utilizar como minimo 8 bits
por muestra.

xendika@gmail.com Página 3
 El dither es una señal de ruido de bajo nivel que se suma a la señal analogica antes de la digitalizacion y
que asegura que incluso la señal mas pequeña cruzara al menos un nivel de cuantificacion.

 El filtro de reconstruccion "suaviza" la señal PAM rectangular.

xendika@gmail.com Página 4
xendika@gmail.com Página 5
3. SEÑALES DIGITALES DE VIDEO: ASPECTOS IMPORTANTES
Hasta este punto se ha estudiado la señal de video analógica, así como las limitaciones del sistema de visión
humano. Y en el punto anterior, se ha visto que a la hora de digitalizar una señal se comete un cierto error. Este
error se puede reducir dotando de más potencia al hardware de digitalización.

A la hora de trabajar con señales de video hay ciertos parámetros que van a resultar críticos:

Frame rate
A la hora de hablar de frame rate hay que especificar si se esta hablando de video progresivo o video entrelazado.

Cuando se estudiarón los sistemas analógicos, se vió como el uso del video entrelazado solucionaba el problema de
flicker debido a que una tasa de 24 frames no era suficiente para que el ser humano no percibiese el flicker que se
producía.

La verdaderá elección del formato entrelazado y el formato progresivo se produce a la hora de grabar. Para ver que
formato es preferible para el evento que se va a cubrir debemos tener en cuenta las ventajas y desventajas de
cada uno de esos sistemas:

 Ventajas del formato entrelazado:


o Mayor nitidez de movimiento: Hay que tener en cuenta que en este tipo de formato se están
tomando el doble de imágenes, y esto es importante a la hora de grabar imágenes en movimiento.

o Movimientos de cámara más rápidos: Por la misma razón es posible realizar movimientos de cámara
más rápidos cuando se emplea este formato

o A la hora de insertar títulos de credito en movimiento el efecto es más definido o continuo.

 Desventajas del formato entrelazado:


o Sólo se reproduce correctamente en los monitores CRT, en los dispositivos de pantalla plana se ve
una imagen menos nitida.

xendika@gmail.com Página 6
o A la hora de editar los videos el proceso es más complicado: Hay que fijarse en la dominancia de
campo y comprobar que las transicciones se producen en el momento adecudado. Es decir, no
partir un frame por la mitad de campo.

 Ventajas del formato progresivo:


o Hoy en día la mayoría de los dispositivos de reproducción son progresivos.

o Al no haber dominancia de campo es más fácil la edición de los videos grabados con este formato.

o Debido a que es un formato que por su reproducción es similar al cine al espectador le resulta
agradable a la hora de visualizar peliculas o series.

 Desventajas del formato progresivo:


o Los movimientos de cámara están limitados en velocidad, o lo que es equivalente los objetos
rápidos aparecen emborronados o con poca definición. A continuación se ve el efecto
extremadamente exagerado:

o De manera similar, los títulos de credito en movimiento aparecen con menos definición.

Es por esta serie de circunstancias que hoy en día pese a que se trabaja casi todo en progreviso, en las
transmisiones deportivas el frame-rate no está limitado y puede llegar a 120fps. Y se espera que según vayan
mejorando los sistemas y las técnicas de compresión el aspecto que vaya incrementandose sea los frames, y no
tanto el tamaño de la imagen.

Una vez que ya se ha tenido en cuenta ese aspecto podemos realizar una asociación entre el frame rate y el tipo de
evento que se va a grabar. Así cuando se trata de un evento deportivo en el que hay mucho movimiento es
aconsejable el uso de un frame rate alto para que de esa manera el movimiento tenga nitidez; mientras que
cuando se graba una pelicula, programa de plato o serie el frame rate no necesita ser elevado, de hecho en
ocasiones hasta se prefiere.

En la siguiente tabla se puede ver los diferentes frame rates o rango de frame rates para diferentes estándar de
TV:

PAL 25 50i
SD NTSC 29.97 / 30 59.94i / 60i
HDTV En el rango 23.976 a 60 fps
UHDTV En el rango 23.976 a 60 fps

Ya con aplicaciones específicas podemos encontrar cámaras que graban con un tasa de frames inmensa, son las
conocidas como HFR (High Frame Rate) y que podéis buscar en Youtube poniendo “Slow motion”. Son cámaras que
tienen un frame rate de unos miles.

Además hay cámaras con destinadas a aplicaciones especiales como alguna de la marca Phantom que es capaz de
grabar con un frame rate de 1Mfps, o la Femto desarrollada por el MIT que es capaz de grabar un trillón de fps.

xendika@gmail.com Página 7
Resolución o tamaño del video
El tamaño de una imagen se define en Pixels, y el tamaño va a definir si estamos trabajando en SD, HD, Cine o UHD

Indudablemente a mayor resolución más nítida será la imagen; pero en contra partida mayor será la tasa de datos
con la que hay trabajar. Por lo tanto para trabajar con resoluciones altas vamos a necesitar equipos más potentes
que los necesarios para trabajar con resoluciones bajas.

Algo similar ocurre con el espacio radioeléctrico, para mandar una señal de más resolución vamos a necesitar un
mayor ancho de banda.

En un principio se estima que ya se ha llegado a una buena resolución, y por eso tal y como se ha comentado en el
punto anterior no se espera que este parámetro se incremente en los próximos años.

Aspecto de imagen
En lo que se refiere al aspecto de la imagen, en lo que se refiere a su uso en televisión existen dos formatos: 4:3
empleado en televisión estándar, y 16:9 empleado tanto en HD como en UHD.

El cine soporta varios aspectos: 1.5:1, 1.85:1 y 2.35:1 son los más utilizados.

PAR – Pixel aspect ratio


Se puede comprobar en el ordenador, que existen varias resoluciones y que no todas ellas mantienen la relación
16:9. Y es aquí donde entra la característica de pixel aspect ratio, ya que en estos casos el pixel ya no es cuadrado,
pues si no sería imposible mantener esa relación.

Este es un aspecto que debemos tener en cuenta sobre todo cuando a la hora de editar el video deseamos meter
una imagen realizada con algún software de edición de imágenes estáticas, pues salvo excepciones todos trabajan
con Pixel cuadrado. Por lo tanto a la hora de crear la imagen deberemos tener este aspecto en cuenta, para lo que
realizaremos la siguiente operación:

Tamaño_Imagen = (Tamaño_Video) * PAR

Profundidad de color – Color a la hora de grabar


Otra característica que va a hacer la imagen más real es la profundidad de color. Ya se ha visto a la hora de
digitalizar que tenemos que pasar un valor analógico a un valor digital, es decir un valor continuo a un valor
discreto. Y por lo tanto tiene que haber una cuantificación, a mayor número de bits tengamos para expresar el
color menor será el error de cuantificación.

xendika@gmail.com Página 8
A la hora de grabar, por las propiedades del color y el funcionamiento de las cámaras lo que se hace es coger los
tres colores básicos para la mezcla aditiva, y cuantificar cada uno de ellos. Dependiendo el número de bits
podremos conseguir una paleta de más o menos colores:

En caso de que se desee realizar un Croma es importante seleccionar una profundidad de color elevada, para que
de esa manera se diferencie perfectamente el color del Croma del resto de objetos en pantalla y no haya un efecto
no deseado.

La tasa de transferencia de datos por lo tanto depende del frame rate, del tamaño o resolución así como de la
profundidad de color:

xendika@gmail.com Página 9
Color – Color a la hora de emitir

A la hora de emitir video, en lo que se refiere al color, se habla de rangos.

Por un lado existe el rango extendido, es aquel que se utiliza por ejemplo para emitir todo lo que no sea TV, como
pueden ser videos en Youtube, cine digital, … y en este caso se coge toda la escala. Es decir, se utilizan la mezcla
de los colores RGB, y cada uno de estos pueden tomar valores entre 0 y 255 (o en caso de tener mayor
profundidad, toda el rango), de hecho a este rango también se le denomina “Nivel RGB”

En el caso de la televisión, se habla del rango legal, y es que en este caso el rango esta limitado y producir un
programa en el cual no se respete este rango, no hará más que provocar que nos devuelvan el material para que
ejecutemos las correcciones necesarias. Así por ejemplo, cuando se emplea una profundidad de color de 8 bits, los
valores validos en vez de ir de 0 a 255, son los que van de 16 a 235, correspondientes a negro y blanco
respectivamente. Esos valores que no se utilizan para transmitir color, se utilizan para transmitir otro tipo de datos
como es el sincronismo, de manera que los sistemas sigan siendo compatibles con los reproductores antiguos.

A este “Rango legal” también se le conoce como “Nivel de color” y existen varias normas en función del formato de
video que se este produciendo.
 Nivel de color 601 esta asociado a la norma de emisión de televisión estándar 601
 Nivel de color 709 está asociado a la norma de emisión de televisión HD 709
 Nivel de color 2020 está asociado a la norma de emisión de televisión de UHD 2020

El CIE 1931 es un modelo basado en el matiz, saturación y luminosidad, y que representa la gama de colores que
puede ver el ser humano. Es un modelo que se utiliza como referencia para compararlo con otras gamas de colores
que se pueden representar en otros dispositivos:

xendika@gmail.com Página 10
xendika@gmail.com Página 11
Subsampling
Ya se ha comentado con anterioridad sobre la necesidad de bajar el ancho de banda de la señal, tanto para el
trabajo con los equipos como para la transmisión de la señal de video. Tener en cuenta que siempre que vayamos
aumentando el número de frames, la profundidad de color, el tamaño de la imagen, … estamos generando más
datos y esos hay que procesarlos.

Por lo tanto hay ocasiones en las que no se puede ir a una calidad de imagen como la que se desearía, pero por la
naturaleza humana, es decir aprovechando los defectos del ser humano se puede reducir el ancho de banda, sin
que a este le resulte tan perceptivo.

Lo que se hace es convertir la señal RGB, en una señal por componentes. Y a continuación se va a trabajar con ella
para tratar de reducir el ancho de banda sin que repercuta, en la medida de los posible, en la calidad.

4:2:2 es la norma basica de producción profesional yes la que emplean la mayoria de los equipos que trabajan con
componentes digitales, tales como magnetoscopios, mezcladores o generadores de efectos. Se puede decir que el
mundo profesional no acepta ninguna norma por debajo del 4:2:2, excepto en el caso de algunos magnetoscopios
utilizados principalmente en informativos. La norma 4:2:2 da origen a toda una familia de normas, que se obtienen
multiplicando o dividiendo las frecuencias de muestreo basicas.

Seria dificil, incluso para un experto, notar la diferencia entre una imagen 4:2:2, otra 4:1:1 y otra 4:2:0; la calidad
visual aparente es practicamente la misma. La diferencia está en la capacidad para ser postproducida. La norma

xendika@gmail.com Página 12
4:2:2 dispone de croma en todas las lineas y de suficiente calidad de color como para hacer cromakeys correctos,
aunque no ideales. En 4:1:1 la resolución horizontal de croma no permite hacer croma-keys aceptables.

La 4:2:0 no tiene crominancia en todas las Hneas, lo que dificulta el procesado en mezcladores, generadores de
efectos, etc.

La norma 4:4:4
Cuando se desea hacer un croma-key digital, la resolución de la crominancia de la norma 4:2:2 resulta insuficiente,
por lo que seria mas conveniente utilizar una sefial del tipo 4:4:4. El efecto de croma-key se basa en combinar una
imagen de primer plano tomada por camara con otra imagen sintetica o natural de fondo. El personaje de primer
plano se coloca sobre un fondo de color uniforme, denominado "de cromakey'. El incrustador sustituye, en la
imagen de primer plano, las zonas del color de croma-key (por ejemplo, azul saturado) por la parte
correspondiente de la imagen de fondo.

La norma 4:4:4 proporciona el maximo de información de crominancia, ya que en esta norma todos los pixeles
disponen de toda la información, es decir, cada pixel esta representado por tres valores digitales, uno para la
luminancia "Y" otro para la señal diferencia de color "R - Y" y otro para la señal "B - Y", por lo que genera cromakeys
de calidad excelente. A partir de un código 4:4:4 se puede obtener una señal del tipo 4:2:2 mediante la eliminación
de una de cada dos muestras de las sefiales diferencia de color, aunque es necesario filtrar previamente dichas
señales para evitar la aparición de aliassing.

La norma 4x4
En los generadores de efectos y paletas graficas puede ser necesario que cada pixel este representado mediante
una palabra para Y, otra para R - Y, otra B - Y y una cuarta como valor de alfa o de transparencia (valor K), de
manera que se puedan mezclar distintas imagenes, pero de forma que la imagen de fondo "se vea" a traves de la
imagen de primer piano. Es frecuente ver este efecto en los marcadores de los programas deportivos.

Puesto queen este caso cada pixel está definido por cuatro valores (Y, CB, CR y K), esta norma se conoce como
4:4:4:4 o, abreviadamente, 4 X 4. El Ultimo valor es una variable, que puede ir desde 0 (totalmente opaco) hasta
255 (totalmente transparente). En ocasiones el valor de transparencia se conoce como "canal alfa".

xendika@gmail.com Página 13
Las normas 2:1:0, 4:1:1 y 4:2:0
Cuando se desea reducir el tren binario (como, por ejemplo, en aplicaciones ENG o para la transmisión digital de
señales) se puede recurrir a distintas estrategias de submuestreo, tales como 2:1:1, 4:1:1 ó 4:2:0/4:0:2.

La norma 4:2:0 consiste en submuestrear las señales diferencia de color, pero en la dirección vertical, de forma
que en una linea no se toman muestras de B-Y, mientras que en la línea siguiente se omiten las muestras
correspondientes a R-Y. Algunos sistemas que utilizan 4:2:0 como esquema basico de muestreo son: DVD, el sistema
de compresión MPEG-2 y DVB (Digital Video Broadcasting). Debido a que el objetivo de esta norma es reducir la tasa
de transferencia, no es normal utilizar resoluciones de 10 bits.

Todas estas variantes de calidad inferior pueden obtenerse submuestreando una señal 4:2:2. El problema es que,
cuando haya frecuencias de video, por encima de la mitad de la nueva frecuencia de muestreo, se producira
aliassing. La solucion consiste en filtrar digitalmente la señal de video antes del submuestreo. Igualmente es
posible la conversion hacia arriba. Por ejemplo, pasar de una señal 2:1:1 a otra 4:2:2, inventando nuevas muestras
por simple duplicacion o por promediado, aunque en este caso la calidad de la imagen sigue siendo la de la norma
original.

xendika@gmail.com Página 14
Tasas binarias de video activo de las diferentes normas
En la siguiente tabla se muestra la tasa de transferencia necesaria para cada una de las normas. Se representa la
resolución de 8 bits que define la norma básica, así como la resolución de 10 bits que se emplea para aumentar las
capacidades de postproducción.

4:2:2 4:1:1 y 4:2:0 4:4:4 4x4


Muestras por línea 720:360:360=1440 720:180:180 =1080 720:720:720 = 2160 720 x 4 = 2880
Lineas por imagen 576 576 576 576
Imagenes por segundo 25 25 25 25
Profundidad de color 8 8 8 8
Flujo activo 166 Mbits/s 125 Mbits/s 250 Mbits/s 332 Mbits/s
Flujo total 216Mbit/s 177Mbit/s
Profundidad de color 10 10 10 10
Flujo activo 208 Mbits/s 155.5 Mbits/s 311 Mbits/s 415 Mbits/s
Flujo total 270Mbit/s

Como se puede comprobar, gracias al sumuestreo ya hemos conseguido reducir la tasa de transferencia.

Tabla resumen de formatos de captación

xendika@gmail.com Página 15
4. COMPRESIÓN
Una producción normal de TV genera unos 200 Mbits/s. Tal frecuencia binaria requiere grandes capacidades de
almacenamiento y enormes anchos de banda para su transmisión. La utilización masiva del video digital solo será
una realidad si se reducen las necesidades de almacenamiento y de ancho de banda. Este es justamente el
propósito de la compresión.

Casi todas las aplicaciones actuales emplean compresión. Formatos de magnetoscopios como el Betacam Digital,
DVCPRO, DVCAM, DIGITAL-S, Betacam SX o MPEG-IMX, soportes multimedia como el DVD, sistemas de televisión
digital, como ATSC o DVB, etc., todos ellos utilizan la compresión de datos para proporcionar más y mejores
Servicios. Es, por tanto, necesario conocer los principios básicos, las técnicas y los trucos que permiten, por
ejemplo, reducir desde 200Mbits/s a solo 6 Mbits/s un tren binario sin que apenas sufra la calidad de la imagen
en movimiento.

Teoría de la información
La información de las imágenes de video puede dividirse en tres partes:

• El elemento redundante: Información repetitiva o predecible. Una señal de video contiene mucha información
redundante. Un pixel tiende a parecerse a sus vecinos (redundancia espacial). Una imagen tiende a parecerse a la
que le precede ya la que le sigue (redundancia temporal).
 Redundancia en tres dimensiones / Redundancia estadística:
o Redundancia vertical y horizontal: Un pixel tiende a parecerse a sus vecinos (redundancia
espacial)
o Redundancia temporal: Una imagen tiende a parecerse a la que le precede ya la que le sigue.

 Reduncancia perceptual: las imágenes de televisión contienen información real, no repetitiva ni


predecible, pero que el sistema de percepción visual humano no es capaz de apreciar o, dicho de otra
forma, que si se elimina, la calidad subjetiva de la imagen no empeora o apenas lo hace.

• El elemento irrelevante: Información que el ojo humano no es capaz de apreciar.

• El elemento básico: Información que no es redundante ni irrelevante y que debe retenerse.

xendika@gmail.com Página 16
Toda imagen contiene una cierta cantidad de redundancia, la cual se define como aquellos datos que son
repetitivos o predecibles. La diferencia entre la cantidad total de datos de un mensaje y su redundancia se conoce
como "entropía".

La compresión pretende reducir (idealmente eliminar) tanto la redundancia como la información irrelevante.
Desgraciadamente, las fronteras entre estos tres elementos son borrosas, en especial entre irrelevante y
perceptualmente básica

La redundancia no es siempre mala, ya que, por otra parte, da seguridad al mensaje. De hecho, a la hora de
proteger un mensaje contra posibles errores del canal de transmisión, grabación, etc., todos los sistemas añiaden
una cierta cantidad de redundancia (debidamente calculada) a los datos originales

Tipos de compresión

5. CODECS – FORMATOS DE GRABACIÓN


A la hora de seleccionar un codec con el que trabajar nos vamos a centrar en tres aspectos:
1. Profundidad de color
2. Compresión
3. Subsampling o submuestreo

https://www.digitalrebellion.com/webapps/videocalc

Lo primero que hay que tener en cuenta es que el Codec viene con la cámara, ya que esta entrega ya el material
con un codec. Por lo tanto, a la hora de seleccionar un codec u otro, de alguna manera se está diciendo que lo que
se está seleccionando es la cámara.

Posteriormente a la hora de exportar el material de un software a otro para trabajar con el, quizás nos veamos en
la necesidad, o sea recomendable trasnscodificar el proyecto, por lo tanto en ese momento también deberemos
seleccionar un codec, pero que viene ya limitado por la cámara que se selecciono. Por lo tanto a la hora de
seleccionar la cámara o el codec inicial también necesitamos tener esto en cuenta.

Es decir, yo se que cada vez que necesito realizar una transcodificación voy a tener una pérdida en la calidad de la
señal, si necesito realizar varias transcodificaciones y parto de un Codec de calidad “limitada” lo más probable es
que el material final no tenga una calidad suficiente.

xendika@gmail.com Página 17
Diferentes tipos de codecs
CODECS DISPONIBLES EN LA CÁMARA CODECS DISPONIBLES EN LA CAPTURADORA INTENSITY
PRO 4K

AVC-Intra, AVCHD, Canon XF MPEG2, Digital SLR, DV-


NTSC, DV-PAL, DVCPRO50, DVCPRO-HD, DPX, HDV,
XDCAM EX, XDCAM HD, XDCAM HD422, DNxHR y DNxHD,
ProRes 4444, ProRes 422 HQ, ProRes 422, ProRes LT,
ProRes 422 Proxy, 4:2:2 de 8/10 bits sin compresión y
4:4:4 de 10 bits sin compresión.

DV

Developed in 1994, tape based format, consumer and semipro level, recording on the DV cassette, entry level, low
cost operation, JPEG-similar compression image by image, data rate 25 Mbps
NTSC: chroma subsampling 4:1:1, 720 x 480 pixels
PAL: chroma subsampling 4:2:0, 720 x 576 pixels
DV is always an interlaced video signal, starting with the second (!) line ("second" field) first.
For the 16:9 format the image is anamorphically stretched.

Audio: DV1 with 32kHz sampling and 12bit quantization, DV2 with 48kHz sampling and 16bit quantization.

HDV

Developed from Sony and JVC, tape based format on standard DV cassette, entry level, low cost operation, MPEG-2
compression, data rates 19Mbps (720p), 25Mbps (1080i), 4:2:0
HDV1: 1280 x 720p, frame rates 25p, 50p, 30p, 60p, 24p, MPEG-2, long GOP (six frames), the data rate is 19Mbps
HDV2: 1440 x 1080i, frame rates 25i, 50i, 30i, 60i, MPEG-2, long GOP (12 or 15 frames), interlaced format with the
first, uneven, line first (first field first). The 1440 horizontal pixels are stretched in the ratio 1:1,33 (non-quadratic
pixels), to generate a 16:9 image format.

XDCAM EX

Developed by Sony, tapeless format, MPEG-2 data compression, entry level for tapeless recording, media: SxS PRO
memory card,1080 or 720. Recording medium: professional optical disc recording media is a 12cm (5 inch) single-
sided, rewritable optical disc with a capacity of 50GB or SxS memory card. A 16GB SxS records approximately one
hour of video in the format XDCAM EX, card data transfer up to 800 Mbps.

XDCAM HD mpeg HD

Developed by Sony, tapeless format, MPEG-2 data compression, 1080, recording rates: 18Mbps, 25Mbps, 35Mbps, up
to 50Gb dual layer professional disk, all-digital, file-based workflow from video acquisition through editing.
Recording medium: professional optical disc recording media is a 12cm (5 inch) single-sided, rewritable optical disc
with a capacity of 50GB or SxS memory card.

XDCAM HD mpeg HD422

Developed by Sony, tapeless format, MPEG-2 data compression, top range of XDCAM, up to 50Mbps, 1920x1080
resolution, 14 bit AD conversion, 4:2:2 recording

DVCPRO HD

Format developed by Panasonic, tape based, also called D7-HD, same tape as used for DVCAM and DVCPRO,
formats: 720/60p, 1080/60i, 1080/24p in development, compression rate 6.7:1, 10-bit, 8 audio channels

D5 HD

xendika@gmail.com Página 18
Format developed by Panasonic, tape based, 720/60p, 1080/24p, 1080/60i and 1080/30p, compression rates 4:1 in
8-bit mode and 5:1 in 10-bit mode, 8 audio channels

AVCHD

'Advanced Video Codec High Definition', developed by Panasonic and Sony for consumer camcorders using highly
efficient codec technologies, formats 1080i and 720p, recording on SD Memory Card or Harddisk, MPEG4-AVC
(H.264) video compression at a maximum of 24 Mbps, audio stream as AC-3, no uncompressed linear PCM audio is
supported, video, audio, subtitles and ancillary streams are multiplexed together into an MPEG-2 transport stream
that is stored as binary files.
pixel formats: 1920x1080i, 1440x1080i, 1280x720p, 720x480i, 720x576i, compression format: MPAG-4 AVC / H.264.
The recorded format of 1440×1080 is upsampled to 1920×1080.

HDCAM

Developed by Sony and introduced in 1997, tape based format, high quality professional broadcast recording
format, HDCAM is the HD version of Digital Betacam, 24PsF, 25PsF, 50i and 60i. The recorded format of 1440×1080
is upsampled to 1920×1080. The bit rate is 144 Mbps

HDCAM SR

Developed by Sony and introduced in 2003, tape based format, top professional broadcast recording format used by
most top broadcast facilities, defined in the standard SMPTE 409M-2005, 4:4:4 recording, bit rate of up to 880Mbps,
12 uncompressed audio tracks uncompressed at 24bit 48kHz.

MPEG

stands for 'Moving Picture Experts Group', the organization that developed a set of standards for video and audio
compression and multimedia delivery.

MPEG-1 H.261

was designed in 1990 for coding progressive video at a transmission rate of about 1.5 Mbps for videoconferencing,
Video-CD and CD-i media. The audio standard MP3 has also evolved from the MPEG-1 (audio layer-3).
Files with the .mlv extension are usually elementary streams that contain only video information. Files with the
mpeg and mpg extension usually contain MPEG-1 encoded video and MP2 (MPEG-1 Layer II) encoded audio.
(The file extensions mpeg and mpg are not exclusively MPEG-1, but used for MPEG-2 content too.)
Image formats 176 x 144 or 352 x 288 pixels at a data rate of 128 and 384 kbps, color subsampling 4:2:0, YCbCr.

MPEG-2 H.262

was designed in the mid 1990s for coding interlaced images at transmission rates above 4 Mbps and is/was the
general format for SD digital TV broadcast and DVD. The compression rate for MPEG-2 video can be low as 2 Mbps,
but the recommendation of the European Broadcast Union (EBU) is a minimum compression rate of 10 Mbps. To
achieve lower compression rates with acceptable results the newer compression format MPEG-4 Part 10 should be
used (see below).
Still now (2010) the overwhelming majority of on-air tv channels uses MPEG-2 as the compression method of choice.
To move from MPEG-2 to MPEG-4 all STBs (set top boxes) of the tv watching clients must be changed. This makes
sense with the introduction of new channels but is often hard to achieve with an otherwise not changed tv channel
(audience acceptance).
Best pragmatic approach is to use multiplexers which can handle both MPEG-2 and MPEG-4 streams at the same
time.

H.263

enhancement of H.261, standardized in 1995/96, mostly for videoconferencing


Image format 352 x 288 pixels

MPEG-3

was intended for High Definition TV (HDTV), but it became apparent that the MPEG-2 standard met the HDTV
requirements.

xendika@gmail.com Página 19
MPEG-4

MPEG-4 does not define specific transport layers. The adaptation to existing transport layers has been defined as
transport over MPEG-2 Transport Stream and transport over IP.
The MPEG-4 format allows the hybrid coding of pixel-based natural images and video together with computer
generated synthetic scenes. Video can be progressive or interlaced. Resolution can be up studio resolution of 4000
x 4000 pixels.

MPEG-4 Part 1
Version 1 was approved by MPEG in December 1998.

MPEG-4 Part 2 H.263


Version 1 was approved by MPEG in December 1999. MPEG-4 Part 2 is the standard for the Sony HDCAM SR recording
format.

MPEG-4 / Part 10, ISO/IEC 14496-10, AVC (Advanced Video Coding) / H.264

The MPEG-4/Part 10, AVC video compression format is identical with the ITU-I standard H.264. Both (MPEG and ITU)
worked together on this standard in the so-called "joined video team". The standard was finally published in 2003.
Special features of this compression standard in comparison to MPEG-2 are:
- the ability to use multiple reference pictures, up to 16 frames or 32 fields,
- implementation of multiple motion vectors,
- improved entropy encoding with statistical data to predict picture details
- up to 50% data reduction can be achieved in comparison to the former MPEG-2 standard

H.264 is used for BluRay and HD TV via DVB-S2.

MPEG-4 Part 12
On the basis of the MPEG-4 format, in 2004 the ISO Base Media File format was defined, which is the basis for file
formats like 3GP and Motion JPEG 2000.
The ISO Base Media File Format was published as the MP4-Family by Apple, named in Annex D in MPEG-4 Part 12.

MPEG-4 Part 14
Revised standard, published in 2003 and 2004 (ISO/IEC 14496-14:2003, ISO/IEC 14496-12:2004). MPEG-4 Part 14 is
based on the MOV Quicktime container format (developed by Apple). It is basically identical with the MOV format
with additional features.
MPEG-4 Part 14 has replaced the initial MPEG-4 Part 1 standard, published in 2001 (ISO/IEC 14496-1:2001) based on
the very first MPEG-4 standard developed in 1999 (ISO/IEC 14496-1:1999).
The MPEG-4 Part 14 format is a container format that can contain any number of video, audio and/or subtitle
streams. The file extension will not determine the types of streams in the container.
The official file extension was introduces as .mp4, but the extension .m4a (introduced by Apple) can be used in
exchange. These could be video and/or audio files.
The file extension .m4v was originally introduces for raw video files but is used also for general video files in the
MP4 container.

MPEG-4, Network Abstraction Layer


Introduced in 2007, enables scalable video coding. The program is coded into different layers within one bitstream
and different layers of the stream can be used by different receiving devices (base and enhancement layers). Low
resolution decoders only need to decode the elements needed for the desired image resolution. Higher resolution
decoders choose the appropriate parts of the stream. Basic services can be updated without downloading the entire
stream again by just download the needed additional parts. In a scalable codec each layer is coded with standard
MPEG-4 AVC tools.

MPEG Transport Streams (TS)

The Transport Stream is a container for multiple video, audio and meta data streams. The concept of transport
streams was developed for less reliable transmission in comparison to Program Streams for more robust formats like
DVD etc.
The Program Stream results from combining one or more Packetised Elementary Streams (PES) with a common time
base, the Transport Stream combines one or more Packetised Elementary Streams (PES) with independent time
bases into a single stream.
The transport stream concept is used for all transmission of video with more than one audio stream but can be used
for multiple video streams at the same time too. These streams are multiplexed and can be re-played

xendika@gmail.com Página 20
simultaneously.

The transport stream is identified by Packet IDs to communicate with the multiplexer what streams are included in
the multiplexed signal. A PMT (Program Map Table) lists all elementary streams with their Packet IDs.

Formats for Mobile Video Devices

ATSC M/H 416 x 240 WQVGA


DVB-H (MPEG-4/AVC Level 1.2) 288 x 352 CIF
832 x 480 WVGA
624 x 360 3/4 WVGA (nHD)

3GP

3GP is a variation of the MPEG-4 Part 12 format used for mobile phones etc. The file extension is normally .3gp or
.3g2.

WebM

WebM is Google's implementation of the VP8 format, developed by On2. WebM should be comparable to the codec
H.264 both in quality and in performance, with a slightly higher visible quality of movies coded with H.264.
WebM is a royalty-free media file format, especially developed for web use.

H264

H265

xendika@gmail.com Página 21
6. INTERFACES PARA SEÑAL DIGITAL DE VIDEO
Puede parecer que una interace paralelo es la más adecuado para transmitir grandes tasas de transferencias de
datos en poco tiempo, sin embargo, cuando las distancias son largas este tipo de interfaz presenta dos desventajas
importantes:

1. El cable multicore es caro y los conectores demasiado grandes.


2. Es dificil lograr un buen apantallamiento de un cable multicore sin que se torne demasiado rigido y,
ademas, existen problemas electronicos asociados con este tipo de cables. Por ejemplo, la velocidad de
propagacion de los pulsos en el interior de cada cable debe ser exactamente la misma. Tambien se puede
producir intermodulacion o diafonía entre los conductores.

La solucion a estos problemas es la conexion serie, en la cual todos los bits que representan las muestras de video
son colocados uno detras de otro formando una señal electrica que debe ser, ademas, autosincronizable. La
frecuencia de bits del interfaz serie es elevada (mas de 200 Mb/s), es posible transmitir la informacion digital serie
por un cable coaxial como los que se emplean para la señal analogica.

Aunque el ahorro en el cable es obvio, la complejidad de la electronica asociada es muy superior, ya que se
necesitan registros de desplazamiento y multiplexores de alta velocidad, tanto en el equipo emisor como en el
receptor. Hoy en día, esto no es ninguna limitación, y de echo ha habido una transformación hasta en los interfaces
internos de los equipos, como es en el caso de los ordenadores.

Interfaz paralelo
El interfaz paralelo de la UER para señales por componentes digitales se corresponde con otra norma del SMPTE
(ANSI/SMPTE 125M-1992). Este interfaz esta previsto para conectar solo dos equipos, puesto que no presenta
estructura de bus, y con una distancia límite de 40m. Los datos transmitidos por el interfaz corresponden a:

 Las señales de video (Y, R-Y, B-Y)


 Las señales de referencia temporal.
 Los datos auxiliares
 Las señales de identificación.

Estas señales se multiplexan en el tiempo y se transmiten como señales NRZ. Este interfaz emplea un conector de
25 pins, cuya asignación se muestra en la figura siguiente. Si solo se utilizan 8 bits, los dos menos significativos se
ponen a cero. Los 2 bits opcionales se denominan DATO-1 y DATO-2 y se refieren a la potencia de dos que
representan, es decir, 2-1 y 2-2. De esta forma se mantiene la compatibilidad entre la notaci6nes de 8 y 10 bits.

Los datos de video se multiplexan con una frecuencia de reloj de 27MHz: 13.5MHz + 6.75MHz + 6.75MHz , en el
orden siguiente:

xendika@gmail.com Página 22
Como se puede ver en la imagen anterior, las tres primeras palabras corresponden al mismo pixel, y luego viene
una palabra de luminancia correspodiente al pixel siguiente.

Interfaz serie
Esta interfaz consiste en una conexión unidireccional entre dos equipos, en la que palabras de 10 bits se transmiten
formando un único tren binario, por un cable coaxial de un único conductor terminado en un conector BNC

La velocidad binaria del interfaz serie será de varía en función del estándar que se está empleando, es decir,
similar a la categoría en cableado estructurado de redes de datos. Así tenemos los siguientes estándar, validos para
diferentes formatos de TV:

ESTÁNDAR NOMBRE FECHA APARICIÓN BITRATES FORMATOS DE


VIDEO

270 Mbit/s,
SMPTE 259M SD-SDI 1989 360 Mbit/s, 480i, 576i
143 Mbit/s, and
177 Mbit/s

SMPTE 344M ED-SDI 540 Mbit/s 480p, 576p

SMPTE 292M HD-SDI 1998 1.485 Gbit/s, and 720p, 1080i


1.485/1.001 Gbit/s

SMPTE 372M DUAL LINK HD-SDI 2002 2.970 Gbit/s, and 1080p60
2.970/1.001 Gbit/s

SMPTE 424M 3G-SDI 2006 2.970 Gbit/s, and 1080p60


2.970/1.001 Gbit/s

SMPTE ST-2081 6G-SDI 2015 6 Gbit/s 2160p30

SMPTE ST-2082 12G-SDI 2015 12 Gbit/s 2160p60

SMPTE ST-2083 24G-SDI 24 Gbit/s 2160p120

xendika@gmail.com Página 23
Como se puede apreciar en la siguiente imagen, a la hora de transmitir las diferentes palabras, primero se manda
el bit de menor peso:

Los datos entran en formato paralelo en el registro de desplazamiento a una velocidad de 27 Mpalabras/s y salen en
serie a una cadencia de 270 Mb/s. El circuito aleatorizador suma los datos de entrada, con una secuencia aleatoria,
pero predecible de ceros y unos. La salida del aleatorizador se hace pasar por un circuito, mediante el cual los unos
se convierten en transiciones y los ceros en no transiciones. A la salida del circuito aleatorizador la señal serie
presenta las siguientes caracteristicas:

 La componente continua es cero o muy cercana a cero, ya que la señal se encuentra en estado alto
aproximadamente el mismo número de veces que en bajo.

 No contiene bajas frecuencias, puesto que no hay largas cadenas de ceros o unos.

 Es autosincronizable, ya que se asegura la presencia de flancos o transiciones cada pocos periodos de bit.

 Puesto que el estado lógico de los bits se basa en la detección de flancos y no de niveles, este interfaz es
insensible a los cambios de polaridad, es decir, la información leída es la misma, con independencia de que
se cambie la polaridad de los cables

xendika@gmail.com Página 24
xendika@gmail.com Página 25
7. TRAMAS DE VIDEO DIGITAL EN LA SEÑAL SDI
Todos los parámetros de ambas interfaces (la señal de video, las señales de referencia temporal, los datos
auxiliares y las señales de sincronización) coinciden. Como se ha visto en el punto anterior, la única diferencia es
la forma en la que se transmiten los datos y las características eléctricas de ambos interfaces.

En el punto correspondiente a los interfaces, ya se ha comprobado como se mandan los datos de video activo,
veamos a continuación como se mandan el resto de señales.

La referencia temporal
La señal de referencía temporal en el interfaz digital hace el mismo trabajo que los sincronismos en el caso de la
señal analogica. Puesto que en el caso de las señales digitales no se puede establecer la diferencia entre los datos
de video y los sincronismos en funcion del nivel (solo hay dos niveles y se corresponden con los ceros y unos), tal
diferenciacion se hace prohibiendo ciertas secuencias binarias para la representaci6n de las muestras activas, de
forma que cuando tales secuencias binarias aparezcan, el equipo sabra que se esta iniciando una secuencia de
sincronización. En los interfaces digitales estas secuencias se conocen como Time Reference Signals o TRS.

Existen dos señales de referencía temporal por cada línea digital. La primera se localiza al inicio de la línea digital
y se denomina EAV (End ef Active Video). La segunda se localiza al inicio de la parte activa de la línea digital y se
denomina SAV (Start ef Active Video). Ambas se encuentran, por tanto, en el borrado de la línea digital y ambas
estan formadas por cuatro palabras, que podran ser de ocho o diez bits. El espacio comprendido entre EAV y SAV
puede usarse para datos auxiliares, tales como audio digital, datos de identificación de equipos o sistemas de
comprobación de errores.

Las cuatro palabras de referencía temporal tienen los valores hexadecimales siguientes: FF 00 00 XY, donde las tres
primeras palabras forman un preambulo fijo, mientras que la ultima es una variable, en la que el primer bit es un
"1" fijo. A continuaci6n aparecen los bits "F", "V" y "H", los cuales tienen el siguiente significado:

xendika@gmail.com Página 26
El borrado del campo digital
Para evitar tener que utilizar medias líneas, la supresion de campo digital empezara y terminara, respectivamente,
al principio y al final de una supresion de línea digital. De esta forma el borrado del campo digital 1 durara 24
líneas, mientras que el borrado del campo digital 2 durara 25 líneas. Esta es la razon por la que el número de líneas
activas por imagen en la norma digital es de 576, en lugar de las 575 a que estamos acostumbrados en el caso de la
señal analogica.

xendika@gmail.com Página 27
Datos auxiliares
Se definen como datos auxiliares todos aquellos que pueden ser ubicados en un interfaz de video y que no
representan información de la imagen activa o de sincronización de video. El número de aplicaciones que se puede
dar a los datos auxiliares es ilimitado. Por el momento, se han definido y normalizado cuatro aplicaciones: audio
insertado en video, SDTI (una ampliación del SDI para señales comprimidas), EDH (deteccion y tratamiento de
errores) y codigo de tiempo. Otras aplicaciones se encuentran en estudio, como informacion de identificacion de la
fuente e informacion del tipo de plano. Todas estas aplicaciones se basan en el aprovechamiento de parte del
espacio dejado sin utilizar en los borrados horizontal y vertical.

Los datos auxiliares que se ubican entre las señales de referencía temporal EAV y SAV, ocupando la practica
totalidad del borrado horizontal se denóminan HANC. El borrado vertical es ocupado por los datos auxiliares, que
en este caso se denominan VANC.

Asi la capacidad total, sumando HANC y VANC, se eleva a unos 56 Mbits/ s, lo que supone un 21 % o, si se prefiere,
una quinta parte del total de datos del SDI. Esto permitiria hasta 36 canales de audio digital insertado o 18 pares
AES/EBU, aunque nadie utiliza tal capacidad.

Cada paquete de datos se inicia con una bandera de datos auxiliares (ADF), cuyo valor está prohibido para la
representacion de las muestras de video. A continuacion aparece un identificador (DID), que indica el tipo de datos
que contiene el paquete (audio digital, EDH, etc.). El número de bloque (DBN) es una palabra opcional, que puede
usarse para proporcionar un conteo secuencial a los paquetes, lo que permitiria al receptor determinar si se ha
perdido algiln paquete. Por ejemplo, durante la conmutacion de dos fuentes de video puede perderse algún
paquete de los que van incluidos en el intervalo vertical. En este caso el receptor procesaria los datos de audio
para evitar el "clic" audible que se produciria en este tipo de transicion. La siguiente palabra es el contador de
datos, el cual indica el número de palabras que forman los datos utiles. A continuacion vienen los datos de usuario,
que es la informacion util para aplicaciones que puede colocarse en el paquete y que perrnite un maximo de 255
palabras de 10 bits. La última palabra del paquete es una palabra especial (Check Sum), que se obtiene mediante
una suma ponderada, definida por un polinornio, de los datos del paquete y que perrnite la comprobacion de
eventuales errores de transrnision.

xendika@gmail.com Página 28
8. MEDIDAS EN LA SEÑAL SDI
A la hora de medir señales en la señal digital, tenemos los mismos parámetros que se podían estudiar en cableado
estructurado:

 Retardo de propagación (Propagation delay): Es el tiempo que necesita una señal para surcar un medio. Es
decir se calcula como la distancia del medio entre la velocidad de propagación de la señal en dicho medio.

 Tiempo de transmisión (Transmission delay): Es el tiempo necesario para enviar un paquete de


información. Este tiempo dependerá del tamaño del paquete.

 Latencia: Es el tiempo que necesita una señal para pasar de una parte de la cadena de comunicación a
otra. Por lo tanto es la suma de los tiempos de propagación y de transmisión. Es decir, podría ser el tiempo
necesario para que necesita la señal de video para salir por la salida programa desde que metemos la señal
de una cámara por la entrada. O se puede hablar de la latencia entre dos puntos de la cada., por ejemplo
desde que se captura la imagen hasta que se monitoriza la salida.

Calidad de señal y Jitter

En un mundo perfecto seguro que si mandásemos una señal cuadrada compuesta por 1’s y 0’s, llegaría a su destino
sin ser alterada. Lamentablemente eso no es así, y la señal llega algo distorsionada.

Además como acabamos de ver en el punto anterior con leves alteraciones en el tiempo. De modo que si nos
dedicamos a mandar una señal como la que se puede ver en la siguiente figura, nos vamos alejando de la señal
cuadrada que estabamos mandando perfectamente sincronizada con el reloj.

xendika@gmail.com Página 29
Esto sin duda alguna afecta, pues al recibir la señal esto empieza a ser un poco como el teléfono estropeado y hay
que hacer una ingeniería inversa para saber lo que decía el emisor.

En SDI el Jitter se mide como un tamaño relativo al tamaño del símbolo. Es decir si el retardo es suficiente pequeño
comparado con el tiempo del símbolo no hay problema.

Format Standard Bandwidth Unit Interval


SD-SDI 525i/575i NTSC/PAL SMPTE 259M 270 Mbps 3700 picoseconds
HD-SDI 1080i SMPTE 292M 1,485 Gbps 670 picoseconds
3G-SDI 1080p SMPTE 424M 2,970 Gbps 340 picoseconds

Para medir el Jitter o la calidad de la transmisión digital se suele utilizar el diagrama de ojo. Lo que representa
este diagrama como se puede ver en la siguiente imagen es una sucesión de bits, superpuestos unos sobre otros:

De manera similar a como hacíais con el medidor de campo, hay aparatos específicos para realizar estas medidas y
comprobar su validez:

xendika@gmail.com Página 30
9. ILUMINACIÓN
Como se puede comprobar con la cámara, en función de la escena que configuremos en ésta, la imagen tendrá un
color u otro. Eso es debido a que la la iluminación influye en el color reflejado de los objetos a los cuales ilumina.
Es decir, en un principio no es el mismo blanco el de un folio que está iluminado bajo una luz incandescente, bajo
una luz fluorescente o bajo el sol.

Ahhh! Pues yo lo veo igual siempre.

Tranquilo, tu y todo el mundo. El cerebro que es el encargado de interpretar todo, nos lleva a engaño y hace que lo
veamos blanco. El caso es que las cámaras no tienen un cerebro tan juguetón como el nuestro, y a ellas no les
engaña. De manera que ven la hoja de diferente color. Así en la siguiente imagen se puede apreciar lo que ve la
cámara en función de la iluminación que le estemos diciendo que existe:

En base a la siguiente tabla y a que la imagen más similar a la obtenido con “Auto” es la correspondiente a 4500ºK,
se puede determinar que la imagen fue tomada en un día de “Luz de día normal” o incluso “El sol de mediodía”

xendika@gmail.com Página 31
Esto es algo a tener en cuenta al grabar en exteriores, pues como se puede ver según sea la hora del día y la
nubosidad la temperatura de color varía.

Se denomina luz calida a la luz de tono anaranjado


Se denomina luz fria a la luz de tono azulado.

Luz dura y luz suave


Además de la temperatura de color, otro aspecto que se debe tener en cuenta a la hora de escoger un tipo de luz
es si esta es dura o suave.

 Luz dura: Esta se caracteriza por sus sombras sumamente oscuras y con bordes marcados. Podremos
observar que las fotos que tienen este tipo de iluminación tienen mayor contraste, y el efecto se ve más
dramático. Para obtener este tipo de iluminación se utiliza una luz directa que no tenga modificadores.

 Luz suave: Esta iluminación se caracteriza por verse más natural. Esto se debe a que la transición de las
sombras es muy sutil y da la impresión de que no hay luces artificiales. Para lograr este efecto deberás
utilizar una fuente de luz amplia y difuminada. Esto lo puedes lograr utilizando difusores, rebotando un
flash, o usando la iluminación del ambiente en las horas de la mañana o la tarde.

Tipos de lámparas
Hay lámparas de diferente tamaño y potencia, y se fabrican en diversas tecnologías:
 Tungsteno: Son las lámparas comunes, las cuales tienen un filamento incandescente en el interior de una
ampolla de vidrío al vació.
 Halógeno: Lámpara de incandescencia con ampolla de cuarzo rellena de gas halógeno. Alcanzan altas
temperaturas y proporcionan una luz con mayor temperatura de color que las lámparas de tungsteno. No es
una temperatura de color muy bonita, y por ello su uso suele estar limitado a entrevistas. Se recomienda su
uso con papel difusor o sticko.
 Halogenuro metálico (HMI): Similares a las lámparas halógenas, pero con dos electrodos entre los que se
producen descargas sustituyendo al filamento incandescente presente de las lámparas de halógeno. Debido
a esto, necesita de un balastro. Su uso más común es en escenas de interior, donde se necesita
complementar la luz que entra por la ventana, para esto valen lámparas de poca potencia. O como luz de
apoyo en días sombreados.

xendika@gmail.com Página 32
El balasto es un equipo que sirve para mantener estable y limitar la intensidad de la corriente para lámparas,
ya sea una lámpara fluorescente, una lámpara de vapor de sodio, una lámpara de haluro metálico o una
lámpara de vapor de mercurio. Técnicamente, en su forma clásica, es una reactancia inductiva que está
constituido por una bobina de alambre de cobre esmaltado enrollada sobre un núcleo de chapas de hierro o de
acero eléctrico. En la actualidad existen de diversos tipos, como los balastos electrónicos usados para lámparas
fluorescentes o para lámparas de descarga de alta intensidad.

En una lámpara fluorescente el papel del balasto es doble: proporcionar la alta tensión necesaria para el
encendido del tubo y después del encendido del tubo, limitar la corriente que pasa a través de él.

 Xenon: Consisten en una lámpara de descarga cuya ampolla está rellena con gas xenón. Al igual que el HMI,
estas lámparas de descarga necesitan de un tiempo de calentamiento hasta que se estabiliza la
temperatura de color.
 LED: Consisten en semiconductores que convierten la corriente eléctrica en luz. Es una tecnología muy
eficiente, ligera, de larga vida útil y facilmente controlable. Permite cambiar tanto la temperatura de
color como la intensidad. Esta tecnología se puede encontrar tanto en pantallas fluorescentes de led, así
como en pantallas de led.
 Fluorescentes: No son las tipicas fluorescentes que tenemos en clase, sino unas cuyo espectro luminico es
más completo. Es una luz más complicada de dirigir.

10. MEDIDAS EN LA SEÑAL DE VIDEO


La señal de video compuesto está formada por dos elementos: por un lado la señal de luminancia o luma, la cual
aporta lo que podríamos visualizar como una imagen en escala de grises o distintas densidades, y por otro lado la
señal de crominancia o chroma que es la que aporta el color a la imagen.

La verdadera importancia de las herramientas que vamos a analizar aparece a la hora de igualar clips de vídeo
grabados en diferentes situaciones de iluminación o con videocámaras diferentes. Así veremos:

 Forma de onda: informa sobre los niveles de luminancia de la imagen. Sirve para evaluar el contraste
general de la imagen.

 RGB parade: igual que forma de onda pero separando los 3 componentes RGB.

 Histograma: es otra manera de visualizar la distribución de luces y sombras. También sirve para evaluar el
brillo y el contraste.

 Vectorscopio: informa sobre el balance de blancos y las dominantes de color. Sirve para evaluar los tonos y
la saturación de color presentes en la imagen.

Comparar los histogramas, RGB parades y vectorscopios resulta clave para que dos planos consecutivos tengan las
mismas cualidades visuales y no haya “saltos” de tonos que sobresalten al espectador.

Con los histogramas podremos comprobar que todos los planos están iluminados de forma similar, con los parades
igualaremos el tono y, finalmente, con el vectorscopio podremos comprobar que la saturación de todos los planos
de la escena es similar.

xendika@gmail.com Página 33
Aunque podríamos hacer las tareas de igualación de planos sin usar estas herramientas, el ojo, cuando lleva un rato
analizando colores, se cansa y cuanto más tiempo pasemos corrigiendo color más difícil encontraremos visualizar
los sutiles matices entre un plano y otro.

Además para basarnos en la imagen, debemos ser consciesntes que para ello es necesario que nuestro monitor este
correctamente calibrado; ya que si este está mostrando la imagen alterada debido a un desajuste en los controles,
eso repercutira en la manera en la que posteriormente realicemos todos los ajustes o correcciones en el video.

FORMA DE ONDA
El eje horizontal del gráfico corresponde a la imagen de vídeo (de izquierda a derecha) y el eje vertical es la
intensidad de la señal en unidades llamadas IRE (siglas que provienen del Institute of Radio Engineers). Un monitor
forma de onda nos permite ver en tiempo real como cambian los valores. Es fundamental para exponer
correctamente. Sirve también para calibrar distintos equipos y para asistir al etalonaje en la postproduccion.

FORMA DE ONDA SEÑAL DE VIDEO

xendika@gmail.com Página 34
En los dos pares de imágenes que se muestran a continuación ¿Qué señal de forma de onda representa cada uno de
los videos?

La unidad de medida más habitual es el IRE: 1 voltio dividido en 140 unidades (-40 a 0 tenemos la señal infranegro,
no hay información visual, son los negros empastados y la información de sincro), (o a 100 información visual)

Medimos la señal desde el negro absoluto hasta el blanco absoluto. Nunca deberíamos llegar a los 100 porque si no
tendríamos los blancos quemados.

El software de etalonaje mide el color en valores RGB (de 0 a 1023 en un espacio de 10 bits, y de 0 a 255 para un
espacio de 8bits) la equivalencia con el rango legal de broadcast medido en unidades IRE es 0=64 y 100=940; y 16-
235.

RGB PARADE
Esta herramienta muestra formas de onda que representan los niveles de los canales rojo, verde y azul de un clip.

Las formas de onda aparecen en un gráfico de forma consecutiva, resulta útil para ver la distribución de los
componentes de color de un clip. Los niveles de cada canal de color se miden proporcionalmente entre sí mediante
una escala de 0 a 100, y la equivalente 0 a 255

xendika@gmail.com Página 35
El RGB parade es una herramienta muy útil para detectar dominantes de color. Los blancos, grises y negros se
caracterizan por tener la misma cantidad de rojo, verde y azul. Por tanto, las alturas de parade deberían ser
similares en esas zonas superior, de tonos altos, e inferior, en la de sombras. Si un color determinado está más alto
que otro en esas zonas eso quiere decir que hay un color dominante. Así en la imagen anterior se ve que domina el
rojo, mientras que en la imagen siguiente domina el azul.

HISTOGRAMA
El histograma, similar al usado en fotografía, es otra manera útil de evaluar el contraste. Un histograma es una
gráfica de barras utilizada en estadística que nos muestra la frecuencia con la que se repiten determinados valores.

La distribución de las barras nos indica si la imagen está demasiado iluminada o incluso quemada o por el contrario
está oscura. A la derecha del histograma se sitúan luces y brillos y a la izquierda los oscuros.

Un histograma sin información en la zona de sombras ni en la zona media, que aglutina toda la información en la
zona derecha de la imagen (luces), es muy probable que esté sobreexpuesta.

Un histograma que acumule la información en la zona de sombras (izquierda), con poca o ninguna información en la
zona media y la zona de luces, es muy probable que sea demasiado oscura; subexpuesta

xendika@gmail.com Página 36
Un histograma con toda la información acumulada en una misma zona, nos habla de una imagen con poco
contraste. Tanto si la información lumínica se concentra a la derecha, a la izquierda, o en la zona media. Ya sabes
que el contraste lumínico se da por la diferencia entre luces y sombras en una imagen, por lo que si ésta carece de
diferenciación entre luces y sombras, la imagen resultante se conoce como una imagen de bajo contraste.

El histograma también se puede utilizar para conocer si el balance de blancos es adecuado:

Balance de blancos
correcto, los tres colores
en la misma posición.

Balance de blancos
incorrecto, los tres
colores en posición
diferente.

VECTORSCOPIO
El vectorscopio es el instrumento encargado de medir y representar la señal de crominancia exclusivamente, ya que
la luminancia no aporta información de color, por lo que una escala de grises no tendrá representación alguna en
nuestro vectorscopio.

La señal de crominancia se organiza en dos subportadoras, por una parte el chroma (conocido coloquialmente como
saturación), codificada como la amplitud y por otra parte el tono codificado en la fase.

xendika@gmail.com Página 37
Es decir, cada color o tono ocupa una posición, y en función del color de cada pixel el vector apuntará en esa
dirección. La magnitud o módulo del vector vendrá determinada por la saturación del color. Así por ejemplo para
unas barras de color, el vectorscopio mostraría la siguiente imagen:

Otra forma de describirlo, es que el vectorscopio muestra la señal en una pantalla sobre los ejes X-Y donde se
prescinde del barrido interno horizontal, de esta forma al eje X se le aplica la señal B-Y(Cb) y al eje Y se aplica la
señal R-Y(Cr).

xendika@gmail.com Página 38
Volvemos a la imagen de nuestros compañeros de Barakaldo, y veamos que nos dice el vectorscopio. ¿Qué imagen
se corresponde con que vectorscopio?

xendika@gmail.com Página 39
11. UN POCO SOBRE CORRECCIÓN DE COLOR
En este punto nuestro objetivo no es aprender a corregir el color, sino sobre todo ver como al tocar ciertos
parámetros esto influye tanto sobre el aspecto de la imagen como sobre las diferentes herramientas de analisis de
la señal de video.

Así en Premiere vamos a entrar en el espacio de trabajo de color, en ámbitos de lumetri, y sobre todo vamos a
trabajar con las herramientas “Corrección básica” y “Curvas” que son las herramientas más faciles de utilizar.

xendika@gmail.com Página 40
Corrección básica en Premiere
Así dentro del menu de “Corrección básica” encontramos las siguientes opciones. Para apreciar el resultado, es
bueno seleccionar la herramienta RGB parade:

CORRECCIÓN BÁSICA

Temperatura: Como se ha visto en el apartado de


iluminación, una mala selección de la temperatura
de color puede originar que la imagen se vaya a un
tono rojizo o más azulado

Tinción: Debido a que con la temperatura nos


movemos en un eje, mediante el tinte nos podemos
mover en el eje perperndicular para compensar.

Exposición: Mueve toda la señal hacía blancos o


hacía negros.

Contraste: Con esta barra movemos la zona media


hacía un lado u otro.

Resaltados: Sirve para mover la zona alta, pero sin


llegar a blancos.

Sombras: Sirve para mover la zona baja, pero sin


llegar a negros.

Blancos: Como su propio nombre indica sirva para


mover el nivel de blancos.

Negros: Sirve para mover el nivel de negros

Saturación: Sirve para modificar la saturación.

Como podéis ver existe un botón “Automático” para dejar que Premiere mejore a su gusto el video, pero no
siempre se consiguen los resultados deseados.

Este menu es sencillo de utilizar, pero tiene sus limitaciones como podréis comprobar al tratar de corregir algunos
videos más adelante; pues pese a que podemos jugar con los niveles de cada uno de los colores con la barra de
“Temperatura” y “Tinción” el resultado es un poco límite.

xendika@gmail.com Página 41
Curvas
Dentro de curvas tenemos dos opciones:

CURVA RGB CURVAS DE MATIZ / SATURACIÓN

En estos dos casos es posible especificar con que color queremos trabajar, y posteriormente mover tanto los
negros, los blancos, los diferentes medios, etc.

En caso de que seleccionamos el circulo blanco, tanto en uno como en otro caso, lo movemos todos. Si queremos
especificar un color, es necesario en el caso de la curva RGB, seleccionar uno de los colores. MIentras que en la
“Curva de Matiz/Saturación”, podemos optar por seleccionar uno de los colores de abajo, o bien especificar
nosotros mediante tres puntos sobre que zona queremos trabajar.

xendika@gmail.com Página 42
Práctica: Corrección de videos de fuente externa
A continuación voy a pasaros varios videos a través, puede que tengan desajustes o puede que no. El objetivo es
que os vayáis acostumbrando a los diferentes dispositivos: vectorscopio, forma de onda, … de forma que tratando
de mejorar el video, veáis los efectos que tiene sobre estos instrumentos.

Posteriormente subiréis los diferentes videos exportados a una carpeta, y haremos una votación para comprobar
quien tiene más futuro en esta profesión.

Práctica: Corrección de videos vuestros


En este caso, váis a grabar videos con 2 ó 3 cámaras. Unos los trataréis de hacer bien, y otros mal adrede.
Posteriormente se los pasáis a otro grupo, y estos de manera individual editarán la secuencia y corregiran el video
que estimen que lo requiera.

12. EQUIPOS TÉCNICOS DE VIDEO


En este punto se describen varios de los equipos con los que vamos a trabajar en clase. No vamos a hablar sobre
algunos otros equipos que esperemos poder conocer en una visita a EiTB.

Paneles de interconexión, cables y conectores


En lo que se refiere al cable partiendo del estándar con el que vamos a trabajar, en función del tipo podremos
utilizar unas distancias u otras.

xendika@gmail.com Página 43
Y en función del cable, seleccionaremos un conector adecuado, entre los tres modelos disponibles. A continuación
se muestra un ejemplo y sus características:

MINI BNC

Los conectores Mini-BNC están diseñados para su uso en aplicaciones


de Alta Definición (HDSDI y 3GSDI) según normativas SMPTE
292M/424M, que precisen de una alta densidad de cableado.

El sistema de fijación es del tipo Bayoneta, igual al del BNC estándar,


pero con un tamaño reducido al 50%.

Se fabrica con contactos interiores bañados en oro.

Características:

 Impedancia característica: 75Ohm


 Rango de frecuencias: de 0 a 6Ghz
 Pérdida de retorno: hasta 30Ghz -> 30dB

BNC

Conector BNC digital para señales de Alta Definición.

Válido para cable PERCON VK4, VK5, VK3065, VK4065, VK5065, VK6065
y TVLs

DIN

El diseño compacto de los conectores DIN1.0/2.3 permite conexiones


de alta densidad. Es ideal para aplicaciones donde la limitación de
espacio es un factor importante.

Los conectores DIN cuentan con un sistema de anclaje push-pull que


permite una instalación rápida y asegura un bloqueo firme y de alta
retención

Características:

 Soporta transmisión SDI hasta 3G


 Cumple normativas: DIN 47297 y CECC 22230
 Acoplamiento push-pull con mecanismo de bloqueo que
permite una instalación rápida.
 El sistema push-pull ofrece un acoplamiento seguro. El
mecanismo de bloqueo no se suelta con la vibración.
 Los conectores push-pull pueden situarse más
próximos, ahorrando espacio en el panel de conexiones.
 Utiliza herramientas de crimpado específica

xendika@gmail.com Página 44
A diferencia de los patch-panels de datos que se suelen conectar tanto por la parte posterior como por la parte anterior, en un armario de video la instalación queda
configurada en la parte posterior, y la parte anterior se utliza para en caso de que se de algún problema o sea necesaria una modificación rápida o puntual de la
instalación se pueda realizar de manera sencilla.

En el caso del video, así como en audio, podemos encontrar dos tipos diferentes de patch panels. Este tipo de configuración favorece que en caso de darse algún
problema, es muy sencillo realizar un seguimiento de la señal por la instalación para detectar el origen del problema y poder solucionarlo cambiando algún latiguillo.:

Podéis comprobar en el Patch panel de clase ambas configuraciones si no os queda muy claro según el dibujo.

xendika@gmail.com Página 45
Para realizar las conexiones en la parte frontal se utilizan unos patch-cords, con diferentes tipo de conectores en
función del patch panel:

Por último los patch-panels deberán cumplir el estándar con el que vamos a trabajar.

Al igual que ocurría con las redes de datos, los armarios que contienen los patch-panels sirven para centralizar la
distribución de señales.

xendika@gmail.com Página 46
Distribuidores
Muy similares a los derivadores y repartidores que conoceís en la ICT, con la salvedad de que en este caso son
elementos electrónicos activos y por lo tanto no introducen una pérdida de señal.

Los podemos encontrar de diferentes relaciones (1:2, 1:4, …), esto permite que pueda llevarse una misma señal a
diferentes equipos.

Matrices
Las matrices permiten conmutar, multiplicar distribuir electronicamente cualquier señal desde cualquier entrada
hasta cualquier salida. Se definen por el número de entradas y salidas.

Su configuración se puede hacer en remoto y no es necesario cambiar ningún cable para redirigir una señal. Son
equipos muy utilizados en las salas de continuidad y control central de los estudios de televisión.

Al igual que todos los equipos de un estudio de TV, las matrices también están sincronizadas con una señal de reloj
que marca el inicio de cada cuadro de video para poder realizar conmutaciones o mezclas sin vibraciones de
imagen.

Mezcladores de video
Las mesas de mezcla o mezcladores de video son equipos que permiten la mezcla, conmutación y manipulación de
múltiples señales de video con el fin de producir una única señal final destinada a la radiodifusión o
almacenamiento.

Los mezcladores también generan efectos como cortinillas, fundidos, incrustaciones o chroma-key y rotulos.

Los mezcladores pueden considerarse como etapa final antes de la emisión o grabación de una señal de video y
permiten la conexión de diferentes entradas de video: videoservidores, cámaras de video, tituladoras, etc.

xendika@gmail.com Página 47
Generador de sincronismo
Es un equipo que genera una señal de reloj (master clock) a la que se esclaviza al resto de equipos de la
instalación. Aunque todos los equipos funcionan a la misma frecuencia, en caso de que no utilizasemos una señal de
sincronismo podría suceder que los diferentes equipos estuviesen en una fase diferente, y al conmutar de una
cámara a otra, u a otro elemento se producirían saltos de imagen.

Videoservidores
Los videoservidores son equipos informáticos que poseen una gran capacidad de almacenamiento y conexión a red
que permiten su acceso remoto. Pueden utilizarse para grabar, editar y emitir contenidos audiovisuales en un canal
de televisión.

La diferencia con otros servidores informáticos de alta potencia radica en la posibilidad de que múltiples usuarios
utlicen los mismos contenidos para realizar ediciones y postproducciones paralelas sin que se produzcan conflictos
en el acceso simultaneo.

xendika@gmail.com Página 48
Conversores
Debido a que en el aula tenemos tanto señales SDI como HDMI, tenemos conversores en ambos sentidos. Para
nosotros no deja de ser una caja negra que convierte de un estándar a otro, pero no y viceversa.

Además hay un par de conversor de medios como son de cable coaxial a fibra óptica, de manera que en caso de
necesitarlo para realizar una transmisión deportiva en un gran estadio como el campo de futbol del patio,
podriamos superar la distancia límite del cable SDI, mediante el uso de una cámara y dos conversores (HDMI to SDI
y SDI to Fibra).

Monitorización
Para monitorizar la señal se puede emplear algún monitor de clase, ya que los mezcladores tienen salida HDMI.
Pero sin embargo, en el caso de la matriz todas las salidas son SDI, y para ello tenemos el SmarView

Conversor Video a IP
Por último, tenemos un conversor de video a IP. El cual admite diferentes protocolos y diferentes codecs, y facilita
que podáis mandar la señal vía radioenlace a un centro de distribución.

xendika@gmail.com Página 49

S-ar putea să vă placă și