Sunteți pe pagina 1din 117
Universidad Austral de Chile Facultad de Ciencias de la Ingeniería Escuela de Ingeniería Civil Electrónica

Universidad Austral de Chile

Facultad de Ciencias de la Ingeniería

Escuela de Ingeniería Civil Electrónica

“ESTUDIO E IMPLEMENTACIÓN DE ENLACES VÍA STREAMING PARA ESTUDIO TELEVISIÓN EN INTERNET”

Tesis para optar al título de:

Ingeniero Electrónico

Profesor Patrocinante:

Sr. Franklin Castro Rojas. Ingeniero Electrónico Licenciado en Ciencias de la Ingeniería Diplomado en Ciencias de la Ingeniería

FELIPE ORLANDO OLIVA VILLANUEVA VALDIVIA – CHILE

2013

II

Profesor Patrocinante:

Profesores Informantes:

Comisión de Titulación

Franklin Castro Rojas

Fredy Ríos

Pedro Rey

III

Agradecimientos

Primero que todo le doy gracias a mis padres Ingrid Villanueva, Luis Oliva, a mi tía Lilian Villanueva y mi familia, por todo su apoyo en este largo camino y por creer en todo momento en mi. Gracias a todas las personas que fueron importante en este proceso, como mi novia Nathalye que fue de gran ayuda en el transcurso de mi tesis. También agradecer al sitio web www.aguantecallecalle.com, que lo administra mi gran amigo German Scheihing. Y por supuesto al Club Deportivo Deportes Valdivia, en el cual nació mi idea de realizar este trabajo. Además agradecer a mi profesor guía por su tiempo disponible y a todos mis amigos que he formado gracias a esta carrera.

IV

INDICE

Capitulo 1. Introducción a la tecnología streaming

1

1.1. Tecnología streaming

 

1

1.2. Estructura básica para transmisión streaming

2

1.2.1. Envió de la señal

2

1.2.2. Enlace de transmisión

 

2

1.2.3. Reproducción de la señal

3

1.2.4. Ancho de Banda

3

1.2.5. Tipo de transmisión de datos

 

3

1.2.5.1. Unicast

3

1.2.5.2. Multicast

4

1.2.5.3. Broadcast

4

1.2.6.

Arquitectura de redes en los sistemas streaming

5

1.2.6.1. Arquitectura sin servidor

 

5

1.2.6.2. Arquitectura sin cliente

6

1.2.6.3. Arquitecturas centralizadas

 

6

1.2.6.4. Arquitectura

centralizada

con

un servidor varios servidores

7

1.2.6.5. Arquitectura

centralizada

con

7

1.2.6.5.1. Servidores paralelos

 

8

1.2.6.5.2. Servidor

con clúster

8

1.2.6.6. Arquitectura

de servidores independientes

9

1.2.6.7. Arquitectura basada en servidores proxy

9

1.2.6.8. Arquitectura distribuida a nivel de usuario

10

1.3.

Servicios streaming

10

1.3.1. Streaming

bajo demanda

 

10

1.3.2. Streaming

en vivo

11

1.4. Teléfonos móviles

11

1.5. Aplicaciones Streaming

 

12

Capitulo 2. Elementos para realizar una transmisión Streaming

13

2.1.

Videocámara

13

V

2.3.

Switch selector de Audio/Video

15

2.4.

Micrófonos

16

2.5.

Modem Banda Ancha móvil

16

2.6.

Servidor Streaming

17

2.7.

Software de producción

17

2.8.

Sitio Web

19

2.9.

Redes Sociales

20

2.10

Resumen

21

Capitulo 3. Compresión Audio y Video

23

3.1.

Compresión audio

23

3.1.1.

Códec de audio

 

23

 

3.1.1.1. PCM

24

3.1.1.2. DPCM

24

3.1.1.3. MP3

24

3.1.1.4. Speex

24

3.1.1.5. Audio Advanced Coding

25

3.1.1.5.1. Características AAC

25

3.1.1.5.2. Diagrama de bloques AAC

25

3.2.

Compresión de video

26

3.2.1. MPEG-1

 

26

3.2.2. MPEG-2

27

3.2.3. MPEG-4

27

 

3.2.3.1.

H.264

28

3.2.3.1.1. Estructura H.264

29

3.2.3.1.2. Perfiles H.264

30

3.2.3.1.2.1.

Perfil

línea de base

30

3.2.3.1.2.2.

Perfil

principal

30

3.2.3.1.2.3. Perfil Alto

31

3.2.3.1.3.

Fotograma H.264

31

3.2.3.1.3.1.

Fotograma

tipo I

32

3.2.3.1.3.2.

Fotograma

Tipo P

32

VI

3.2.3.1.3.3. Fotograma tipo B

32

3.2.3.1.4. Macrobloques y slices

33

3.3.

Algoritmo codificación de video

34

3.3.1. Transformada de coseno discreta y cuantificación

35

3.3.2. Codificador de entropía

37

3.3.3. Predicción

Macrobloques

37

3.3.4. Predicción

Inter

38

3.3.4.1. Compensación de Movimiento con Estructura de Árbol

38

3.3.4.2. Vector de Movimiento

39

3.3.4.3. Predicción del Vector de Movimiento

40

3.3.5.

Predicción Intra

40

Capitulo 4. Tecnología Flash en Streaming

43

4.1. SWF

43

4.2. ActionScript

44

4.3. AMF

45

4.4. Flash Player

45

4.5. Video Flash

46

Capitulo 5. Capa de transporte

47

5.1. TCP/UDP en streaming

47

5.2. UDP

47

5.3. TCP

49

5.4. RTMP

51

5.4.1. RTMP

52

5.4.2. RTMPT

53

5.4.3. RTMPS

53

5.4.4. RTMPE

53

5.4.5. RTMPTE

53

5.4.6. RTMFP

54

5.4.7. Organización de los paquetes RTMP

54

VII

Capitulo 6. Factores que influyen en el Streaming

57

6.1. Códec

 

57

6.2. Frame Rate

57

6.3. Resolución de video

 

59

6.4. Bit

rate

 

59

6.4.1 Producción de señal de video y bit rate

60

6.5.

Ancho de Banda

 

61

6.5.1. Medida de ancho de banda por descarga de fichero

61

6.6.

CPU

64

Capitulo 7. Introducción a la Implementación

65

7.1. Primera Prueba de Implementación

65

7.2. Segunda Prueba de Implementación

69

7.3. Tercera Prueba de Implementación

73

7.4. Cuarta prueba

de

implementación

78

7.5. Quinta prueba

de

implementación

83

7.6. Sexta prueba de implementación

87

7.7. Costos de la implementación

91

7.8. Aspectos legales

 

92

7.9. Resultados de gráficos

93

Capitulo 8. Mejoras al sistema streaming

95

8.1. Capturadora de video

 

95

8.2. Switch HDMI

 

96

8.3. Servidor streaming

 

96

8.4. Videocámara y micrófonos

97

8.5. Costos de la mejora de implementación

98

Conclusiones

 

100

Anexos

102

VIII

Listas de figuras Figura 1.1. Estructura básica para realizar una transmisión

2

Figura 1.2. Estructura básica de Unicast

4

Figura 1.3. Estructura básica de Multicast

4

Figura 1.4. Estructura básica de Broadcast

5

Figura 1.5. Tabla que permite visualizar las características de cada servicio

11

Figura 2.1. Videocámaras y cámara web utilizadas en la implementación. del estudio

14

Figura 2.2. Capturara de video Pinnacle Dazzle Dvd Recorder

15

Figura 2.3. Switch selector de Audio/Video

16

Figura 2.4. Sitio web www.xsplit.com donde señalan los beneficios al adquirir la licencia

18

Figura 2.5. Programa Xsplit Broadcaster

19

Figura 2.6. Redes sociales que se utilizaron para promocionar la transmisión

21

Figura 2.7. Resumen de implementación

22

Figura 3.1. Diagrama del códec AAC

22

Figura 3.2. Diagrama del estándar MPEG-4 AVC

22

Figura 3.3. Tabla de las capacidades de codificación por perfil

31

Figura 3.4. Secuencia típica de fotogramas

33

Figura 3.5. Ejemplo de pixeles, bloque, macrobloque y slice

33

Figura 3.6. Diagrama de bloque de la codificación del códec H.264

35

Figura 3.7. División de macrobloques

38

Figura 3.8. Division de sub-macrobloques

38

Figura 3.9. Calculo de las sub-muestras

39

Figura 3.10. Sub-muestras quarter-pel

40

Figura 3.11. Predicción Intra de

41

Figura 3.12. Predicción Intra de

.42

Figura 3.13. Predicción Intra de

42

Figura 5.1. Datagrama UDP dentro de un paquete IP

48

Figura 5.2. Los cuatro campos de encabezamiento de un paquete

48

Figura 5.3. Encapsulamiento de información del protocolo TCP en un datagrama

50

Figura 5.4. Segmento TCP con su campo de

51

Figura 5.5. Tamaño de la cabecera

55

Figura 5.6. Interfaz gráfica de Wireshark

56

IX

Figura 6.1. Pruebas de frame rate con el ptograma Xsplit de 25 y 30 fps

58

Figura 6.2. Resolucion de video con sus tipos de relación de aspecto

59

Figura 6.3. Tabla se da a conocer el bitrate estimado de manera generalista

61

Figura 6.4. Gráfico de dientes de sierra originado por el mecanismo de congestión

63

Figura 7.1. Registro del equipamiento de la primera implementación

66

Figura 7.2. Medio de difusión de nuestra página de facebook y sus impresiones al

67

Figura 7.3. Registro de la opinión de los seguidores respecto de la transmisión

68

Figura 7.4. Estadisticas proporcionadas por Ustream en la primera implementación

68

Figura 7.5. Switch selector de Audio/Video

69

Figura 7.6. Registro del equipamiento de la segunda implementación

71

Figura 7.7. Estadisticas proporcionadas por Ustream en la segunda implementación

72

Figura 7.8. Publicación emitida por el Diario Austral on-line

72

Figura 7.9. Monitor de computador modelo LG Flatron

73

Figura 7.10. Contenido de la pantalla del notebook y monitor externo en la tercera implementación

75

Figura 7.11. Registro del equipamiento de la tercera implementación

76

Figura 7.12. Comentarios emitidos en el chat por seguidores de la transmisión en el sitio web www.aguantecallecalle.com

76

Figura 7.13. Encuesta realizada a los seguidores de la tercera transmisión

77

Figura 7.14. Resultado de la encuesta en la tercera

77

Figura 7.15. Estadisticas proporcionadas por Ustream en la tercera implementación

78

Figura 7.16. Adaptador de Audio Jack 3.5 mm

78

Figura 7.17. Registro del equipamiento de la cuarta implementación

81

Figura 7.18. Encuesta realizada a los seguidores de la cuarta implementación

81

Figura 7.19. Resultado de la encuenta en la cuarta

82

Figura 7.20. Estadisticas porporcionadas por Ustream en la cuarta implementación

82

Figura 7.21. Registro del equipamiento de la quinta implementación

85

Figura 7.22. Resultado de la encuesta en la quinta implementación

86

Figura 7.23. Estadisticas proporcionadas por Ustream en la quinta implementación

86

Figura 7.24. Adaptador Plug mono 6.3 a Plug mono 3.5 MA60

89

Figura 7.25. Unas de las imágenes que se agregaban según el entrevistado

89

Figura 7.26. Registro de la sexta implementación

90

X

Figura 7.28. Inversión que se necesitó para crear un estudio de televisión por internet

92

Figura 7.29. Gráfica de resultados de las estadísticas de Ustream

93

Figura 7.30. Gráfica de la opinión de los seguidores respecto a la calidad de la imagen

94

Figura 8.1. Capturadora Blackmagic Intensity Shuttle Thunderbolt

95

Figura 8.2. Switch HDMI con 5 entras y una

96

Figura 8.3. Resumen de la posible mejora del estudio de televisión por internet

98

Figura 8.4. Cuadro de los precios aproximados de la mejora del sistema

99

XI

Resumen

La velocidad de la transferencia de datos aumenta con el tiempo y con ella la calidad de las transmisiones, por lo tanto la tecnología streaming goza de un mercado con futuro.

La tecnología streaming permite acelerar la descarga y ejecución de audio y vídeo en la web; ya que podemos escuchar y ver los contenidos mientras se realiza la descarga. Si no utilizamos streaming, para mostrar un contenido multimedia en la red, tenemos que descargar primero el archivo entero en nuestro ordenador y más tarde ejecutarlo, para finalmente poder ver y oír el contenido del archivo. Su gran eficiencia se demuestra al cumplir con sus propósitos, pese a que la cantidad de recursos es menor.

El presente documento tiene como objetivo mostrar la implementación de un sistema streaming para un estudio de televisión casero de manera sencilla para que cualquier usuario, sin una gran cantidad de recursos, pueda implementar y ejecutar este sistema.

Abstract

The speed to the data transfer increases with time and thus the quality of transmissions, therefore a streaming technology has a future market.

Streaming technology allows faster download and playback of audio and video on the web; since we can hear and see the contents while performing the download. If we do not use streaming, to display multimedia content on the network, we have to first download the entire file on your computer and then execute it, to finally see and hear the content of the file. Its high efficiency is demonstrated to accomplish its purposes, though the amount of resources is smaller.

This document has in propose to show the implementation a streaming system for a homemade television studio easily for any user, without a lot of resources, can deploy and run this system.

XII

Introducción

Comenzaremos analizando dos grandes conceptos: Tecnología y Comunicación.

La tecnología busca controlar o modificar situaciones que van desde lo más simple a lo más complejo, con el objetivo de facilitar algunos aspectos de nuestra vida. Mientras que el comunicar busca intercambiar información. Ambos conceptos actúan en conjunto para satisfacer las necesidades de la comunidad, funcionando como un mecanismo de propagación de la información y de interacción con el resto; de este modo la información puede ser transportada a grandes distancias.

La tecnología en las comunicaciones ha tenido un gran avance, adaptándose a las demandas de los usuarios que cada día son mayores. En la actualidad las personas no solo se informan por la televisión o los diarios, ahora gracias a internet han surgido una gran cantidad de medios independientes, ya que no resulta muy complejo poder adquirir una página web para expresar sus ideas. Hay que tener en cuenta que cada vez cobran mayor interés medios de difusión masivos, como lo son las redes sociales, para adquirir información de manera sencilla, cómoda y por sobre todas las cosas de manera gratuita.

El nivel de difusión que puede llegar a tener estos medios independientes, avanza con rapidez. Uno de los métodos que ha revolucionado los medios de información ha sido la tecnología streaming. El streaming, explicado de un modo breve, es una técnica en que se puede transmitir audio y video en tiempo real, lo cual hace posible hacer programas televisivos, transmisiones de videoconferencias, conciertos, y cualquier otro tipo de evento que se desee transmitir. El streaming ha potenciado los medios de comunicación independientes, dando la posibilidad de crear una gran diversidad de programas.

Esta tesis se origina a partir de la inquietud de un dirigente de Deportes Valdivia, por transmitir los partidos de futbol en vivo de dicho club tanto de local como de visita, después de una reunión entre el dirigente y el equipo de trabajo de la página web independiente www.aguantecallecalle.com, que era integrada por 3 personas. Está página, entrega información relevante asociada al Club Deportivo Deportes Valdivia, ya sea sobre encuentros futbolísticos, resultados, estadísticas, videos con resúmenes de los partidos, etc. Es la página con mayor número de visitas relacionada con el club; en facebook cuenta con más de 5.400 seguidores y en twitter con más de 1.500 fanáticos del club.

XIII

En esa oportunidad, se nos planteó la inquietud sobre la factibilidad de hacer transmisiones en vivo de los partidos del club; con un comentarista, marcador y publicidad durante el transcurso de los partidos, similar a lo que se realiza en los partidos de televisión a los que se estamos acostumbrados a ver.

En esta tesis se desarrolla un análisis de todo lo que implica la tecnología streaming. Se realizará un estudio teórico y práctico de los instrumentos necesarios para realizar una implementación.

Objetivos específicos

Desarrollar un trabajo de tesis para optar al título de Ingeniero Electrónico.

Investigar sobre el sistema streaming y toda su tecnología, tales como: protocolo de transporte, codificación del audio y video, instrumentos que se deben utilizar, entre otras cosas.

Implementar un sistema streaming con tecnología básica para luego ir incorporando elementos según las necesidades que se van adquiriendo.

Lograr que los usuarios reciban la transmisión de manera óptima, con la mejor calidad de imagen y sonido que se pueda lograr con la tecnología a disposición.

Aprender a utilizar un software para la producción de las transmisiones a realizar.

Objetivos generales

Aplicar los conocimientos que se adquirieron en la formación como estudiante y que permitan hacer uso de las tecnologías existentes para encontrar solución a los problemas observados.

Lograr realizar un estudio de televisión para internet, logrando transmitir a todo el mundo mediante enlaces vía streaming.

Ser capaz de analizar y comprender la tecnología streaming, lo que implica conocer sobre su teoría y llevarlo a una implementación.

1

Capitulo 1

Introducción a la tecnología streaming

En este capítulo se introducirá lo que es la tecnología streaming y su funcionamiento. Se analizará los componentes que posee y en las formas que se puede aplicar. También se verá los requisitos mínimos que se debe tener para realizar una transmisión streaming.

1.1. Tecnología streaming

Se puede entender por streaming como un conjunto de técnicas en el cual se puede enviar información multimedia (audio / video), para que uno o varios usuarios puedan visualizar este contenido mientras se está emitiendo por la red. La diferencia con las técnicas tradicionales es que no es necesario descargar el fichero completo en la computadora, ya no hace falta esperar que se descargue por completo para poder escuchar o ver la información multimedia. Con streaming, el receptor que desee escuchar o ver el contenido, el servidor streaming empieza a enviar fragmentos de la información en el mismo instante en que se solicita, el archivo se escuchará o verá mejor mientras mejor sea la conexión.

Esta tecnología para que se lleve a cabo, la computadora en que se desea efectuar la descarga, realiza una conexión con el servidor streaming y éste comienza a enviar el fichero. El receptor empieza a captar la información, la cual construye un buffer donde este guarda la información. Una vez que se llena el buffer con una pequeña parte del archivo, el receptor ya puede ver la información y simultáneamente sigue la descarga. Si en la conexión de la persona que está siguiendo la señal ocurre una baja de velocidad, se recurre a la información que se encuentra en el buffer, con esto puede soportar algo de la baja de velocidad. En el caso que la disminución de velocidad se prolongue por más tiempo de lo estimado, la información que se encontraba en el buffer se vacía y la señal se cortaría hasta que la conexión vuelva a retomar la velocidad estimada para restablecer la información.

Hay que considerar que para una transmisión streaming se requiere que la red pueda ser capaz de mantener un ancho de banda mínimo, aun cuando puedan ocurrir pequeñas oscilaciones en el ancho de banda medio, pero no muy largas.

2

1.2. Estructura básica para transmisión streaming

Lo primero que hay que tener en cuenta son los elementos mínimos que se necesitan para realizar la transmisión vía streaming. Dentro de ellos están el cliente y el servidor, o sea, el receptor que desea ver el video y la maquina que controla el acceso de los usuarios. La videocámara, es otro de los elementos a considerar, esta se encarga de registrar el evento que se va a transmitir; y el equipo con una tarjeta capturadora, codifica el video para ser enviado al servidor.

capturadora, codifica el video para ser enviado al servidor. Figura 1.1. Estructura básica para realizar una

Figura 1.1. Estructura básica para realizar una transmisión streaming.

1.2.1. Envió de la señal

En el equipo emisor se enviará una señal de audio y video a un servidor streaming. Para que esto suceda el ordenador debe estar conectado a una capturadora de imágenes, la cual como su nombre lo indica, captura el video que se quiere emitir y enviar esa señal codificada ha el servidor seleccionado. Se requiere una conexión que tenga una buena velocidad de subida, ya que así no habrá problemas con la señal de audio y video que se necesita transmitir.

1.2.2. Enlace de transmisión

El servidor streaming que se esté utilizando proporcionará un enlace en el que nos entrega la dirección donde se puede escuchar y visualizar la señal de la transmisión. El link que se otorga puede ser publicado en las redes sociales, sitio web o donde sea necesario para dar a conocer la señal que se está transmitiendo.

3

1.2.3. Reproducción de la señal

Los seguidores de la transmisión necesitarán tener un reproductor de imagen en su computadora, el cual haga posible ver la información que es recibida. Los reproductores comúnmente usados son; Windows Media Player, Real Video, Quicktime, Adobe Flash Player. Este último que se menciona es el más popular en la reproducción de las transmisiones.

1.2.4. Ancho de Banda

Si el receptor tiene una baja velocidad de descarga en su ancho de banda, este tendrá una señal deficiente, tanto en la imagen como en el audio. Por el contrario, si el receptor cuenta con una alta velocidad de descarga, este no tendrá problema con la recepción de la señal. Es importante, como se menciono anteriormente, la velocidad de subida del ancho de banda del que realiza la transmisión, ya que si no se cuenta con la velocidad de subida necesaria para una buena transmisión, los receptores aunque tenga una excelente velocidad de descarga igual tendrán una señal deficiente.

1.2.5. Tipo de transmisión de datos

La transmisión de datos por internet de contenidos multimedia es un desafío para los administradores de redes. De la misma manera como se establece la conexión con otro ordenador, la recuperación de un dato de audio o video conlleva al uso de cierto porcentaje del ancho de banda que se encuentra disponible, de manera que se multiplica proporcionalmente los accesos a los servidores, este aumenta.

Es necesario considerar los tipos de conexiones más comunes en las transmisiones de datos para tener en cuenta en nuestra implementación streaming.

1.2.5.1. Unicast

Unicast es una conexión entre el servidor y el usuario, cada usuario recibe una secuencia distinta y la información solo lo recibe el usuario que lo solicita. El receptor puede ver el contenido mediante una petición o por difusión. Este tipo de transmisión de datos se aplica para streaming bajo demanda, este término se verá más adelante.

4

4 Figura 1.2. Estructura básica de unicast Cada uno de los usuarios que desea conectar a

Figura 1.2. Estructura básica de unicast

Cada uno de los usuarios que desea conectar a la transmisión multimedia consume ciertos kilobits por segundo dependiendo de la codificación del contenido.

1.2.5.2. Multicast

La transmisión multicast consiste en la relación de uno o varios usuarios entre un servidor multimedia. Los usuarios conectados que desean ver la transmisión reciben la misma secuencia y no tienen control de la reproducción del contenido. En esta transmisión los usuarios son acotados, o sea solo se realiza para los que están adentro de la red.

o sea solo se realiza para los que están adentro de la red. Figura 1.3. Estructura

Figura 1.3. Estructura básica de multicast

1.2.5.3. Broadcast

El sistema de broadcast se destaca por su único proceso de envió, independiente de la cantidad de usuarios que van a recibir la emisión de la señal. Lo importante de este proceso es

5

que se envía solo una vez la información sin la necesidad de transmitir varias copias para cada usuario que quiera la información.

varias copias para cada usuario que quiera la información. Figura 1.4. Estructura básica de broadcast El

Figura 1.4. Estructura básica de broadcast

El inconveniente de esta transmisión de información es que aumenta el tráfico por la red, además la información enviada llegará a posibles usuarios que no tienen interés en recibir la información.

Un ejemplo para entender lo que es un broadcast es el caso de las emisoras de radio, al emitir señales el receptor decide si recibirlas o no, también es similar a la televisión.

1.2.6. Arquitectura de redes en los sistemas streaming

Los servidores streaming utilizan ciertas arquitecturas para realizar sus funciones, las cuales cada una tiene diferentes características. Por lo que se verá algunos tipos de arquitecturas que usan en los servidores streaming.

Estas

arquitecturas

están

basado

en

arquitectura

clásica

(Cliente/Servidor),

a

continuación definiremos las arquitecturas que más se utilizan.

1.2.6.1. Arquitectura sin servidor

En este modelo no se usa un servidor de audio y video, está arquitectura usa un servidor web para hacer algunas funciones de un servidor multimedia.

6

Las características que debe tener este servidor son las siguientes:

- Transferencia completa del archivo

- No existe control sobre el flujo de la información

- El cliente debe almacenar los archivos

- Usa el protocolo HTTP

- No temporizado

Este modelo el tipo de transmisión no utiliza ningún protocolo de transferencia en tiempo real, por lo que los datos deben ser almacenados por el cliente. Esta arquitectura no tiene las características fundamentales que utiliza el streaming. Pero hay que considerar que es un modelo que intenta hacer los procesos de transmisión multimedia en tiempo real y una base para la tecnología streaming.

1.2.6.2. Arquitectura sin cliente

Este modelo de arquitectura no tiene un programa cliente, se usa para visualizar una aplicación java o un plugin, como es Flash, además los ficheros o archivos se descargan en ese mismo tiempo.

Generalmente los que usan esta arquitectura son en los sitios web para visualización en línea, o en directo de cualquier tipo de contenido. Entre este tipo de modelo se encuentra el sitio web www.youtube.com, entre otros.

La página web entrega al usuario de manera transparente un gran repositorio de videos que se encuentran a disposición a todos los usuarios, permitiendo la visualización del contenido sin tener que descargarlos a la computadora. Su función principal de este servidor es que almacena el contenido en memorias temporales.

1.2.6.3. Arquitecturas centralizadas

En este diseño se encuentra basadas en una red principal o central, en la cual todos los usuarios se conectan permitiendo un acceso a un servidor o un conjunto de servidores.

7

La característica principal de este modelo es que tiene una gestión centralizada de todas las necesidades del los usuarios, donde usan una red principal en la que comparte toda la información del sistema.

La arquitectura centralizada tiene dos tipos de esquemas, dependiendo del número de servidores que maneje el sistema. Un tipo de esquema es la arquitectura que usa un solo servidor y el otro tipo es el que usa varios servidores.

1.2.6.4. Arquitectura centralizada con un servidor

En este modelo la gestión de los usuarios está basada en una única estación de trabajo, la cual administra las solicitudes de todos los usuarios de manera centralizada, por lo que se puede utilizar como servidor de audio y video un ordenador de escritorio para sistemas de baja demanda. En los sistemas que utilizan mayores recursos, por lo que se le exigen más requisitos, se usa ordenadores más potentes. Estas computadoras necesitan mejores procesadores, mayor cantidad de RAM, más menoría en el disco duro, entre otras cosas. Las limitaciones que tiene esta arquitectura es la escalabilidad, disponibilidad del servicio y la tolerancia a fallos. Lo que implica aumentar el número de servidores.

1.2.6.5. Arquitectura centralizada con varios servidores

Esta arquitectura se considera que es más avanzada respecto a las de un servidor, ya que por los problemas del sistema anterior surgió la idea de crear con varios servidores. Esto consiste en incorporar una serie de servidores con el motivo de obtener un servicio escalable, y así poder incluir más estaciones de trabajo. Con esto, la arquitectura con varios servidores ya no depende de un solo servidor por lo que es más tolerante a fallos.

Al utilizar varios nodos se puede definir dos tipos de arquitecturas; servidores paralelos y servidores con clúster. En los que se diferencia estos dos tipos de modelo es en el esquema de organización de las distintas estaciones de servicio.

8

1.2.6.5.1. Servidores paralelos

En esta arquitectura los diferentes servidores no almacenan el contenido completo del archivo, por el contrario, los ficheros son divididos por partes y son distribuidos en todos los servidores para tener una transmisión homogénea entre cada uno de los servidores.

Al realizar una petición, cada servidor tiene responsabilidad de transmitir al usuario cada parte del archivo que se requiere, el cual es almacenado con anterioridad en su respectivo disco. El usuario debe direccionar las peticiones a cada servidor, por lo que se debe sincronizar las diferentes partes de información recibida, y así poder reproducir sin problemas el contenido multimedia.

Con esta arquitectura se mejora la escalabilidad del sistema, ya que se puede agregar nuevos servidores redistribuyendo la cantidad de la información que contenga el equipo para tener un contenido homogéneo de archivos. También tiene la ventaja proveer servidores paralelos, por lo que permite un balance automático de la carga del sistema y crece la tolerancia a fallos.

1.2.6.5.2. Servidor con clúster

La arquitectura tiene como base un conjunto de servidores conectados en una red de comunicaciones, cada servidor tiene un disco local. Los servidores que se encuentran conectados se dividen en tres categorías; almacenamiento, transmisión y control.

Los servidores que almacenan la información, realizan la misma función que los servidores que se encuentran en paralelo.

Los servidores de transmisión cumplen la función de unir los diferentes bloques correspondientes a un archivo, formando un solo paquete de información previamente de ser transmitido al usuario final.

Los servidores de control captan las peticiones de la red extrema, trabajando con una estrategia de admisión predefinida o dinámica.

Con esto los servidores centralizados tienen un mejor rendimiento con respecto a la probabilidad de bloqueo de las peticiones. Hay que considerar que los servidores distribuidos

9

tienen una mejor escalabilidad, menor costo, alta disponibilidad y logran alcanzar el mismo rendimiento que los servidores centralizados aumentando su capacidad de almacenamiento.

Uno de los detalles que limita esta arquitectura es que desde un principio es limitada por el ancho de banda que se encuentre disponible en esa red.

1.2.6.6. Arquitectura de servidores independientes

Los servidores independientes son una gran propuesta para solicionar el problema de escalabilidad de los sistemas multimedia. Esta arquitectura tiene como base el sistema de redes locales, los usuarios agrupado en segmentos de red en que el trafico es independiente a los demas proporciones de red, esto implica que el ancho de banda del sistema está determinado por el ancho de banda de cada una de las redes locales.

Aunque se tiene un servidor para cada red individual, el sistema está dispuesto a sufrir una saturacion cuando todos los usuarios se conectan al servidor de su subred originando cuellos de botella en sus estaciones.

Los sistemas de redes independientes para que tengan un buen rendimiento y funcionalidad, necesitan que las peticiones de los usuarios agrupados en redes logren servir localmente, sin tener que entrar al servidor central. El modo en que se puede lograr este objetivo es situar servidores para cada una de las redes locales, por lo que implicaria que cada servidor tenga el mismo contenido, logrando un sistema de servidores independientes.

Hay que tener en cuenta que las características de los servidores independientes son algo complejas, eso implica que sus costos son muy elevados, ya que los servidores deben replicar los contenidos de todo el sistema.

1.2.6.7. Arquitectura basada en servidores proxy

La arquitectura con servidores proxy logran funcionar en internet o en redes locales, estos no almacenan el contenido completo de un archivo. Lo que hace el sistema es almacenar los archivos más solicitados por los usuarios en la red de comunicaciones.

10

Los servidores proxy se encargan de administrar las solicitudes realizadas por los usuarios conectados a las redes locales. Cuando las solicitudes no logren ser respondidas, estas son enviadas al servidor principal, el cual almacena toda la información.

1.2.6.8. Arquitectura distribuida a nivel de usuario

La arquitectura distribuida se encuentra dividida todos los componentes del sistema como son; los requerimientos, las peticiones y el manejo de información. Aunque se desarrolla en sistemas distribuidos, aun existe dependencia a un solo servidor, el cual puede ser llamado o no, servidor. Todo eso depende de las funciones que haga el sistema de comunicación, el que debe contener toda la información del sistema.

1.3. Servicios streaming

Está tecnología permite la difusión de archivos de audio y video por medio de internet, lo que permite escuchar o visualizar el contenido a tiempo real o previamente editado. El receptor puede capta el contenido en tiempo real o previamente almacenado sin la necesidad cargarlo en el ordenador. Existen diferentes servicios streaming los cuales se analizaran.

1.3.1. Streaming bajo demanda

El servicio streaming de bajo demanda consiste en el almacenamiento de archivos de audio y/o video en servidores que después son requeridos por los visitantes del sitio web.

Entre el streaming de baja demanda tenemos:

- Audio bajo demanda

- Video bajo demanda

El audio y video de bajo demanda permite realizar programas de todo tipo de contenido, los cuales pueden ser editado por algún programa que se estime conveniente, para luego ser subido a la red y poder ser reproducido en el momento que se estime conveniente, sin tener que de descargar el archivo completo. Lo importante es que se puede almacenar en el servidor streaming y publicar los enlaces de las grabaciones en algún sitio web, redes sociales y formar bibliotecas de las transmisiones realizadas.

11

1.3.2. Streaming en vivo

Consiste en la transmisión en vivo, lo cual no permite realizar ediciones. Este servicio permite la difusión de eventos en vivo a través de internet lo que hace posible que el receptor pueda observar y escuchar el contenido en tiempo real (en el instante en que son emitidos). Las aplicaciones que se pueden realizar en este sistemas son inmensa, solo depende de la imaginación del que lo desea aplicar.

A continuación se mostrará una tabla comparativa entre el streaming bajo demanda y el streaming en vivo.

entre el streaming bajo demanda y el streaming en vivo. Figura 1.5. Tabla que permite visualizar

Figura 1.5. Tabla que permite visualizar las características de cada servicio streaming.

1.4. Teléfonos móviles

En la actualidad la telefonía móvil tiene una tecnología muy avanzada. Gracias a 3G desde los teléfonos móviles podrán ser visualizados las transmisiones streaming con el códec MPEG-4, este códec permite que los videos sean muy livianos y así tener una transmisión más rápida.

12

1.5. Aplicaciones Streaming

En el streaming se puede realizar todo tipo de aplicaciones, solo basta con la imaginación que tenga el creador. Se puede aplicar en todo ámbito, tales como; ciencia, música, negocios, deportes, salud, educación, etc. Depende solo lo que se desea dar a conocer.

En este caso la aplicación que se dará es en el área del deporte, específicamente es la transmisión de partidos del Club Deportivo Deportes Valdivia y en realizar un programa deportivo de prueba en un estudio de televisión.

13

Capitulo 2

Elementos para realizar una transmisión Streaming

En una transmisión streaming básica solo se necesita una buena conexión, un servidor y una cámara incorporada al computador o solo un micrófono. Pero para realizar un estudio de televisión en internet hay que tener en cuenta una serie de elementos para realizar una transmisión de calidad.

En este capítulo se nombrará los elementos que se utilizaron para realizar un estudio de televisión y las características de cada uno de ellos.

2.1. Videocámara

Unos de los elementos básicos en una transmisión de video es un elemento con que capturar las imágenes que se desea mostrar. Para ello es necesaria una videocámara.

Existe una amplia gama de videocámaras, cada una cuenta con características propias, las cuales se diferencia en su calidad de imagen. La tecnología de estos aparatos ha incrementado de una manera notable, aumentando considerablemente la calidad de las imágenes que captan estas videocámaras.

En el estudio de televisión que se implemento en esta investigación se utilizaron dos videocámaras y una cámara web, las cuales son los siguientes modelos:

- Cámara de video Sony Handycam HDR-CX130

- Cámara Sony Bloggie MHS-PM5K

- Logitech Cámara Web C210

Al tener tres videocámaras permite captar diferentes ángulos de lo que se está transmitiendo, y así mantener al público interesado en lo que esta visualizando, teniendo una transmisión más interactiva y menos monótona. Las videocámaras se ubicaran en distintas posiciones estratégicas para captar las mejores imágenes para las transmisiones streaming que se desean realizar.

14

Cada una de estas videocámaras tienen diferentes características, lo ideal sería tener las mismas videocámaras para obtener la misma calidad de imagen pero debido a que es una prueba de estudio de televisión con pocos recursos, se opto por utilizar diferentes cámaras de video.

recursos, se opto por utilizar diferentes cámaras de video. Figura 2.1. En esta imagen se da
recursos, se opto por utilizar diferentes cámaras de video. Figura 2.1. En esta imagen se da
recursos, se opto por utilizar diferentes cámaras de video. Figura 2.1. En esta imagen se da

Figura 2.1. En esta imagen se da a conocer las dos videocámaras y la cámara web utilizadas en la implementación del estudio realizado. La primera es la Cámara de video Sony Handycam HDR-CX130, la segunda es Cámara Sony Bloggie MHS-PM5K y la tercera es Logitech Cámara Web C210.

2.2. Capturadora de video

Lograr visualizar las imágenes de las videocámaras en el ordenador es necesario tener una interfaz que capte lo que está filmando la videocámara, la interface que se necesita es una capturadora de video.

En el mercado hay una gran variedad de estos productos, la capturadora de video que se utilizo para la transmisión streaming es una Pinnacle Dazzle Dvd Recorder Hd, la cual consta con un puerto USB para conectarlo a la computadora y tiene una entrada de audio y video. Los requisitos mínimos de la capturadora son los siguientes:

- Windows Vista/XP/7

- Intel ® Pentium ® o AMD Athlon ™ a 1.8 GHz (2,4 GHz o superior recomendado)

- Intel Core ™ 2 Duo a 2.4 GHz necesario para AVCHD

- 1 GB de memoria del sistema recomendados, 2 GB necesarios para AVCHD

- DirectX ® 9 o 10 tarjeta gráfica compatible con 64 MB (128 MB o superior recomendado)

- 256 MB necesarios para HD y AVCHD

15

- DirectX 9 o superior Tarjeta de sonido compatible

- 3,2 GB de espacio en disco

Esta capturadora viene con un DVD, el cual tiene los drivers necesarios para ser instalado sin ningún problema en el sistema operativo.

ser instalado sin ningún problema en el sistema operativo. Figura 2.2. En la imagen se muestra

Figura 2.2. En la imagen se muestra la capturara de video Pinnacle Dazzle Dvd Recorder Hd.

Se debe tener en cuenta que con esta interfaz no tan solo se puede capturar imágenes de una videocámara sino también cámaras digitales, discos DVD, juegos de consolas, VHS, entre otras cosas.

Hay que considerar que se utilizo está capturadora por su bajo precio en el mercado, ya que las otras que tienen entradas HDMI tienen un valor más alto y la idea de esta investigación es implementar un estudio de televisión sin la necesidad de utilizar elementos con costos muy altos.

2.3. Switch selector de Audio/Video

Este componente es fundamental para poder utilizar las dos videocámaras en la transmisión. Funciona de una manera muy sencilla, tiene tres entradas de audio/video y una salida de audio/video. Debido a que se encuentra en disposición solo dos videocámaras, queda una entrada sin nada conectado. La salida del switch la conectamos con la capturadora de video. El switch además cuenta con un selector manual de cada canal, por lo que según la imagen que se necesite se selecciona el canal.

16

16 Figura 2.3. En la imagen se da a conocer los componentes del Switch selector de

Figura 2.3. En la imagen se da a conocer los componentes del Switch selector de Audio/Video, en el círculo rojo se observa el selector manual de los canales de entrada, en las flechas naranja se visualizan las tres entradas de Audio/Video y en el circulo verde está la salida.

2.4. Micrófonos

En el audio de la transmisión streaming se utilizaran micrófonos de computador, los cuales son económicos. La idea es que en la transmisión cada integrante tenga un micrófono, y así tener mayor comodidad durante el programa que se va a realizar. Estos micrófonos irán conectados en la entrada de audio de la computadora con un adaptador para lograr conectar más de un micrófono.

2.5. Modem Banda Ancha móvil

Uno de los objetivos de esta tesis es transmitir los partidos del Club Deportivo Deportes Valdivia, es necesario tener un modem banda ancha móvil, ya que en los estadios solo algunos tienen conexión inalámbrica y los estadios que poseen conexión tienen un bajo ancho de banda. Por eso es necesario tener un modem de banda ancha móvil para no tener problemas con la transmisión.

En la selección del modem adecuado para lo que desea realizar se hizo un estudio de las ofertas que se encuentran en el mercado. Después de ver todas las compañías que tienen el sistema de banda ancha móvil, se selecciono la que tenia mayor velocidad de subida en su ancho de banda, ya que para realizar transmisiones streaming lo que más interesa de la conexión es la velocidad de subida.

17

Lo ideal para una transmisión sería tener una conexión alambrica con un plan que tenga una velocidad de subida al menos de 4 Mbps para una transmisión de alta definición pero por los recursos de nuestra transmisión solo se utilizará 512 Kbps que proporciona el modem banda ancha móvil seleccionada.

2.6. Servidor Streaming

En la actualidad existe una gran variedad de servidores streaming, tanto gratuitos como pagados. Los servidores streaming es un punto importante para la calidad del servicio. De esto depende en gran medida a calidad del servicio que se brinda a los receptores.

En nuestro canal utilizamos www.ustream.tv, es un servidor el cual tiene una plataforma amigable por lo cual resulta más fácil para crear un canal.

Ustream fue fundada en marzo del 2007 por sus creadores John Ham, Gyula Feher y Brad Hunstable. Este sitio web consiste en una red con una gran variedad de canales ofreciendo una plataforma streaming de video en directo o en baja demanda. Este sitio tiene más de dos millones de usuarios registrados, es unos de los servidores streaming más populares que existen.

2.7. Software de producción

En una transmisión para que resulte más interactiva es necesario agregar música, textos, información, logos, entre otras cosas. Por lo que es necesario tener un software de producción, el cual permita añadir lo que uno considere necesario en una transmisión según las necesidades del programa que se desea emitir.

En la transmisión streaming que se hizo en esta investigación, el software de producción se utilizó para las siguientes aplicaciones:

- Marcador del partido

- Logo del canal

- Cronometro

- Publicidad durante el partido

- Publicidad en el entre tiempo

18

- Formación de los equipos

- Contactos vía Skype

- Música de Fondo

- Audio de entrevistas

Hay una variedad de softwares de producción que existe en el mercado para realizar las funciones que necesitamos en nuestra transmisión streaming. El software que se utilizó en la implementación del estudio de televisión fue Xsplit Broadcaster versión 1.1. Este programa se puede conseguir de manera gratuita en www.xsplit.com, al entrar a esta página nos da la opción de descargar el software sin ningún problema, pero hay que tener en cuenta que si se adquiere la licencia del programa ofrece una mayor cantidad de servicio.

licencia del programa ofrece una mayor cantidad de servicio. Figura 2.4. Imagen de la página www.xsplit.com
licencia del programa ofrece una mayor cantidad de servicio. Figura 2.4. Imagen de la página www.xsplit.com

Figura 2.4. Imagen de la página www.xsplit.com donde señalan los beneficios al adquirir la licencia del software de producción.

Lo que nos ofrece Xsplit Broadcaster al adquirir la licencia son 12 escenas que pueden ser implementadas según las necesidades que se requieran, en cada escena se puede seleccionar varias opciones que entrega el software. Dentro de las opciones que se pueden manejar se encuentran:

- Agregar cámaras

- Seleccionar regiones de la pantalla

- Seleccionar cámara IP

- Agregar imágenes aleatorias y titulos

- Controlar el audio

- Controlar frame rate

- Entre Otros.

19

19 Figura 2.5 Imagen donde se ve el programa Xsplit Broadcaster. Otra cosa que hay que
19 Figura 2.5 Imagen donde se ve el programa Xsplit Broadcaster. Otra cosa que hay que

Figura 2.5 Imagen donde se ve el programa Xsplit Broadcaster.

Otra cosa que hay que tener en cuenta al adquirir la licencia de este programa es que habilita la opción de seleccionar el frame rate que más nos acomode en la transmisión streaming. Este punto es de gran importancia para la calidad de la imagen que se va entregar al receptor final, ya que las videocámaras que se están utilizando trabajan con un frame rate superior a 29,97 fps. Con la versión gratuita solo se puede utilizar un frame rate de 25,00 fps por lo que es necesario adquirir la licencia dando la posibilidad de trabajar con un frame rate ilimitado.

2.8. Sitio Web

En la creación de la página se utilizo la tecnología Blogger, en la cual nuestro sitio web consta de almacenamientos de fotos, publicación de videos, archivos de años anteriores, las estadísticas de los visitantes del sitio web, twitter, menú, entre otras cosas. Esta tecnología permite que las páginas web sean más amigables con su interface y además logra que los sitios web sean más dinámicos.

En el diseño de la página se utilizo una planilla editable, el cual usa un lenguaje basado en HTLM. Además la planilla tiene integrado los códigos JavaScript. El sitio de www.aguantecallecalle.com, se encuentra alojado en los servidores de Google, al igual que las imágenes que se suben a la página. El dominio se encuentra registrado en la empresa PowerHost Telecomunicaciones de Santiago.

20

En lo editable de la planilla se encuentra los widget, los cuales son una aplicación, generalmente presentes en archivos o ficheros pequeños que son ejecutados por un motor widgets. Su función es dar facilidad a los accesos usualmente utilizadas y proveer de información visual. En nuestro sitio web se utilizo para las fotos, el menú, contador de visitas, twitter, entre otras cosas.

También el sitio web cuenta con el servidor Histats, el que nos proporciona las estadísticas, como por ejemplo las personas que visitan el sitio web, el horario que nos visito, que navegador utilizó, el país, y muchos otros datos.

Hay que considerar que la marca de nuestro producto no se encuentra registrada por lo que se trabaja con la licencia Creative Comonns. La licencia con que se trabaja es con la condición de “Reconocimiento – Sin Derivar – No comercial”, el cual consiste en; “El material creado por usted puede ser distribuido, copiado y exhibido por terceros si se muestra en los créditos. No se puede obtener ningún beneficio comercial. No se pueden realizar obras derivadas”.

2.9. Redes Sociales

Las redes sociales es un fenómeno que se ha explotado inmensamente en la actualidad. Aguantecallecalle.com tiene cuentas en dos de las redes sociales más importante que existen en la actualidad, las cuales son facebook y twitter. La cuenta que se tiene en facebook es www.facebook.com/aguantecallecalle, la cual tiene más de cinco mil seguidores en la actualidad y la cuenta de twitter es www.twitter.com/delcallecalle con una cantidad de mil quinientos seguidores aproximadamente.

Con las redes sociales podemos realizar publicidad días antes o en el mismo momento que se está haciendo la transmisión. Nos permite publicar el enlace en que se está realizando la transmisión streaming.

Cada día se incorporan nuevos seguidores a nuestra cuenta de facebook y twitter, por lo que siempre varía la cantidad de usuarios que siguen nuestras redes sociales. Estas han sido de gran ayuda para realizar nuestros anuncios de las noticias del club, y también para promocionar sobre las transmisiones streaming.

21

21 Figura 2.6. En estas imágenes se muestra las redes sociales que se utilizaron para promocionar
21 Figura 2.6. En estas imágenes se muestra las redes sociales que se utilizaron para promocionar

Figura 2.6. En estas imágenes se muestra las redes sociales que se utilizaron para promocionar la transmisión streaming.

2.10. Resumen

1) La realizacion de la implementacion para nuestro estudio de television consta de dos videocámaras para obtener imágenes de distintos angulos y hacer una transmision más activa

Estas videocámaras van conectado a las entradas del switch selector de Audio/Video, el switch, como habíamos mencionado anteriormente, nos sirve para seleccionar la cámara que deseamos utilizar mediante un selector manual de canales.

3) Para que lleguen las imágenes de las videocámaras utilizamos una capturadora de imágenes que va conectado con la salida del swicth selector y mediante un cable USB se conecta al notebook.

2)

4)

La cámara web va conectada por medio USB.

5)

Se conecta el modem de banda ancha móvil para conectarse a la red.

6) La selección de imágenes entre la videocámara o la cámara web se hace mediante el software de producción, también con este programa se puede agregar el marcador del

7)

partido, propagandas, el cronometro, entre otras cosas. Los micrófonos van conectados en la entrada de micrófono que tiene el notebook.

8)

Una vez conectados todos los equipos vamos al servidor streaming (www.ustream.tv) en

9)

el cual creamos una cuenta para realizar la transmisión streaming. El servidor envía la señal que estamos transmitiendo a los seguidores.

10) En la página web www.aguantecallecalle.com enviamos el link donde se puede visualizar el programa que se está transmitiendo. 11) Mediante la cuenta de facebook y twitter de Aguantecallecalle.com realizamos la publicidad para visualizar la transmisión.

22

22 Figura 2.7. La secuencia de la figura parte en a) el cual son las videocámara

Figura 2.7. La secuencia de la figura parte en a) el cual son las videocámara y la cámara web que se utilizo, b) los micrófonos que van conectados al ordenador, c) el switch con el cual se elige que videocámara seleccionar, d) la capturadora de video el cual va conectada entre el switch y el notebook, e) el ordenador en el cual se encuentra el programa de producción, f) el modem banda ancha móvil para enviar la transmisión al servidor, g) el servidor streaming que envía la transmisión a los seguidores, h) de nuestra página web enviamos el enlace en cual los seguidores que entran al sitio web puedan ver la transmisión, i) los receptores que visualizan la transmisión streaming.

23

Capitulo 3

Compresión Audio y Video

Generalmente las aplicaciones multimedia necesitan volúmenes importantes de almacenamiento y transmisión. Por ello es necesario utilizar técnicas de compresión de las señales audiovisuales que permitan reducir el volumen de información necesario para representarlas.

El proceso de comprensión intenta lograr una representación más compacta de la señal digital, por medio de la eliminación de la redundancia existente en aquella señal. La información de audio y video son atrayentes desde el punto de vista de la compresión, ya que contienen una gran cantidad de información redundante que en gran parte se puede eliminar antes de su transmisión o almacenamiento.

Los procesos de compresión están bajo los fundamentos del conocimiento de la visión, audición y el cerebro, que trabajan en conjunto formando un sistema visual y auditivo humano demasiado complejo. Con estos estudios se logra una disminución relevante en el tamaño del archivo de video sin tener casi ningún efecto para la calidad visual.

3.1. Compresión audio

La digitalización de los archivos de sonido puede ser guardada en una variedad de formatos, dependiendo de sus características. Existen ciertos formatos que comprimen la información y otros que no lo hacen.

Los formatos de audio digital comprimidos son los que consiguen reducir el tamaño de los archivos de audio. La reducción de tamaño puede realizarse con pérdida o sin perdida. La reducción de los archivos utiliza unos algoritmos de compresión llamados códecs de audio.

3.1.1. Códec de audio

El códec de audio es un conjunto de algoritmos que hacen posible la codificación y decodificador de los datos auditivos, el proceso que realiza es de reducir la cantidad de bits que usa el fichero de audio. La función de los códec es comprimir ficheros o señales de audio que tienen flujos de datos, y así utilizar el menor espacio posible, logrando una buena calidad final, y

24

al descomprimirlo utilizar un formato más apropiado para poder reproducirlos. Estos se implementan en hardware, software o una combinación de ambos.

Existen una variedad de códec, las codificaciones de audio más utilizadas en las transmisiones streaming son PCM, DPCM, MP3, Speex y AAC.

3.1.1.1. PCM

El códec PCM (Pulse Code Modulation), es una manera de representar digitalmente las señales analógicas, en la que la magnitud de la señal analógica es medida regularmente en intervalos uniformes, cada una de las muestras es cuantizada al valor más cercano de un rango de valores digital. Es el estándar de audio digital en los CD, DVD, ordenadores, además de los teléfonos digitales.

3.1.1.2. DPCM

El códec DPCM (Differential Pulse Code Modulation) es una versión de PCM, el cual codifica los valores de las muestras como las diferencias entre el valor actual y el predicho. Lo que permite la reducción de un 25% respecto a PCM.

3.1.1.3. MP3

Este método de codificación es uno de los más populares, debido a que logra la reducción de hasta 15 veces el tamaño de los datos. Este códec, también conocido como MPEG-1 Audio layer 3 o MPEG-2 Audio layer 3, se basa en la eliminación de las frecuencias imperceptibles por el oído humano. En su codificación y decodificación usa la transformada de Fourier.

3.1.1.4. Speex

Es un códec de software libre el cual tiene como objetivo especializado en voz. Este fue diseñado como un códec de audio de propósito general. Está basado en CELP (Code-excited linear prediction) y diseñado para comprimir voz de bit rates. La característica de Speex es la codificación de intensidad estéreo, integración de múltiples frecuencias de muestreos en el mismo bitstream.

25

3.1.1.5. Audio Advanced Coding

El códec AAC es un formato de compresión de datos de audio, el cual fue desarrollado por el Instituto Fraunhofer asociado con AT&T, Sony, Nokia y Dolby. AAC Pertenece al estándar internacional ISO/IEC 13818-7.

El formato AAC utiliza una manera de compresión que disminuye algunos de los datos de audio, la cual es denominada “compresión con perdidas”. Esta comprensión elimina algunos de los datos de audio, como ejemplo las frecuencias inaudibles, con esto se puede obtener mayor grado de compresión posible y producir un archivo de salida que suene lo más parecido posible al original.

Por el buen rendimiento y calidad de AAC se encuentra en el núcleo de MPEG-4, 3GPP y 3GPP2, además es el códec de audio de elección para el uso de internet, conexiones inalámbrica, streaming y la radio difusión digital.

Este códec lo analizaremos más en detalles, ya que fue el codec que se utilizo en las transmisiones streaming que se realizó.

3.1.1.5.1. Características AAC

El estándar AAC usa la codificación variable de la frecuencia de bits o conocido como VBR, un proceso de codificación el cual adapta el número de bits usados por segundo en el codificador de datos de audio, dependiendo de la dificultad de la transmisión de audio en un momento determinado. Lo que se usa como algoritmo es superior en rendimiento que el de MP3, logra producir una mejora en la calidad en archivos pequeños y necesita menos recursos en el sistema para codificar y decodificar.

Otra de las características del formato AAC es que tiene la posibilidad de admitir sonidos polifónicos con un máximo de 48 canales. Además AAC permite frecuencias de muestreo que varían de 8 Hz a 96 KHZ

3.1.1.5.2. Diagrama de bloques AAC

Generalmente, los servidores streaming trabajan con el códec AAC debido que tiene una mayor estabilidad, mayor calidad y un sonido más cristalino. Debido a su gran calidad y alto

26

rendimiento, se encuentra situado en el núcleo del MPEG-4 Parte 3, 3GPP y 3GPP2 de especificaciones.

Aparte de los servidores streaming el códec AAC se utiliza en aplicaciones como Winamp, Nintendo DSi, Nero, entre otras. También Apple utiliza este estándar como formato principal para los iPod y en iTunes.

Los buenos resultados de AAC permiten proporcionar tasas binarias muy bajas, 64 Kbps, lo que hace atractivo para los sitios de internet utilizar este estándar de codificación.

sitios de internet utilizar este estándar de codificación. Figura 3.1.Diagrama del códec AAC. La imagen fue

Figura 3.1.Diagrama del códec AAC. La imagen fue proporcionada por el anexo 1, en el cual se puede encontrar más detalles técnicos del estándar AAC.

3.2. Compresión de video

Cuando se digitaliza una secuencia de video, este puede tener un archivo con una gran cantidad de bits por cada segundo, por lo que utilizaría un elevado ancho de banda en la transmisión multimedia. Para no tener inconveniente con lo anterior se han creado distintas técnicas de compresión, lo cual facilitan la transmisión de las aplicaciones multimedia. A continuación nombraremos las técnicas de compresión de MPEG.

3.2.1. MPEG-1

Esta técnica está más centrada en la compresión que en la calidad de imágenes. Es similar a la calidad del VCR pero en formato digital. Tiene una resolución de 352x288 pixeles aproximadamente y un codificador de 1,5 Mbps, con compresión de movimiento y predicción temporal. Además se utiliza para el almacenamiento de video digital en CD´s.

27

3.2.2. MPEG-2

Está compresión busca cubrir imágenes más grandes y con mayor calidad, se basa en la técnica de MPEG-1, este utiliza un mayor ancho de banda, debido a que tiene un menor coeficiente de compresión y proporciona un soporte para video entrelazado. Hay que considerar que las técnicas de MPEG-2 poseen procesos más avanzados para perfeccionar la calidad del video con una cantidad similar de bits. Todas las características mencionadas anteriormente se pueden adecuar su uso en aplicaciones en tiempo real. El inconveniente que tiene esta técnica es que se necesita un equipamiento algo más complejo. La aplicación de este compresor se utiliza mucho en los discos SVCD y DVD.

3.2.3. MPEG-4

En esta generación de MPEG se baso en las técnicas utilizadas anteriormente, tanto en MPEG-1 como MPEG-2, y se orientó en nuevas aplicaciones. Unas de las características nuevas en esta técnica son el soporte de aplicaciones que utilizan menor ancho de banda y las aplicaciones que tienen mayor calidad y sin casi limitar el ancho de banda, esto es lo que más ha llamado la atención de los usuarios que desean esta aplicación. MPEG-4 ha sido creado para la teledifusión y además para la difusión por la web, ya que permite la difusión de diferentes relaciones en la transmisión que el estándar permite.

Gracias a MPEG-4 se crearon una gran diversidad de tecnologías para desarrolladores, proveedores y usuarios finales. Ha permitido que distintos desarrolladores puedan crear hardware y software de multimedia que tienen mayor cualidad de adaptación y flexibilidad para aumentar la calidad de las tecnologías y de los servicios, tales como editores de videos, animación de gráficos, televisión digital, la World Wide Web, etc.

Los proveedores de la red de datos recurren a MPEG-4 para realizar la transferencia de información, los datos MPEG-4 logran ser interpretados y transforma en diferentes tipos de señales compatibles con cualquier red que se requiera.

Con MPEG-4 se pueden realizar las funciones de multiplexación y sincronización de datos, en conjunto con los objetos del medio, para que sea transportado de una manera más eficaz mediante los canales de la red.

28

MPEG-4 aún está en progreso y se divide en partes. Estas partes son una serie conjuntos de herramientas para la codificación, y estos conjuntos están divididos en subconjuntos donde estas herramientas son de usos aplicaciones más específicas.

MPEG-4 está compuesta de varias “partes”, el cual nos interesa para la realización de transmisiones streaming es la MPEG-4 parte 10 o H.264.

de transmisiones streaming es la MPEG-4 parte 10 o H.264. Figura 3.2. Diagrama del estándar MPEG-4

Figura 3.2. Diagrama del estándar MPEG-4 AVC. La imagen fue proporcionada por el anexo 2, en el cual se puede encontrar más detalles técnicos sobre los estándares de MPEG.

3.2.3.1. H.264

En la gama de videos en los sitios web la tecnología H.264 ha penetrado de una manera notable en el mundo del internet.

Hay que tener presente que todos los sitios de videos por medios de páginas web utilizan una plataforma Flash, como por ejemplo; Youtube, Vimeo, Myspace, Skype, Ustream, etc. Todos los nombrados reproducen sus videos mediante la tecnología Flash, que utiliza un formato de video FLV. Pero para utilizar Adobe Flash se necesita un códec, el cual se llama H.264 o también conocido como MPEG-4 parte 10.

Este códec tiene una gran variabilidad para ofrecer aplicaciones que van desde una videoconferencia, con una imagen muy comprimida y un tamaño de imagen bajo, hasta

29

formatos de cine enormes y con una gran calidad. Utilizar este método con una condición variable de opciones para el conjunto de videos en la web, que se van modificando constantemente.

La compresión de un video consiste en diversas situaciones que hay que considerar, como por ejemplo la alta resolución o mayor tamaño de un video. También la duración del video, si aumenta la duración de un video mayor será la cantidad de datos para transmitir. Estas dimensiones temporales y espaciales de un archivo de video son la clave en que está enfocada la compresión de H.264, para lograr transmitir un video lo más parecido al video original.

H.264 posee una tecnología moderna para detectar y empaquetar eficientemente cuadros repetidos, aun cuando disminuir la tasa de cuadros pueda reducir la cantidad de información que se necesita empaquetar.

La norma H.264 se define como un códec de video de alta compresión. El objetivo de este proyecto es proporcionar una buena calidad de imagen que tenga tasas binarias muy inferiores a los estándares anteriores. Esto se debe al aumento de la complejidad en la codificación, los bloques de diversos tamaños, las múltiples imágenes de referencia, etc. Todo lo nombrado hace que el aumente el tiempo en el proceso de codificación.

Lo otro importante de este códec es que permite la posibilidad de transmisión de diversos medios de difusión, desde computadoras hasta teléfonos móviles con la tecnología 3G.

En la actualidad prácticamente la gran mayoría utiliza este estándar para la reproducción de video, como videocámaras de última generación, iphone, PS3, Xbox 360, HD DVD, Blu Ray, etc. Todos aquellos utilizan el formato H.264.

3.2.3.1.1. Estructura H.264

Este códec está compuesto por dos capas, la capa de codificación de video (VCL, Video Coding Layer) y la capa de abstracción (NAL, Network Abstraction Layer).

La capa de codificación de video representa el núcleo de los datos codificados. Esta capa está relacionada con la secuencia de video a codificar, cuadros o campo que se encuentren dentro de la secuencia de video, rebanadas dentro de cada cuadro y macrobloques

30

que se encuentran en cada rebanada, además de los bloques dentro de los macrobloques. Los cuadros están divididos en rebanadas y una rebanada de video es una secuencia de macrobloques, los cuales pueden obtener diferentes tamaños. En el conjunto de rebanadas, la ubicación de un macrobloque se establece mediante un mapa que representa al grupo de rebanadas. El mapa proporciona el grupo de rebanadas que pertenece el macrobloque.

La capa de abstracción lo que hace es abstraer los datos para permitir la compatibilidad al tren de bits de salida del codificador con prácticamente todos los canales de comunicación o medios de almacenamiento. En esta unidad de red, detalla los datos en un formato de paquetes o bytes. Los formatos de paquetes cumplen la función de establecer los paquetes de datos que no se pueden identificar por protocolos de transporte en las aplicaciones de RTP/UDP/IP. El otro formato es el de bytes, el cual su función es indica los patrones de bytes o de bits que se utilizan en el estándar H.320 o MPEG-2.

3.2.3.1.2. Perfiles H.264

En el estándar H.264 existen una serie de perfiles, dentro de los principales se encuentra línea de base, principal y alta. Estos perfiles son un conjunto de características que apuntan a determinadas aplicaciones diferentes. Con esto resulta más fácil entender la eficiencia versus el rendimiento, dependiendo el perfil que se elija. Los perfiles que tienen mayor capacidad tienden a tener mejor calidad para una tasa de bits determinado, pero esto hace consumir una mayor cantidad de recursos.

3.2.3.1.2.1. Perfil línea de base

El perfil línea de base se utiliza cuando el video es liviano como en la reproducción de celulares o video conferencia. Este perfil tiene la compresión de menos eficiencia entre los demás perfiles mencionados, y el consumo más bajo de la CPU en la decodificación.

3.2.3.1.2.2. Perfil principal

El perfil principal es mejor que el perfil línea de base, lo que implica que tiene una mayor eficiencia, también tiene un mayor demanda de poder de procesamiento. Este perfil se utiliza en los videos de calidad media para aplicaciones de video en la web.

31

3.2.3.1.2.3. Perfil Alto

El perfil alto cuenta con mayor capacidad que los perfiles anteriores, lo que permite empacar con la mejor calidad en una tasa de bits, por lo que hace el perfil más eficiente. En su origen se pensó para aplicaciones de alta definición como Blue-ray, pero el perfil se empezó a utilizar harto en video en la web debido al aumento del ancho de banda y al aumento de la tecnología en los computadores.

de banda y al aumento de la tecnología en los computadores. Figura 3.3. La tabla muestra

Figura 3.3. La tabla muestra las capacidades de codificación por perfil.

3.2.3.1.3. Fotograma H.264

En la tecnología H.264 constan cinco tipos de posibles fotogramas a codificar, el cual describiremos solo tres de ellos, ya que son los más importantes. Dependiendo del perfil que utilice H.264, el codificador puede usar distintos tipos de fotogramas; Fotogramas I, fotogramas P y fotogramas B.

32

Hay que tener claro un concepto respecto con estándares anteriores es el GOP (Group Of Pictures). El GOP está hecho por una secuencia de fotogramas sucesivos que inicia y finaliza con un fotograma I. El estándar H.264 no se asimila al concepto de GOP, debido que H.264 no tiene la necesidad de utilizar más de un fotograma tipo I dentro de una secuencia de video. Si el estándar GOP utilizaría un solo fotograma I al inicio nunca finalizaría, de ahí que no se use este concepto dentro del estándar.

3.2.3.1.3.1. Fotograma tipo I

El fotograma I, también llamado intrafotograma, es una imagen autónoma la cual puede cumplir la función de codificar de manera independiente sin realizar referencia a otras imágenes. Hay que considerar que la imagen de una secuencia de video es siempre un fotograma I. Los fotogramas I son los puntos de inicio de nuevas visualizaciones o pueden ser utilizados si la transmisión de bits es dañada como puntos de resincronización. Otro uso que se puede hacer al fotograma I es en la implementación de funciones de avance o retroceso rápido o de acceso aleatorio. Un codificador puede insertar automáticamente fotogramas I a intervalos regulares o a petición de nuevos usuarios que podrían incorporarse a la visualización de una transmisión. La desventaja de este fotograma consiste en el consumo de muchos bits, pero por lo general no generan demasiados defectos.

3.2.3.1.3.2. Fotograma Tipo P

Fotograma P, o también interfotograma predictivo, trabaja en la redundancia temporal que existe entre varios fotogramas próximos en el tiempo. Por lo que un fotograma tipo P permite referenciar secciones de video parecidas en fotogramas anteriores y codificar la diferencia entre éstas y el fotograma actual. Cuando se envía sólo esta diferencia, la carga binaria es más pequeña a la que tienen los fotogramas I.

3.2.3.1.3.3. Fotograma tipo B

Fotograma B, o interfotograma bipredictivo, tienen similitud con los fotogramas tipo P, trabajando de igual manera en la redundancia temporal. En los fotogramas tipo B son utilizados como referencia de fotogramas posteriores a ellos en el tiempo, en vez de hacerlo solamente con fotogramas pasados como lo realiza el tipo P. Estos fotogramas producen una notoria disminución la velocidad de codificación del sistema. Existe la posibilidad de ser utilizado

33

fotograma de referencia tipo I, fotogramas tipo P o también fotogramas tipo B. Hay que considerar que en estándares anteriores los fotogramas tipo B no se podían usar como fotograma de referencia. La codificación de fotogramas B se necesitan menos bits en comparación con los otros tipos de fotogramas, debido a que la predicción que se hace entre dos fotogramas de referencia puede combinarse produciendo que el residuo a codificar sea menor.

combinarse produciendo que el residuo a codificar sea menor. Figura 3.4. En la figura se muestra

Figura 3.4. En la figura se muestra la secuencia típica de fotogramas.

3.2.3.1.4. Macrobloques y slices

Los macrobloques o MB, se encuentran como conjunto en un fotograma. El concepto de macrobloque consiste en una agrupación de pixeles dentro de un fotograma, como se muestra en la figura 3.3.

dentro de un fotograma, como se muestra en la figura 3.3. Figura 3.5. En la imagen

Figura 3.5. En la imagen se muestra el ejemplo de pixeles, bloque, macrobloque y slice.

34

Los macrobloques pueden ser de diferentes tipos, los MB son clasificados de las siguientes maneras; MB I, MB P, MB B y MB Skip.

Un macrobloque tipo I se codifica sin tener la necesidad de tener otros MB de referencia. El macrobloque tipo P y tipo B, predicen otros MB ubicados en otros fotogramas dentro de la misma secuencia de video. Los macrobloques tipo P buscan solo referencias en fotogramas anteriores en el tiempo al actual. En los macrobloques tipo B buscan referencias en los fotogramas anteriores y posteriores. En los macrobloques Skip no se codifica, debido a que el contenido del MB es similar al de sus MB vecinos, por lo que el codificador entiende que no existe la necesidad de codificar ambos, por lo que marca como tal.

Los fotogramas pueden estar con cierto tipo de macrobloques. Un fotograma tipo I solamente puede estar formado por un MB tipo I. Un fotograma tipo P está formado por un MB tipo I, P o Skip. Finalmente el fotograma tipo B está formado por MB tipo I, B, P o Skip.

El slice o también llamada rebanada, es el conjunto de macrobloques. Cada fotograma puede tener uno o más slices, para cada slice puede decodificarse independientemente de los demás, debido a que no hay dependientes entre ellos. La función que tienes los slices es que se usan para la decodificación de los distintos slices presentes en un fotograma, se puede realizar en paralelo para aumentar la velocidad del proceso.

3.3. Algoritmo codificación de video

El codificador de video tiene la posibilidad de optar por dos tipos de codificación; INTRA o INTER.

La primera codificación nombrada se usa en varios modos de predicción para disminuir la redundancia espacial de un solo cuadro. La codificación INTRA puede poseer muchas especificaciones, todo esto depende del tamaño en los bloques que se quieren codificar. Previamente de ser cuantizado, la predicción residual o error, se comprime cada vez más usando una transformada, esto implica que se remueve la correlación espacial del bloque. Posteriormente los coeficientes cuantizados y los vectores de movimiento se codifican usando codificadores de entropía tales como CAB AC (Context-Adaptive Binary Arithmetic Codes) o CAVLC (Context-Adaptive Variable lenght Codes).

35

En la codificación INTER se utiliza la codificación tipo predictiva o bidireccional de cada bloque de muestras, hay que tener en cuenta que la codificación INTER es más eficiente. Esta codificación para disminuir la redundancia temporal entre cuadros usa vectores de movimiento. Se obtiene la predicción después de filtrar el bloque anterior reconstruido. Para reducir las distorsiones o los artefactos introducidos en la orillas de un bloque se utiliza el filtro.

en la orillas de un bloque se utiliza el filtro. Figura 3.6. Diagrama de bloque de

Figura 3.6. Diagrama de bloque de la codificación del códec H.264

3.3.1. Transformada de coseno discreta y cuantificación

La transformada discreta del coseno o también llamada DCT, está basada en la transformada de Fourier, gracias a DCT se puede formular una secuencia finita de valores reales, tales como el resultado de la suma de diferentes señales sinusoidales creadas por la función del coseno. DCT es una función biyectiva con dominio y condominio en R N , se puede aplicar en los vectores como en las matrices. Se utiliza para la compresión de imágenes.

La característica de la transformada de coseno discreta es que es un estándar de compresión de imagen que tiene excelentes propiedades, la cuales son:

- Codificación con una gran precisión en los límites de subimagen, a pesar que no se use algunos coeficientes en la reconstrucción.

- Se puede incorporar modelos visuales para controlar la codificación.

- Compacta la información en unos pocos coeficientes.

- De una subimagen NxN proporciona NxN coeficientes reales.

36

- No depende de los datos. Es ortogonal.

- Tiene algoritmos eficientes para su cálculo.

La formula que se necesita para calcular la matriz transformada B de NxM valores a
La formula que se necesita para calcular la matriz transformada B de NxM valores a
partir de la matriz A de iguales dimensiones es:
(1)
Por lo que la inversa sería:
(2)
Hay que considerar que para ambas ecuaciones corresponde:
(3)
Además
(4)

La transformada de coseno discreta (DCT) por cada MB es subdividido en bloques, a los que se le aplica a cada uno la transformada. La DCT hace un cambio del dominio espacial al dominio de las frecuencias, juntando las frecuencias más bajas en el sector superior izquierda del bloque, las frecuencias bajas son las más importante, debido a que se junta la mayor parte de la energía. Hay que tener en cuenta que el coeficiente que se encuentra en la esquina superior izquierda del bloque se le denomina el Coeficiente de Continua (DC), el cual posee mayor información, lo que implica que debe ser tratado cuidadosamente. Lo que queda del coeficiente son los llamados Coeficientes de Alterna (AC), este posee menor cantidad de información, sobre todo cuando más abajo y a la derecha se encuentren.

37

Después de utilizar la DCT se hace una cuantificación de los coeficientes resultantes, dividiéndolos entre un factor. Para cada posición del bloque el factor puede ser diferente, siendo mayor en los coeficientes menos importantes, debido a que al hacer esta cuantificación se desperdicia más información cuando el factor de cuantificación es mayor. También la cuantificación puede variar dinámicamente para poder ajustar el caudal resultante, si se quiere reducir el caudal se empleará valores variantes, y para aumentar se debe disminuir la variación de los valores. Con esto se puedo lograr flujos a caudal constante, pero la calidad variable, para introducirlos en una red de comunicaciones.

Cuando los valores son cero después de la cuantificación no se lograrán recuperarse, debido a que habrá perdido toda la información relativa a ellos. A pesar de aquello, la pérdida que se produce no es muy significativa si los valores se encuentran en la parte inferior derecha, además el motivo que sean cero aumenta la tasa de compresión en el codificador de entropía.

3.3.2. Codificador de entropía

La principal característica que incorpora H.264 son las diferentes alternativas que entrega en el momento de codificar la información una vez que las imágenes han sido procesadas.

Los codificadores de entropía como es CABAC entrega un gran rendimiento, ya que se puede adaptar al cambio de probabilidades de distribución de los datos a codificar, aprovechando la secuencia de correlación entre ellos, y también las correlaciones adaptativas de bits por medio de un código aritmético. Además el estándar H.264 tiene como codificador CAVLC, el cual entrega mejor rendimiento que VLC y sin el extremo coste de CABAC.

3.3.3. Predicción macrobloques

Los macrobloques codificados en H.264 se consiguen de los datos previamente codificados. Los marobloques I han sido predichos de muestra en la misma región del mismo cuadro que ya han sido codificadas. En tanto, los macrobloques P son la consecuencia de la predicción de muestras espaciales antes codificadas.

En el caso de los macrobloques residuales se obtienen mediante la diferencia de los macrobloques resultantes de las predicciones y de los macrobloques actuales, los cuales son

38

comprimidos y transmitidos junto a la información necesaria para repetir el proceso de predicción en el codificador.

3.3.4. Predicción inter

La predicción Inter es desarrollado por macrobloques P, estos trabajan en el dominio temporal, utilizando compensación de movimiento basado en bloques. En lo que se diferencia con los demás estándares es que reside en el rango de tamaños de bloques soportados por H.264, que son desde 4x4 hasta 16x16 y el vector de movimiento de las sub-muestras.

3.3.4.1. Compensación de movimiento con estructura de arbol

Hay que considerar que los macrobloques de luminancia (16x16 muestras) existe la posibilidad de ser dividido de cuatro formas, como se ve en la figura 3.7, el movimiento se puede compensar con cada uno de ellos. Además se puede tomar sub-macrobloques de 8x8 muestras, y ser divididos en cuatro, como se muestra en la figura 3.8. La división que se realizó en los sub-macrobloques da origen a más posibilidades para representar un macrobloque.

origen a más posibilidades para representar un macrobloque. Figura 3.7. División de macrobloques Figura 3.8. Division

Figura 3.7. División de macrobloques

para representar un macrobloque. Figura 3.7. División de macrobloques Figura 3.8. Division de sub-macrobloques

Figura 3.8. Division de sub-macrobloques

39

La técnica de particionamiento de macrobloques y compensación de movimiento de los sub-bloques tiene el nombre de Compensación de Movimiento con Estructura de Árbol. En este método cada partición o submacrobloque necesita de un vector de movimiento por separado.

El rendimiento de la compresión se puede ver afectado directamente por la selección del tamaño del bloque, lo que implica la utilización de un tamaño de bloque variablemente de acuerdo a la energía del cuadro residual.

3.3.4.2. Vector de movimiento

Este vector tiene la información de la compensación de movimiento de las muestras respecto al cuadro de referencia. El vector de movimiento que tendrá la resolución para la luminancia es de un cuarto de las muestras y para la crominancia será de un octavo. Por el motivo que el cuadro de referencia no tiene las posiciones para las sub-muestras, estas tienen que ser calculadas con la interpolación de las muestras codificadas.

La creación de las sub-muestras (half pel) que se encuentran en la figura 3.9, se hace mediante la interpolación de un conjunto de seis muestras enteras denominadas FIR, ubicadas de una manera vertical u horizontal. Las seis muestras participan a la sub-muestra un factor de:

La manera como calcular las sub-muestras se dan a conocer en la siguiente figura 3.9, así para calcular b se usan las muestras enteras horizontales E, F, J, H, I, J. Además para calcular las verticales A, C, G, M, R, T.

E, F, J, H, I, J. Además para calcular las verticales A, C, G, M, R,

Figura 3.9. Calculo de las sub-muestras.

40

Una vez realizado el cálculo de las half-pel se hace el cálculo de las sub-muestras a un cuarto de distancia (quarter-pel), por lo que hay que hacer es una interpolación de la muestra entera y la sub-muestra half-pel contiguas, así se ve en la figura 3.10.

half-pel contiguas, así se ve en la figura 3.10. Figura 3.10. Sub-muestras quarter-pel. Se utilizan las

Figura 3.10. Sub-muestras quarter-pel.

Se utilizan las sub-muestras quarter-pelpara la compensación de movimiento en el cuadro de luminancia. Ya que el perfil básico hace un muestreo 4:2:0 para la crominancia se requiere hacer la interpolación lineal entre las cuatros muestras enteras entorno de la sub- muestra de resolución de un octavo.

3.3.4.3. Predicción del vector de movimiento

La predicción del vector de movimiento podría disminuir la eficiencia de la compresión con la codificación de cada vector de movimiento, en particular si se toman tamaños pequeños de particiones, por lo que se debe aprovechar la correlación entre las muestras próximas para predecir los vectores de movimiento. Con los vectores vecinos previamente codificados se realiza la predicción y se substrae del vector de movimiento actual, con lo que solo se codifique el residuo y éste sea transmitido.

3.3.5. Predicción intra

Como se menciono anteriormente, un fotograma tipo I no explota la redundancia temporal que se encuentra en la secuencia. En el estándar H.264 para disminuir el régimen binario necesario para codificar un MB I se de usar un sistema de predicción algo complejo, explotando la redundancia espacial, conocido como predicción Intra.

41

La predicción Intra trabaja usando los valores de los pixeles adyacentes al MB a codificar, así realizar una predicción de dicho MB. Después hay que calcular la diferencia de esta predicción con el MB real a codificar, considerar que solo hay que codificar dicha diferencia. Con esto podemos reducir de manera considerable la información a codificar, explotando la redundancia espacial que se encuentra entre los MB contiguos.

En la predicción para la luminancia hay nueve modos diferentes (bloques de 4x4 o 16x16) y en existe tan solo un modo en la crominancia (bloques de 4x4).

En este tipo de predicción se tiene por un lado un fotograma a codificar y por otro lado se tienen los bloques de 4x4 pixeles predichos por el codificador. La diferencia entre éstos y el original debe ser codificada, teniendo como resultado una ganancia significativa en eficiencia de codificación. El codificador seguirá el proceso de analizar las predicciones posibles en cada bloque, para poder ver cual tiene menor diferencia con el bloque que se debe codificar, y así minimice el residuo.

el bloque que se debe codificar, y así minimice el residuo. Figura 3.11. Imagen en que

Figura 3.11. Imagen en que se muestra la predicción Intra de 4x4.

42

42 Figura 3.12. Imagen en que se muestra la predicción Intra de 8x8. Figura 3.13. Imagen

Figura 3.12. Imagen en que se muestra la predicción Intra de 8x8.

3.12. Imagen en que se muestra la predicción Intra de 8x8. Figura 3.13. Imagen en que

Figura 3.13. Imagen en que se muestra la predicción Intra de 16x16.

43

Capitulo 4

Tecnología Flash en Streaming

En la actualidad casi la mayoría de los sitios web o servidores streaming utilizan como plataforma la tecnología de Adobe Flash, la cual ha revolucionado al mundo de la multimedia por medio de sus aplicaciones como en la animación, juegos, video, audio y en la interactividad de páginas web.

A los inicios Adobe Flash solo estaba diseñado para la animación al contenido de la web por medios de gráficos vectoriales realizado sobre fotogramas. Más adelante se le agrego un lenguaje propio de programación hacia a objetos conocidos como Actionscript. Con esta propiedad permite tener sus propios códigos o también lograr hacer invocaciones remotas y serializaciones de datos hacia un servidor Flash remoto, por lo que se creó el formato AMF. Otra de las mejoras importante que realizó Flash es la capacidad de reproducir y grabar audio y video con una variedad de códecs, usando ficheros con formato FLV o la transmisión streaming por la red. El protocolo de transporte RTMP se utiliza para realizar una transmisión streaming el video en formato FLV.

Flash se localiza con ficheros con extensión SWF, que se alojan como objetos de las páginas web, y se pueden ver en los navegadores por medio del plugin Flash Player, con lo que logra ser multiplataforma.

4.1. SWF

Los ficheros SWF (Small Web Format) son el formato de archive que almacena el contenido Flash. La idea de este formato es utilizar un pequeño espacio y así transferirse con facilidad alojando en los sitios web.

En un principio eran ficheros muy livianos que su única función era de contener imágenes y objetos vectoriales de manera secuencial para el diseño de la web. Una de las ventajas que tiene es que los ficheros SWF son más pequeños gracias al uso gráficos victoriales en conjunto con el código programado, esto implica que utiliza menos ancho de banda que video o imágenes.

44

En el día de hoy los ficheros SWF logran contener el código programado por ActionScript, imágenes, videos, audio y gráficos vectoriales. Las páginas web consideran como un elemento más a los ficheros SFW descargados, y son descifrados con el plugin Flash del navegador web

Existe una variedad de productos para generar los ficheros SWF, tanto como productos de Adobe Flash como software libres.

4.2. ActionScript

Este es un lenguaje de programación utilizado para crear scripts en la plataforma Adobe Flash. Esta programación permite en las aplicaciones de la plataforma Flash mucha más eficiencia para realizar cualquier tipo de animaciones, desde sencillas a difíciles, complejas en datos e interfaces interactivas. El lenguaje de ActionScript es de código abierto, tanto la maquina virtual como el compilador se encuentran disponible en código abierto. AVM (ActionScript Virtual Machine) es la maquina virtual la cual ejecuta lo programado por ActionScript y se encuentra adentro de Flash Player. En la actualidad se encuentra la versión ActionScript 3.0.

En el año 2000 se creó la versión 1.0, consiste en manejar las animaciones vectoriales 2D realizadas con Macromedia Flash. ActionScript 1.0 permite la rápida construcción de scripts para proyectos de pequeña escala. Está basada en prototipo, un estilo especial de objeto que tiene todas las características comunes de una clase.

ActionScript 2.0 surge al mercado en el 2003 debido a la necesidad de un lenguaje con mayor preparación para el desarrollo de aplicaciones más complejas. En la versión 2.0 se incluye una sintaxis interfaces y clases (similar a los lenguajes en clases como C++ y Java). También las variables pueden ser tipiadas de manera que los errores tipos logran ser encontrados en el tiempo de la compilación.

En la actualidad se utiliza ActionScript 3.0, fue presentado en el 2006. La ventaja de esta nueva versión es que es diez veces más rápida que las versiones anteriores, debido a que utiliza una tecnología más desarrollada en la máquina virtual AVM2, que es considerablemente más rápida que la anterior. De las cosas que se destacan en esta última versión son las siguientes:

45

 

-

Notifica más situaciones de error que las versiones 1.0 y 2.0

-

Mejor seguridad en los tipos del sistema.

-

Mejoramiento en el rendimiento y reduce el uso de memoria.

-

Mayor solidez en los programas

-

Implementación completa de ECMAScript (EX4) para procesado XML

-

Soporte para paquetes, expresiones regulares y espacios de nombres

4.3.

AMF

AMF (Action Message Format) se utiliza para serializar objetos e invocaciones en ActionScript. AMF es un formato binario, el cual permite el intercambio de datos entre una aplicación Flash y aplicaciones de internet. La primera versión que se implementó fue AMF0, la cual estaba acompañada de Falsh6, luego con ActionScript 2.0 se mantuvo AMF0 sin ninguna modificación y finalmente con ActionScript 3.0 se creó una versión absolutamente nueva, con un lenguaje renovado y con la versión AMF3.

El modo en que un programa ActionScript funciona desde el reproductor Flash es con los siguientes pasos:

- Conecta al servidor mediante una URL

- Accede al servicio el cual admite la comunicación AMF

- Invoca métodos en el servicio

- En las invocaciones los argumentos son serializados en el formato AMF y deserializado en la parte del receptor

- La entrada es procesada por el servicio y opcionalmente devuelve datos por medio de AMF

Del siguiente modo permite realizar el intercambio de información de estado, invocación de métodos remotos y la transmisión tipos complejos de datos.

4.4. Flash Player

El software de Flash Player hace posible ver las animaciones, audio y video en los navegadores. Para la aplicaciones de este software es necesario instalar un plugin en los

46

navegadores que se utilizan en las actualidad como por ejemplo; Google Chrome, Opera, Firefox, entre otros. Admite la reproducción del contenido Flash de los ficheros SWF.

Tiene un motor de renderizado de gráficos vectoriales y mapa de bits, realiza la transmisión mediante el protocolo RTMP, con contenidos en ficheros o en formato FLV en ficheros SWF. También interpreta el lenguaje de script nativo ActionScript por medio de la maquina virtual AVM (ActionScript Virtual Machine) y permite grabar y reproducir audio y video en una variedad de formatos.

4.5. Video Flash

La extensión FLV, estas siglas representa las de Flash Video. FLV son archivos de videos comprimidos mediante el códec de video Sorenson Spark, el cual permite su funcionamiento en perfectas condiciones. FLV se utiliza para transmitir y recibir video sobre internet utilizando Adobe Flash Player.

El códec de video Sorenson Spark que incluye Flash logra introducir un contenido de video incorporado a Flash. Este códec es un codificador y decodificador de video de alta calidad el cual disminuye en gran cantidad el ancho de banda y así lograr publicar imágenes en Flash y además aumentar la calidad de video.

Video Flash su contenido puede estar en ficheros con extensión FLV, estar introducido de los ficheros SWF, ser recepcionado utilizando streaming mediante la codificación RTMP o también mediante HTTP, lo que logra utilizarlo para envío y reproducción en vivo.

47

Capitulo 5

Capa de transporte

Es el medio que se encarga de la transferencia de datos libres de errores entre el emisor y receptor, a pesar que no estén directamente conectados, así como mantener el flujo por la red. La función principal de esta capa es brindar un transporte de datos confiables. Si no existiera la capa de transporte, la idea total de los protocolos en capas no tendría ningún sentido.

5.1. TCP/UDP en streaming

En el transporte de la información de las redes IP los protocolos que más se utilizan son TCP/UDP. Los dos protocolos hacen posible el transporte del video streaming.

El protocolo TCP se orienta en la conexión, esto quiere decir que lo primero es la conexión que se establece entre los usuarios que desea ver la transmisión streaming y el servidor que envía la señal, lo que implica que el protocolo TCP hace que la conexión sea fiable. En cambio el protocolo UDP no está orientado a la conexión, no instaura una conexión previa con el otro extremo, esto lo realiza el protocolo TCP. UDP solo envía los paquetes, por lo que este protocolo no es fiable, los paquetes tienen la posibilidad de perderse o llegar dañados, pero esto es ideal para una transmisión de audio y video.

5.2. UDP

Como se ha mencionado este protocolo de nivel de transporte sin conexión resulta ideal para la transmisión multimedia en tiempo real debido a que no garantiza la entrega. Para las transmisiones streaming esto es una ventaja a pesar que suena como un inconveniente. Los archivos o correos electrónicos es necesario que la información deba llegar completa sin importar la duración de la transferencia. Por lo contrario, para la transmisión audio y video no importa si no llega por completa la información, si se pierde un cuadro de video no tiene sentido repetir la transmisión del video por la pérdida de ese cuadro, ya que es un desperdicio en el ancho de banda.

48

UDP se ubica en la capa de transporte el cual se encuentra encapsulado en un datagrama IP. Generalmente, cada uno de los datagrama UDP es mapeado a un simple paquete IP. El protocolo UDP utiliza datagramas más largos que la unidad de tamaño máximo de transmisión (MTU) soportado por la red, estas son desfragmentadas en un número de datagramas IP como se muestra en la figura 5.1.

número de datagramas IP como se muestra en la figura 5.1. Figura 5.1. Datagrama UDP dentro

Figura 5.1. Datagrama UDP dentro de un paquete IP.

Dependiendo del tipo de red el tamaño del MTU varía, por ejemplo en una red de área local (LAN) el tamaño es de 1500 bytes, lo máximo de información que una carga UDP puede llevar es de 1472 bytes, siendo el resto utilizado por el encabezado IP y UDP.

UDP no tiene problemas de overhead (flujos de datos del control) asociado con el inicio de la conexión, ya que es un protocolo no orientado a conexión. También hay que tener en cuenta que cada paquete UDP tiene un encabezamiento de 8 bytes seguido de la información. Lo que resulta para cada encabezamiento IP y UDP un overhead de 28 bytes por paquete.

Existen cuatro campos de encabezamiento, estos en conjuntos dan forma al encabezamiento UDP. Estos cuatro campos de 16 bits se dividen en; el número de puerto de la fuente, el número de puerto del destinatario, el largo del paquete UDP y el control de suma UDP.

el largo del paquete UDP y el control de suma UDP. Figura 5.2. Los cuatro campos

Figura 5.2. Los cuatro campos de encabezamiento de un paquete UDP.

49

En el protocolo UDP, los números de puerto se utilizan para que el tráfico logre ser dirigido a un proceso específico en el cliente. Cada datagrama UDP está ligado a un número de puerto exclusivo. El número de puerto en el campo de la fuente logra que el proceso captado determine el puerto que se desea utilizar para enviar un paquete de respuesta. El tamaño de los datagramas UDP lo proporciona el campo del largo UDP.

UDP tiene un bajo overead de transmisión, es un protocolo muy simple. Siempre todo sistema tiene sus desventajas, unos de sus problemas es la base IP que posee el protocolo UDP. IP no es un protocolo confiable ya que no garantiza un buen tiempo de transmisión en los envíos de paquetes para el streaming de audio y video.

En la transmisión streaming de video la pérdida de un solo paquete puede implicar en un daño de todo un cuadro de video y además potenciar la propagación de un error por medio de algunos cuadros en el momento en que el video es codificado y hecho paquete. También hay que considerar que al ocurrir un retraso del envió de paquetes puede ocurrir un ruido en la imagen del video que el usuario recibe. A demás puede resultar retardos en la transmisión dinámica en el envió de paquetes al usuario en un orden diferente que el servidor los envió, ya que el encabezamiento UDP no tiene alguna información que logre ser utilizada para reordenar los paquetes del usuario. Generalmente los decodificadores no pueden soportar técnicas de recuperación para una codificación inconsistente de una entrada de video, además agregando las perdidas y jitter que puede causar una incorrecta decodificación a la salida y generar una falla al decodificar cuadros particulares.

5.3. TCP

El protocolo TCP fue creado para ser confiable para evitar pérdidas y el desorden de paquetes, aunque como todo sistema tiene sus problemas en la transmisión streaming de audio y video.

TCP al igual que el protocolo UDP trabaja sobre IP pero la diferencia con el protocolo anterior, es confiable ya que utiliza retransmisión para garantizar la entrega de la señal y además logra sincronizar el orden de la información recibida por el usuario. Otra de las diferencias que tiene TCP respecto a UDP es que TCP está orientado a la conexión, también incluye especificaciones en el control de flujo. Esto implicaría que el usuario receptor con el

50

servidor realiza una negociación para realizar una conexión. El encabezado de TCP tiene un tamaño de al menos 20 bytes pero puede ser modificado en las opciones de TCP.

20 bytes pero puede ser modificado en las opciones de TCP. Figura 5.3. Encapsulamiento de información

Figura 5.3. Encapsulamiento de información del protocolo TCP en un datagrama IP.

Este protocolo utiliza el número de puerto de la fuente y el usuario receptor para reconocer el proceso de envió y de recepción, al igual que el protocolo UDP. Gracias a un número de secuencia que tiene el protocolo TCP logra el reordenamiento de información no sincronizado. Con el fin de detectar paquetes perdidos o retrasados se utiliza un número ACK (reconocimiento). El funcionamiento del número ACK es enviado periódicamente al servidor para dar a conocer que paquetes está esperando el usuario y utilizando esta información, el servidor tiene la opción de retransmitir cualquier paquete que se pudo haber perdido en la transmisión.

El encabezado tiene 4 bits de largo lo que implica el largo de los encabezados ya que pueden existir opciones anexas a los campos de encabezado, pero generalmente, las opciones no son utilizadas y el valor es de 20. También, junto a las opciones, se encuentra 6 bits de bandera en el encabezado. Con el fin de determinar si el valor en el campo de indicador es válido se utiliza el URG, cuando es válido el indicador urgente tiene una secuencia de número offset, el que responde a un segmento TCP que posee información urgente, el cual tiene que ser enviado a su destino. ACK señala si el campo del número ACK es válido, cuando esté es válido permite ser utilizado por el receptor y así comunicarse con el servidor para recibir los paquetes en orden e intactos. Para minimizar la cantidad de buffer tenemos PSH, utilizado antes de enviar la información en este paquete al proceso de recepción. El protocolo TCP utiliza el buffer en el receptor ya que utiliza byte streams y no mensajes streams. RST se utiliza para resetar la conexión. SYN y FIN se ocupan para establecer y cerrar la conexión TCP.

51

51 Figura 5.4. Segmento TCP con su campo de encabezado. TCP logra el control de flujo

Figura 5.4. Segmento TCP con su campo de encabezado.

TCP logra el control de flujo utilizando el campo de tamaño de ventana. El valor es el número de bytes, iniciando con el byte del ACK, que el receptor logre aceptar. Cuando el recetor se encuentra ocupado o no puede recibir más información de la fuente, el valor puede llegar a cero. TCP con la suma de control puede permitir la detección de error en el segmento TCP.

El protocolo TCP utiliza otros dos mecanismos de control de congestión, estos son; Slow Star y AIMD (Additive Increase Multiplicative Decrease). El primer mecanismo de control Slow Start consiste en que la información TCP trata de eludir la congestión, comienza con una transmisión a velocidad baja para ir incrementando de apoco y alcanzar un nivel aceptable. El otor mecanismo de control el AIDM consiste en que la velocidad de la información transmitida es aumentada lentamente mientras la red logra copiar la velocidad, pero en el momento en que la velocidad se excede, el transmisor baja la velocidad de la información enviada drásticamente.

Las aplicaciones en que se puede aplicar el protocolo TCP son muy útiles como por ejemplo HTTP para WWW y FTP ya que estas aplicaciones la integridad de la información que se recibe es garantizada y además estas aplicaciones no son críticas en el tiempo.

5.4. RTMP

El protocolo RTMP (Real Time Messaging Protocol) es desarrollado por Macromedia para el envío de audio, video y datos en internet, de por medio con Flash Player y servidores RTMP, y tiene la posibilidad de ser invocados o tipos de datos ActionScript, por lo que estará en formato AMF, o en audio y video en formato Flash Video.

52

RTMP funciona sobre TCP y usa el puerto 1395 por defecto. Este protocolo se encuentra en el nivel de sesión del estándar OSI, o sea en la capa 5, debido a que asegura la persistencia de múltiples sesiones RTMP iniciadas entre dos maquinas en las cuales brindan los servicios de transmisión de video, intercambio de datos ActionScript e invocaciones a procedimientos remoto.

Hay que tener en cuenta que este protocolo es optimizado en conexiones de bajo ancho de banda de manera simple. RTMP logra aguantar hasta 64 stream concurrentes sobre la misma red de conexión. Un segmento de cada cabecera del paquete AMF tiene el número de índice del stream. Con tan solo un mensaje RTMP es posible contener múltiples paquetes AMF. Cada uno de los paquetes AMF posee 128 bytes, salvo el streaming de audio, este tiene 64 bytes.

En los hogares y en una diversidad de redes corporativas se bloquean los puertos y los protocolos que no se ocupan por medio de las conexiones con servidores de seguridad. Se pueden encontrar otras alternativas del protocolo que se puede usar sin problemas en entornos en que las medidas de seguridad bloquean RTMP. Las alternativas o variantes son las siguientes:

- RTMP

- RTMPT (RTMP tunelizados)

- RTMPS (RTMP seguro)

- RTMPE (RTMP encriptado)

- RTMPTE (RTMP cifrado de tunelación)

- RTMFP (RTMP flujo)

5.4.1. RTMP

Este es un protocolo bidireccional de Adobe con el fin de transmitir el flujo continuo de audio, video y datos por internet, entre Flash Player y un servidor. RTMP usa el puerto 1935 de manera predeterminada, si no se puede realizar, se intenta nuevamente por los puertos 80 (RTMPT) y 433 (RTMPS). Así con estas alternativas intenta dar solución hacia la configuración del firewall, este niega las conexiones TCP/IP en los puertos no estándar. Por defecto, el puerto de administración es el 1111.

53

5.4.2. RTMPT

La ventaja que tiene este protocolo es que contiene los datos RTMP como datos validos en formato HTTP. Como habíamos dicho, las organizaciones tienen firewalls y servidores proxy que no permiten realizar las conexiones de socket RTMP directas. La solución de este problema es enviando datos RTMP incluidas en solicitudes HTTP, esta acción se conoce con el nombre de tunelizados. Por defecto se comunica por el puerto 80. Hay que tener en cuenta que RTMPT necesita un ancho de banda algo superior debido a la edición de cabeceras HTTP, pero el protocolo funciona sin problemas cuando los entornos de seguridad bloquean RTMP.

5.4.3. RTMPS

La característica de este protocolo es que trabaja en el puerto por defecto 433, además trabaja con el protocolo SSL (Secure Socket Layer) que hace que la comunicación sea segura en TCP/IP. Entonces SSL es encapsulada en HTTPS, con el puerto que habíamos mencionado. El protocolo RTMPS se conecta a SSL para conexiones seguras de red y logra conexiones mediante sockets TCP en un puerto seguro. La transferencia de datos por medio de esta clase de conexiones son encriptados para impedir la escucha de terceras partes. La recomendación en el uso del protocolo RTMPS es que se utilice en aplicaciones que necesite más seguridad o manejen datos críticos, todo eso por las conexiones seguras que necesitan mayor capacidad de proceso, esto puede influir en el proceso del servidor.

5.4.4. RTMPE

En este protocolo es una versión mejorada y cifrada de RTMP. Este protocolo es más ligero que SSL y tiene la diferencia en que no necesita certificado de mantenimiento. Posee un progreso en el rendimiento y una codificación de 128 bit. El protocolo RTMPE tiene la función de verificar que los archivos SWF no sean reutilizados, cambiados y hosted por usuarios que no son autorizados.

5.4.5. RTMPTE

Este protocolo encripta el canal de comunicaciones, y hace un túnel cifrado por medio de HTTP. EL puerto predeterminado es 80. El protocolo asegura los datos, inclusive en la transferencia desde Flash Media Server a servidores terceros por medio de tunelación.

54

RTMPTE tiene beneficios sobre SSL en la facilidad de la implementación, el rendimiento y menor impacto en la capacidad del servidor.

5.4.6. RTMFP

El protocolo de flujo multimedia en tiempo real brinda un transporte por la red, de una manera segura basado en UDP alternativo al RTMP sobre TCP. El protocolo UDP es eficiente para la entrega media, debido a que es un protocolo con pérdidas implica que mejora el rendimiento en las comunicaciones en tiempo real. RTMFP puede soportar envíos de datos desde Adobe Flash Player a otro, sin la necesidad de pasar por un servidor. Se caracteriza por una restauración rápida de la conexión y la capacidad de mantener las sesiones de red activas inclusive si un usuario cambia de dirección IP.

5.4.7. Organización de los paquetes RTMP

RTMP consiste básicamente en un protocolo el cual se monta en un protocolo de transportes, tales como UDP o TCP, o como también actúa sobre un protocolo a nivel de aplicación, como por ejemplo HTTP o SSL, todo esto depende de la versión en que se utiliza. Los paquetes de RTMP es la unidad básica de la información del protocolo. La estructura básica de los paquetes RTMP cuenta con una cabecera y un cuerpo cuyo tamaño puede variar con un máximo de 128 bytes.

En la cabecera igual varia su tamaño, los tamaños que puede tener son cuatros, estos son; 12, 8, 4 o 1 byte. Los primeros byte de la cabecera, en particular los dos primeros, son los más significativos del primer byte en el paquete.

Una cabecera con todos sus campos, o sea completa, posee un tamaño de 12 bytes. En el caso contario, en que una cabecera es más corta descarta algunos campos, esto implica que el valor de los campos descartados interpreta en el extremo receptor el mismo que tenían los campos en la última cabecera acogida que los contenía. Gracias a esto se genera un considerable ahorro de ancho de banda en la comunicación.

55

Bits

TAMAÑO DE

CABECERA

00

12 bytes

01

8

bytes

10

4

bytes

11

1 byte

Figura 5.5. En el cuadro se muestra el tamaño de la cabecera RTMP.

Otra cosa importante para la organización de los paquetes RTMP es el elemento de

fragmentación de datos, esto permite garantizar la transmisión de amplios fragmentos de

información y al mismo tiempo la transferencia en tiempo real de los flujos de audio y video.

En un paquete RTMP los datos pueden ser fragmentados en una variedad de partes,

cada parte puede ser transmitido usando el protocolo de fragmentación de flujo (Chunk Stream

Protocol). El protocolo fue creado para que lo use el protocolo RTMP, pero tiene la posibilidad

de ser usado por cualquier protocolo que envié flujos de mensajes.

5.5. Wireshark

El programa Wireshark es un analizador de protocolos open-source, el cual se encuentra

disponible para plataforma Windows y Unix. Este software diseñado por Gerald Combs tiene

como principal objetivo analizar tráficos, otra característica que tiene es su aplicación didáctica

para el estudio de las comunicaciones y en la resolución de problemas de red.

Hay que considerar que Wireshark es un software libre, posible de ejecutar en casi todos

los sistemas operativos, y en más de 20 plataformas. Tiene la capacidad de conocer y

decodificar más de 480 protocolos.

La gran ventaja de este software es la interfaz gráfica, que es amigable para el usuario y

posee varias opciones de organización y filtrado.

56

56 Figura 5.6. Interfaz gráfica de Wireshark Gracias al programa Wireshark se pudo conocer el protocolo

Figura 5.6. Interfaz gráfica de Wireshark

Gracias al programa Wireshark se pudo conocer el protocolo que utiliza Ustream, el cual es RTMP, las transmisiones de este servidor usa la tecnología de Adobe Flash. Wireshark captura todo el tráfico que circula a través de la red y por medio de la interfaz gráfica nos da a conocer los protocolos utilizados.

57

Capitulo 6

Factores que influyen en el Streaming

Al realizar una transmisión siempre se desea enviar una señal streaming de manera eficiente y optima. Para realizar todo aquello no es solo un factor en el que hay tomar en cuenta, sino son varios los puntos que hay que preocuparse y así poder realizar una transmisión exitosa sin mayores problemas.

6.1. Códec

Los códecs, mencionados en capítulos anteriores, son los tipos de codificación que transforman un archivo con un flujo de datos o una señal. Por lo que los códecs son trascendentales para las transmisiones streaming, ya que hace factible la transferencia de los datos de audio y video que se desea transmitir para luego sean decodificado para llegar al destino final de la manera más apropiada.

Los softwares que se encuentran disponibles para realizar las transmisiones streaming generalmente trabajan con los códecs H.264 o VP6. Estos códecs son los más populares debido a su avanzada tecnología, la gran diferencia que tienen es que H.264 proporciona un video de calidad superior con una velocidad de bit inferior a VP6.

El programa que se utilizó en la producción de la transmisión fue Xsplit Broadcaster, el cual trabaja con el códec H.264, nos brinda una mejor calidad en la imagen de la transmisión.

6.2. Frame Rate

Otro de los factores importantes para una buena transmisión streaming es el frame rate o imágenes por segundos. El frame rate es la frecuencia de reproducción de las imágenes que nos entrega la videocámara.

frame rate es la velocidad en que se reproducen las imágenes, la cual se suele

expresar en Frame por segundos (fps), de modo que es el número de fotogramas que se reproducen por segundo que pasa.

El

58

Con la velocidad de reproducción de las imágenes que el ojo humano capta se puede tener la sensación de movimiento al visualizar un video.

El sistema PAL necesita una velocidad de 25 frames por segundo, para el sistema NTSC, el que nos interesa a nosotros, el frame rate que necesita va entre los 25 a 30 fps. Se produce intermitencias en la imagen del video cuando en el sistema NTSC está por debajo de los 15 fps.

En la transmisión streaming es necesario tener un frame rate superior a 25 fps. En el caso contrario, si utilizamos un frame rate bajo los 25 fps se verá bastante deficiente la imagen, con unas líneas molestas en las imágenes en movimiento.

En el caso de nuestra transmisión, el programa de producción Xsplit Broadcaster tiene la opción para seleccionar el frame rate que nos acomode por lo que se realizaron las siguientes pruebas:

a) Se realizo una prueba con un frame rate de 25 fps con la videocámara en movimiento, lo que resulto en la imagen unas líneas molestas y una baja calidad en la imagen.

b) La otra prueba que se realizo fue con un frame rate de 30 fps con la videocámara en movimiento, lo que resulto una imagen óptima sin mayores defectos.

lo que resulto una imagen óptima sin mayores defectos. Figura 6.1. En la imagen se muestra
lo que resulto una imagen óptima sin mayores defectos. Figura 6.1. En la imagen se muestra

Figura 6.1. En la imagen se muestra la prueba que se realizó con 25 fps, se ve notoriamente el problema en la imagen (A). La segunda prueba que se realizó con 30 fps, se nota una notoria mejora en la imagen (B).

59

6.3. Resolución de video

El factor de la resolución de video influye en la agudeza y claridad de la imagen. La resolución video está dada por el número de píxeles con que se trabaja la imagen, esta se da por media del producto del ancho por el alto de la imagen (tanto el ancho y el alto se mide en píxeles), con esto se obtiene la relación de aspecto.

La relación de aspecto es la razón de aspecto de una imagen proporcionada por el ancho y su altura, está se calcula dividiendo el ancho por el alto de imagen. Las relaciones más comunes que se encuentran son; 4:3, 3:2, 16:9, 1.85:1 y 2.39:1.

que se encuentran son; 4:3, 3:2, 16:9, 1.85:1 y 2.39:1. Figura 6.2. En la imagen se
que se encuentran son; 4:3, 3:2, 16:9, 1.85:1 y 2.39:1. Figura 6.2. En la imagen se

Figura 6.2. En la imagen se muestra los diferentes tipos de relación de aspecto.

Como es lógico, a mayor resolución mejor será la calidad de la imagen de la transmisión streaming, esto no es totalmente cierto. Debido a que se trabajará en casi todo el proceso de transmisión con un módem de banda ancha móvil, no se tiene una capacidad alta de ancho de banda que soporte una resolución con una gran cantidad de megapíxeles. Para que la resolución llegue bien a los receptores que desea ver la trasmisión es necesario trabajar con una resolución no muy elevada.

Se probó con las distintas resoluciones que nos entregaba el programa de producción Xsplit Broadcaster. El que más se vio reflejado su agudeza y claridad en la imagen fue la resolución de 640x360 (16:9).

6.4. Bit rate

El bite rate o tasa de bits, este parámetro consiste en la cantidad de información por unidad de tiempo al momento de reproducir un archivo de video entre dos dispositivos digitales,

60

del mismo modo es la velocidad de transferencia de datos. Esto quiere decir entre mayor sea el flujo de datos, mejor será la calidad de imagen del video que se transmitirá y mayor será la necesidad del ancho de banda, debido que le video tendrá que utilizar más.

La tasa de bits es independiente del tamaño del video, en la altura y el largo. Se requiere más cantidad de bit rate para mantener la calidad cuando la resolución de un video es mayor. Esto implica que el bit rate influye en la nitidez y calidad del video.

Hay que considerar que existen formatos de video que tienen un bite rate constante, como sucede con el video CD, también hay formatos que tienen un bit rate dinámico. Los videos están formados por un fotograma clave, el cual es llamado keyframe.

En una imagen, el keyframe aparece cada cierto tiempo y es una imagen real del video adquirido. Entre un fotograma clave y otro se interpolan con el resto de las imágenes, o sea se calcula las variaciones entre ambas keyframe y adivinar las imágenes intermedias, estas no son reales lo que implica que utilizan muy poco espacio. Por lo tanto, si se intercalan más keyframes en el video, será de mejor calidad pero con mayor tamaño.

6.4.1 Producción de señal de video y bit rate

El ancho de banda juega un papel muy importante para la transmisión que se desea realizar, y está directamente relacionado con el bit rate. Para realizar un cálculo adecuado del bit rate que necesitaremos según el ancho de banda que tengamos lo veremos a continuación.

Estimaremos las necesidades del ancho de banda de la conexión a internet, o sea, la salida de internet que utilice la computadora para enviarlo al servidor el video que deseamos transmitir. El ordenador será el productor de la señal de video.

En la transmisión que queremos realizar hay que considerar ciertos puntos para entregar el bit rate necesario. Los puntos que hay que tener en cuenta son los siguientes:

- La calidad de video que se quiere enviar al receptor.

- La cantidad de seguidores estimados que verán la transmisión.

- Si se desea realizar una transmisión en HD.

- Si la transmisión va a dispositivos móviles.

61

A continuación se mostrará una tabla donde se dan a conocer la cantidad de bit rate estimado según el tipo de video que se desea transmitir.

Tipo de Video

Bit rate

Video HD

1300 kbps

Video Alta Calidad

800

kbps

Video convencional

400

kbps

Video para Teléfono Móvil

200

kbps

Figura 6.3. En la tabla se da a conocer el bit rate estimado de manera generalista, pero podrían variar según el interés o la calidad real del vídeo que se desea transmitir. Como siempre, cuanto mayor bit rate, más calidad tendrá el vídeo.

6.5. Ancho de Banda

El ancho de banda es el principal factor para lograr realizar una transmisión streaming, depende totalmente de la conexión de internet con que se trabaje. Si algo afecta de manera negativa a la conexión, está influiría en toda la transmisión que se está realizando y resultará molesto para los que están visualizando el producto.

La conexión con que se trabajo fue un módem banda ancha móvil, el cual tiene una velocidad máxima de subida de 512 Kbps. Existen una mayor velocidad para el módem pero se necesitaba contratar un plan y no se cuenta con los recursos necesarios.

6.5.1. Medida de ancho de banda por descarga de fichero

En el cálculo del ancho de banda, basadas en la descarga de un fichero mediante el protocolo HTTP, está definido por el troughput TCP, el cual se realiza por medio de una descarga por HTTP.

La realización de este cálculo se procede con una descarga de un fichero que debe ser de 8 veces el valor nominal del enlace que se desea medir. Como ejemplo se puede tomar un

62

enlace de 1 Mbps, el fichero que se desea descargar tiene que ser de 8 Mbits (10 6 bytes), lo que es 1 Mbyte aproximadamente. Este fichero tiene que ser binario y su contenido debe generar de modo aleatorio para impedir que los servidores web hagan cualquier tipo de optimización en la transferencia de fichero. Los servidores tienen que estar dedicados por completo a esta actividad para evitar contaminación en el resultado obtenido.

El fichero que tiene un tamaño 8 veces más que la velocidad nominal del enlace que se quiere descargar en 8 segundos aproximadamente, para así verificar que el ancho de banda medido es el 100% del ancho de banda nominal. Si el tiempo de la descarga del fichero es mas de 60 segundos, esto quiere decir que el enlace no cumple con el requerimiento mínimo de ina conexión.

Al calcular el ancho de banda mediante la descarga de un fichero, tan solo se utiliza la siguiente fórmula:

(Mbps)

(5)

N representa el tamaño en bytes del fichero descargado y

son el tiempo de la

finalización e inicio respectivamente de la descarga del fichero, el cual está representado en µs.

La ventaja que tiene este procedimiento es que la medida que se hace se encuentra a nivel de usuario, lo cual permite una idea aproximada de la experiencia del usuario.

En el momento en que se inicia una conexión TCP, en una descarga HTTP, se utiliza un elemento basado en una ventana de congestión para acotar la cantidad de datos que logran ser enviados sin recibir un asentamiento. Por el motivo que el arranque lento de TCP, la ventana de congestión va aumentando hasta que se divisan perdidas o expiran los contadores de recepción de las tramas ACK. Al llegar a este punto, el sistema va reduciendo la ventana de congestión hasta que se vuelve a un escenario sin perdidas o llegando al mínimo de la ventana de congestión. Al llegar a un estado sin perdidas, este vuelve a aumentar la ventana de congestión y se vuelve a repetir el proceso anterior. Este proceso genera un funcionamiento en forma de dientes de sierra como se ve en la figura X.X para el caso de TCP.

63

63 Figura 6.4. Grafico de dientes de sierra originado por el mecanismo de congestión TCP. Si

Figura 6.4. Grafico de dientes de sierra originado por el mecanismo de congestión TCP.

Si se considera un equipo de medida que hace una descarga de fichero puede tener varias conexiones TCP y UDP concurrentes, cuyas ecuaciones son:

(6)

(7)

En esta ecuaciones se muestra que el ancho de banda individual de una conexión TCP como el ancho de banda agregado de un conjunto de conexiones TCP las cuales acatan las probabilidades p i de pérdida de cada flujo. Al realizar una medida en el cual se encuentra un tráfico concurrente (TCP o UDP), que sature el enlace que se desea medir, se pueden rastrear pérdidas y el ancho de banda máximo disminuye en consecuencia.

Hay que considerar que, aparte del mecanismo lento de arranque, al iniciar dos conexiones TCP secuencialmente se favorecerá la primera. La obtención de un reparto equilibrado del ancho de banda de un enlace se logra al pasar un tiempo, que en la mayoría de los casos, supera el tiempo necesario para una prueba de descarga del fichero.

64

6.6. CPU

La unidad central de procesamiento también influye en la transmisión, ya que requiere una computadora con un buen procesador para realizar el streaming.

Es necesario trabajar con un procesador con doble núcleo para no tener problemas al transmitir, y así poder procesar sin problema la imagen de video que se desea procesar.

El notebook con el cual se trabajó es un modelo Sony Vaio Vpcea35f, el cual tiene una memoria RAM de 3 GB y un procesador Intel Core i3 con doble núcleo. Con este ordenador no se tuvo ningún problema para realizar la transmisión, ya tiene las características suficientes para realizar transmisiones streaming.

65

Capitulo 7

Introducción a la Implementación

En este capítulo se mostrará la aplicación de lo aprendido en el marco teórico, se dará a conocer las pruebas de implementación que se realizaron durante el proceso. Las pruebas de implementación comenzaron el día lunes 2 de julio de 2012 y finalizaron el día viernes 7 de septiembre del mismo año. En total, fueron seis pruebas de implementación, de las cuales, cinco se hicieron en directo desde los estadios donde se realizaron los encuentros deportivos utilizando un modem de banda ancha móvil, mientras que la sexta prueba de implementación consistió en la elaboración de un programa piloto transmitido a través de una conexión de red local.

Como primera medida, se seleccionó un servidor streaming y de este modo logramos crear un canal para hacer las trasmisiones en directo. Este servidor es gratuito, y se puede acceder a ella a través del sitio web www.ustream.tv.

El canal creado en Ustream fue implementado en cada transmisión por medio del sitio web www.aguantecallecalle.com.

El equipamiento requerido en cada una de las transmisiones fue siendo complementada a medida que surgían nuevas necesidades, adicionando nuevos elementos que lograron marcar la diferencia entre una transmisión y otra.

7.1. Primera Prueba de Implementación

La primera prueba de implementación que se realizó fue en un modo de prueba. Esta se ejecutó el día lunes 2 de julio de 2012, en el las dependencias del Complejo Deportivo Felix Gallardo, donde se desarrollaba un encuentro futbolístico entre Deportes Valdivia y Deportivo Rengo. Al ser esta una transmisión de prueba, sólo se utilizaron como medios de difusión facebook y twitter minutos antes del inicio del partido. Para esta ocasión, el sitio web www.aguantecallecalle.com, no fue considerada en la transmisión y difusión del streaming.

66

Procedimiento

Instrumentos utilizados:

- Cámara de Video Sony Handycam HDR-CX130

- Notebook Sony Vaio vpcea35fl

- Capturadora de Video “Pinnacle Dazzle Dvd Recorder Hd”

- Módem Banda Ancha Móvil Entel

- Programa “Xsplit Broadcaster”

- Servidor www.ustream.tv

- Cables RCA Audio/ Video

- Trípode para cámara

Al llegar al estadio, buscamos un sector estratégico para ubicarnos y posicionar la videocámara, de manera que al grabar sea visible toda la cancha.

Se solicitó a un funcionario del recinto que nos facilite el uso de energía eléctrica, para conectar el notebook y evitar un posible problema con la batería durante la transmisión.

un posible problema con la batería durante la transmisión. Figura 7.1. Registro del equipamiento en la
un posible problema con la batería durante la transmisión. Figura 7.1. Registro del equipamiento en la

Figura 7.1. Registro del equipamiento en la primera implementación realizada el lunes 2 de julio de 2012.

67

Una vez encendido el notebook, se procede a conectar el módem de banda ancha móvil. Posteriormente, se ingresó a la página www.ustream.tv, donde me encuentro registrado con una cuenta personal.

Luego, se conecta la capturadora de video “Pinnacle Dazzle Dvd Recorder Hd” al notebook y mediante los cables RCA audio/ video se instala la videocámara handycam a la capturadora.

Abrimos el software de producción “Xsplit Broadcaster” para poder visualizar lo que nuestra cámara está captando. Previamente, en el mismo programa se deja lista la publicidad, el cronómetro y el marcador del partido.

Se comienza con la trasmisión del partido 15 minutos antes del inicio del partido; en ese instante se publica vía facebook y twitter que realizaríamos un streaming.

vía facebook y twitter que realizaríamos un streaming. Figura 7.2. Imagen que grafica el momento donde
vía facebook y twitter que realizaríamos un streaming. Figura 7.2. Imagen que grafica el momento donde

Figura 7.2. Imagen que grafica el momento donde se da a conocer a nuestros usuarios sobre la transmisión utilizando como medio de difusión nuestra página de facebook y sus impresiones al respecto.

Luego, en el entretiempo, preguntamos a través de facebook como se ve nuestra transmisión, recibiendo buenos comentarios.

68

68 Figura 7.3. Imagen que registra el momento en que solicita a la audiencia su opinión
68 Figura 7.3. Imagen que registra el momento en que solicita a la audiencia su opinión

Figura 7.3. Imagen que registra el momento en que solicita a la audiencia su opinión respecto de la transmisión streaming.

Nuestra cuenta Ustream cuenta con un servicio adicional que informa el número de seguidores que presenciaron nuestra transmisión por medio del servidor Ustream y el número de horas de visualización traducido en minutos. Estos datos son relevantes para ver la aceptación del público y la popularidad que va adquiriendo con el tiempo.

público y la popularidad que va adquiriendo con el tiempo. Figura 7.4. El registro del número

Figura 7.4. El registro del número de seguidores que presenciaron la transmisión por medio del servidor Ustream, el día lunes 2 de julio de 2012 y el número de horas de visualización. En conclusión, 225 personas visualizaron el partido a través del canal Ustream. Esta transmisión se mantuvo al aire durante 95 minutos aproximadamente.

69

7.2. Segunda Prueba de Implementación

La segunda prueba de implementación se realizó el día sábado 14 de julio de 2012, en el “Complejo Deportivo Félix Gallardo”, durante el encuentro entre Deportes Valdivia y Deportes Linares.

En esta segunda prueba se creó una cuenta especial para la página web con el nombre de usuario ACCstreaming, cuya dirección es: http://ustre.am/MqCi, a través de la ella se puede presenciar en directo la transmisión del partido.

Nuestra página www.aguantecallecalle.com, fue configurada de manera tal, que al ingresar a ella se pueda visualizar la transmisión sin necesidad de entrar a Ustream.tv.

En esta implementación se incorporó un switch selector de Audio/Video RCA, que nos permite conectar hasta 3 videocámaras y seleccionar la que deseamos utilizar. Este switch cuenta con una salida y tres entradas. En la salida del switch, se conectó la entrada de la capturadora de video Pinnacle Dazzle Dvd Recorder Hd; mientras que de las tres entradas anteriormente mencionadas, sólo dos se utilizaron; una para la videocámara Sony Handycam HDR-CX130, y la otra para la videocámara Sony Bloggie MHS-PM5K.

y la otra para la videocámara Sony Bloggie MHS-PM5K. Figura 7.5. Imagen del switch selector de

Figura 7.5. Imagen del switch selector de Audio/Video RCA.

En esta oportunidad se grabó la transmisión, de este modo, si algún usuario quisiera ver el partido nuevamente podrá hacerlo de manera directa accediendo a nuestra cuenta de Ustream.

70

Procedimiento

Instrumentos utilizados:

- Cámara de video Sony Handycam HDR-CX130

- Cámara Sony Bloggie MHS-PM5K

- Notebook Sony Vaio vpcea35fl

- Capturadora de Video “Pinnacle Dazzle Dvd Recorder Hd”

- Módem Banda Ancha Móvil Entel

- Programa “Xsplit Broadcaster”

- Servidor www.ustream.tv

- Cables RCA Audio/Video

- 2 Trípodes, uno para cada cámara

- Switch selector de Audio/Video RCA

En términos generales, podemos decir que el procedimiento fue desarrollado de manera similar que al de la primera prueba de transmisión.

El notebook se conectó directamente a una fuente de energía eléctrica, para evitar alguna descarga de la batería durante la transmisión del partido. Luego se instaló el módem banda ancha móvil, la que fue recargada con una bolsa de minutos por un valor de $1990, que equivale a un día completo de conexión a internet, de esta manera, la cobertura tendría amplia seguridad, por todo el tiempo que requiera la transmisión.

El siguiente paso es conectar la capturadora de imagen al notebook mediante el puerto USB y a la salida del switch selector se conecta con la entrada de la capturadora. En dos de las entradas de este mismo swtich se conectan las dos cámaras; la Sony Handycam HDR-CX130, y la Sony Bloggie MHS-PM5K.

La videocámara Sony Handycam HDR-CX130 nos brinda una mejor calidad de imagen, y permite manejar el zoom sin que esta sufra modificaciones en la nitidez o distorsiones de la imagen, por lo que la empleamos para enfocar la cancha y filmar el partido; mientras que la cámara Sony Bloggie MHS-PM5K, se utilizó para enfocar al público asistente en el estadio, ya que las dimensiones del cable RCA dificultaban la ubicación de la cámara en otro sector.

71

Abrimos el Programa “Xsplit Broadcaster”, donde previamente se hizo la configuración del cronómetro, el marcador, el logo, los anuncios comerciales y las imágenes del partido, para que puedan ser presenciadas por los espectadores. Una vez hecho esto, avanzamos a la siguiente etapa que consiste en abrir la transmisión de nuestro servidor Ustream.tv, donde se nos presenta la opción de “Iniciar broadcast” e “Iniciar grabación”, por lo que seleccionamos ambas opciones para comenzar nuestra transmisión streaming.

Posteriormente se publicita el link donde se podrá ver el partido, mediante facebook y twitter del sitio web www.aguantecallecalle.com, sobre la transmisión del encuentro entre Deportes Valdivia y Deportivo Linares.

Al igual que en nuestra primera transmisión, se realizó una pregunta vía facebook a los seguidores que presenciaron el partido, acerca de sus impresiones sobre la transmisión streaming. En esta ocasión, sólo respondieron 3 usuarios, quienes consideraron que la calidad de la transmisión era óptima.

consideraron que la calidad de la transmisión era óptima. Figura 7.6. Registro del equipamiento en la
consideraron que la calidad de la transmisión era óptima. Figura 7.6. Registro del equipamiento en la
consideraron que la calidad de la transmisión era óptima. Figura 7.6. Registro del equipamiento en la

Figura 7.6. Registro del equipamiento en la segunda implementación realizada el sábado 14 de Julio de 2012.

Nuestra cuenta Ustream cuenta con un servicio adicional que informa el número de seguidores que presenciaron nuestra transmisión por medio del servidor Ustream y el número de horas de visualización traducido en minutos. Estos datos son relevantes para ver la aceptación del público y la popularidad que va adquiriendo con el tiempo.

72

72 Figura 7.7. El registro del número de seguidores que presenciaron la transmisión por medio del

Figura 7.7. El registro del número de seguidores que presenciaron la transmisión por medio del servidor Ustream el día sábado 14 de julio de 2012 y el número de horas de visualización. En conclusión, 273 personas visualizaron el partido a través del canal Ustream. Esta transmisión se mantuvo al aire durante 153 minutos aproximadamente.

Se debe destacar que en esta ocasión el Diario Austral on-line hizo mención de nuestra transmisión streaming. Dicha mención se encuentra a la disposición pública en el siguiente enlace:

minima-ante-Deoirtes--Linares-en-Valdivia.aspx Figura 7.8. Representación gráfica de la publicación
minima-ante-Deoirtes--Linares-en-Valdivia.aspx Figura 7.8. Representación gráfica de la publicación

Figura 7.8. Representación gráfica de la publicación emitida por el Diario Austral on-line el día sábado 14 de Julio de 2012 donde se menciona la transmisión realizada por el sitio web aguantecallecalle.com.

73

7.3. Tercera Prueba de Implementación

La tercera prueba de implementación se efectuó el día domingo 29 de julio de 2012, en el Complejo Deportivo Felix Gallardo, en el encuentro protagonizado entre Deportes Valdivia y Club Deportivo Trasandino De Los Andes.

En esta ocasión, se incorporó un monitor de computador modelo LG Flatron L1550S, que fue conectado al notebook a través de un cable VGA. El objetivo que cumple la instalación de este monitor es proporcionarnos una visión directa del cronómetro, el marcador, los logos y la publicidad; mientras que la pantalla del notebook será de uso exclusivo para el manejo del programa “Xsplit Broadcaster”, facilitando la selección de las regiones en las que deseamos trabajar.

la selección de las regiones en las que deseamos trabajar. Figura 7.9. Imagen del monitor de

Figura 7.9. Imagen del monitor de computador modelo LG Flatron L1550S.

Otra característica de esta implementación, es que se adquirió un cable RCA de 6 metros para conectarlo a la videocámara Sony Bloggie MHS-PM5K y de esta posicionarla en un ángulo distinto al utilizado en la implementación anterior. Esta vez, se instaló la videocámara cerca de la banca de Deportes Valdivia, para así poder visualizar tanto las reacciones del entrenador, como la de los jugadores suplentes.

Esta tercera implementación estuvo marcada por los comentarios del encuentro futbolísticos vivido entre Deportes Valdivia y Trasandino de Los Andes, que fueron realizados por Ignacio Villarroel y German Scheihing, integrantes del staff de la página www.aguantecallecalle.com. Estos comentarios se hicieron a través de un micrófono de computador que fue conectado al notebook, el que se uso de manera alternada entre ambos comentaristas.

74

Procedimiento

Instrumentos utilizados:

- Cámara de video Sony Handycam HDR-CX130

- Cámara Sony Bloggie MHS-PM5K

- Notebook Sony Vaio vpcea35fl

- Capturadora de Video “Pinnacle Dazzle Dvd Recorder Hd”

- Módem Banda Ancha Móvil Entel

- Programa “Xsplit Broadcaster”

- Servidor www.ustream.tv

- Cables RCA Audio/Video

- 2 Trípodes, uno para cada cámara

- Switch selector de Audio/Video RCA

- Micrófono de Computador

- Cable de 6 metros RCA Audio/Video

- Monitor de Computador LG Flatron L1550S

- Adaptador triple hembra RCA

Como el encuentro se iniciaba a las 12:00 AM, la llegada al complejo deportivo se hizo con una hora de anticipación, para poder instalar todo el equipamiento necesario en la transmisión. Se solicitó al administrador del complejo deportivo que nos facilite el uso de corriente eléctrica para realizar la transmisión streaming sin inconvenientes. Una vez solucionado el suministro de energía, procedimos a conectar tanto el notebook, como el monitor externo. Luego se enciende el notebook, y se realiza una conexión entre este y el monitor a través de un cable VGA.

Desde el monitor externo podemos visualizar la información contenida en el notebook. Para ello, debemos oprimir las teclas Fn+F7”, donde aparecerán cuatro opciones; “Solo equipo”, “Duplicar”, “Extender” y “Solo proyector”. Escogemos la opción “Extender”, de este modo el monitor se encuentra disponible para ser utilizado.

Se instala el módem banda ancha móvil. Nuevamente se contrató una bolsa de minutos de navegación por un valor de $1990, equivalente a un día de conexión, para evitar inconvenientes durante la transmisión del partido.

75

Se instala la capturadora de imagen al notebook a través del puerto USB. Por medio de un cable RCA se hace la conexión entre la caputradora y el switch selector de Audio/Video.

En una de las entradas del switch, se conecta el cable RCA de menor longitud para la cámara Sony Handycam HDR-CX130, tal como se mencionó anteriormente esta será utilizada para grabar el partido, ya que posee una mejor calidad de imagen, y permite manejar el zoom sin que esta sufra modificaciones en la nitidez o distorsiones de la imagen.

En la otra entrada del switch se instala el cable RCA de 6 metros. Se une el cable de conexión A/V con un adaptador triple hembra RCA, de esta manera se puede instalar la videocámara Sony Bloggie MHS-PM5K cerca del banco de suplentes de Deportes Valdivia.

Una vez instaladas las videocámaras, se abre el software de producción Xsplit Broadcaster. Este procedimiento siempre debe realizarse posteriormente a la instalación de las videocámaras, para que de esa manera puedan ser reconocidas por el programa.

El marcador, el cronometro y el video publicitario se encuentran en el monitor externo; de esta forma podemos trabajar de manera más fácil y ordenada, porque nos permite seleccionar las regiones donde necesitemos trabajar; mientras que en la pantalla del notebook se encuentran disponibles el programa Xsplit Broadcaster y el broadcast de la página Ustream.

Xsplit Broadcaster y el broadcast de la página Ustream. Figura 7.10. En la pantalla del notebook
Xsplit Broadcaster y el broadcast de la página Ustream. Figura 7.10. En la pantalla del notebook

Figura 7.10. En la pantalla del notebook se encuentran disponibles el programa Xsplit Broadcaster y el broadcast de Ustream (A). El marcador, el cronómetro y el video publicitario son las distintas regiones organizadas desde el monitor externo (B).

76

Para dar inicio a la transmisión debemos ir al broadcast; donde aparecen dos opciones:

“Iniciar broadcast” e “Iniciar grabación”, se deben seleccionar ambas. Posteriormente, se publicita acerca de la transmisión del encuentro futbolístico entre Deportes Valdivia y Club Deportivo Trasandino de Los Andes, utilizando como medios de difusión el twitter de la página aguantecallecalle.com y el facebook.

twitter de la página aguantecallecalle.com y el facebook. Figura 7.11. Registro del equipamiento en la tercera
twitter de la página aguantecallecalle.com y el facebook. Figura 7.11. Registro del equipamiento en la tercera

Figura 7.11. Registro del equipamiento en la tercera implementación realizada el domingo 29 de Julio del 2012.

Se adicionó un chat para que los seguidores puedan compartir sus comentarios, así como también preguntarles sus apreciaciones personales acerca de la transmisión streaming en cuanto a la calidad de la imagen, esto se hizo mediante una encuesta que se encontraba visible en la página, donde la pregunta fue “¿Qué te pareció la calidad de la transmisión streaming?”, y las opciones para responder eran: Deficiente, regular, buena y excelente.

para responder eran: Deficiente, regular, buena y excelente. Figura 7.12. Imagen donde se aprecian los comentarios

Figura 7.12. Imagen donde se aprecian los comentarios del chat y la transmisión

77

hubo un universo de 20 personas, en el cual 6 de los votos

fue para una transmisión “Excelente”, con la misma cantidad de votos fue la opción de “Buena”, la opción de “Regular” obtuvo una cantidad de 5 votaciones y finalmente la que obtuvo menos cantidad de votos fue la de “Deficiente” con una cantidad de 3 votos.

En esta primera encuesta

con u na cantidad de 3 votos. En esta primera encuesta Figura 7.13. Imagen de la
con u na cantidad de 3 votos. En esta primera encuesta Figura 7.13. Imagen de la

Figura 7.13. Imagen de la encuesta realizada a los usuarios que siguieron la transmisión. En la parte superior de la encuesta se encuentra la pregunta sobre que les pareció la calidad de la transmisión. En la parte inferior aparecen las 4 opciones disponibles para votar.

A B
A
B

Figura 7.14. Ilustración de los resultados arrojados por la encuesta realizada durante la transmisión del partido, a un costado se observa el número de votantes en cada una de las opciones y sus respectivos porcentajes (A). Gráfico que de manera esquemática simplifica los resultados previamente obtenidos en la encuesta, y permite efectuar un breve análisis comparativo entre cada uno de los porcentajes (B).

78

Nuestra cuenta Ustream nos informa el número de seguidores que presenciaron nuestra transmisión por medio del servidor Ustream y el número de horas de visualización traducido en minutos.

el número de horas de visualización traducido en minutos. Figura 7.15. El registro del número de

Figura 7.15. El registro del número de seguidores que presenciaron la transmisión por medio del servidor Ustream el día domingo 29 de Julio de 2012 y el número de horas de visualización. En conclusión, 193 personas visualizaron el partido a través del canal Ustream. Esta transmisión se mantuvo al aire durante 113 minutos aproximadamente.

7.4. Cuarta prueba de implementación

La cuarta prueba de implementación fue el día sábado 11 de agosto de 2012 a las 16:00 hrs, en el Complejo Deportivo Felix Gallardo, en el encuentro Deportes Valdivia y Colchagua.

En esta implementación se adicionó un nuevo elemento, el “Adaptador de Audio Jack 3.5 mm Spliter”. Este adaptador se conecta a la entrada del micrófono del notebook, generando dos salidas de micrófono, de este modo cada relator manejará un micrófono de manera independiente proporcionando una mayor comodidad para ellos en la transmisión. Esto marca la diferencia con la transmisión anterior, donde los relatores debían compartir un micrófono.

donde los relatores debían compartir un micrófono. Figura 7.16. Imagen del Adaptador de Audio Jack 3.5

Figura 7.16. Imagen del Adaptador de Audio Jack 3.5 mm Spliter.

79

Procedimiento

Instrumentos utilizados:

- Cámara de video Sony Handycam HDR-CX130

- Cámara Sony Bloggie MHS-PM5K

- Notebook Sony Vaio vpcea35fl

- Capturadora de Video “Pinnacle Dazzle Dvd Recorder Hd”

- Módem Banda Ancha Móvil Entel

- Programa “Xsplit Broadcaster”

- Servidor www.ustream.tv

- Cables RCA Audio/Video

- 2 Trípodes, uno para cada cámara

- Switch selector de Audio/Video RCA

- Micrófono de Computador

- Cable de 6 metros RCA Audio/Video

- Monitor de Computador LG Flatron L1550S

- Adaptador de Audio Jack 3.5 mm Spliter

- Adaptador triple hembra RCA

Esta implementación en cuanto a su ejecución fue similar a las anteriores. El encuentro se iniciaba a las 16:00 PM, por lo tanto se acudió al lugar una hora antes para poder instalar todo el equipamiento necesario en la transmisión.

Se solicitó al administrador del complejo deportivo que nos facilite el uso de corriente eléctrica para realizar la transmisión streaming sin inconvenientes, por lo que procedimos a conectar tanto el notebook, como el monitor externo. Luego se enciende el notebook, y se realiza una conexión entre este y el monitor a través de un cable VGA.

Luego se instaló el módem banda ancha móvil al puerto USB del notebook, el que fue recargado con una bolsa de minutos que equivale a un día completo de conexión a internet, de esta manera la cobertura tendría amplia seguridad por todo el tiempo que requiera la transmisión.

80

Después se instala la capturadora de imagen al notebook a través del puerto USB. Por medio un cable RCA hacemos la conexión con entre la capturadora y el switch selector de Audio/Video RCA, para así poder conectar las dos videocámaras.

Al igual que en las transmisiones anteriores, en una de las entradas del switch se conecta el cable RCA de 6 metros para la videocámara Sony Bloggie MHS-PM5K, que se encontrará cerca de la banca de suplentes y en la otra entrada del switch, se conecta el cable RCA más corto para la videocámara Sony Handycam HDR-CX130, tal como se mencionó anteriormente esta será utilizada para grabar el partido, ya que posee una mejor calidad de imagen, y permite manejar el zoom sin que esta sufra modificaciones en la nitidez o distorsiones de la imagen.

A continuación, se instala el Adaptador de Audio Jack 3.5 mm Spliter en la entrada de micrófono del notebook, que presenta dos salidas donde podemos conectar los dos micrófonos que serán utilizados por los comentaristas.

Posteriormente, se abre el software de producción Xsplit Broadcaster. Este programa se debe abrir siempre después de instaladas las videocámaras, de este modo serán reconocidas por el software.

El marcador, el cronometro y el video publicitario se encuentran en el monitor externo; de esta forma podemos trabajar de manera más fácil y ordenada, porque nos permite seleccionar las regiones donde necesitemos trabajar; mientras que en la pantalla del notebook se encuentran disponibles el programa Xsplit Broadcaster y el broadcast de la página Ustream.

Para dar inicio a la transmisión debemos ir al broadcast; donde aparecen dos opciones:

“Iniciar broadcast” e “Iniciar grabación”, se deben seleccionar ambas para comenzar. También en el broadcast de ustream.tv se puede regularizar el volumen de los micrófonos y de la calidad de imagen que queremos.

Posteriormente, se publicita acerca de la transmisión del encuentro futbolístico entre Deportes Valdivia y Colchagua, utilizando como medios de difusión el twitter de la página aguantecallecalle.com y facebook.

81

81 Figura 7.17. Registro del equipamiento en la cuarta implementación realizada el sábado 11 de agosto
81 Figura 7.17. Registro del equipamiento en la cuarta implementación realizada el sábado 11 de agosto

Figura 7.17. Registro del equipamiento en la cuarta implementación realizada el sábado 11 de agosto de 2012.

Al igual que en las transmisiones anteriores, en el sitio web www.aguantecallecalle.com, estuvo disponible un chat donde nuestros usuarios podían manifestarse abiertamente, y consultarles acerca de sus apreciaciones personales respecto a la calidad de la imagen de la transmisión por medio de una encuesta, donde la pregunta concreta fue “¿Qué te pareció la calidad de la transmisión streaming?”, y las opciones para responder eran: Deficiente, regular, buena y excelente.

responder eran: Deficient e, regular, buena y excelente. Figura 7.18. Imagen de la encuesta realizada a
responder eran: Deficient e, regular, buena y excelente. Figura 7.18. Imagen de la encuesta realizada a

Figura 7.18. Imagen de la encuesta realizada a los seguidores de la transmisión. En la parte superior de la encuesta se encuentra la pregunta sobre que les pareció la calidad de la transmisión. En la parte inferior aparecen las 4 opciones disponibles para votar.

En esta encuesta se aumento el universo de votantes, con un total de 55 seguidores. Esta vez la que tuvo mayor cantidad de votos fue la opción “Regular” con la cantidad de 16 votos, luego sigue la opción “Excelente” que consiguió 15 votaciones, y compartiendo la misma cantidad de porcentaje fueron “Buena” y “Deficiente” con la cantidad de 12 votos.

82

A B
A
B

Figura 7.19. Ilustración de los resultados arrojados por la encuesta realizada durante la transmisión del partido, a un costado se observa el número de votantes en cada una de las opciones y sus respectivos porcentajes (A). Gráfico que de manera esquemática simplifica los resultados previamente obtenidos en la encuesta, y permite efectuar un breve análisis comparativo entre cada uno de los porcentajes (B).

Nuestra cuenta Ustream tiene un servicio adicional que informa el número de seguidores que presenciaron nuestra transmisión por medio del servidor Ustream y el número de horas de visualización traducido en minutos. Estos datos son relevantes para ver la aceptación del público y la popularidad que va adquiriendo con el tiempo.

público y la popularidad que va adquiriendo con el tiempo. Figura 7.20. El registro del número

Figura 7.20. El registro del número de seguidores que presenciaron la transmisión por medio del servidor Ustream el día sábado 11 de agosto de 2012 y el número de horas de visualización. En conclusión, 351 personas visualizaron el partido a través del canal Ustream. Esta transmisión se mantuvo al aire durante 223 minutos aproximadamente.

83

7.5. Quinta prueba de implementación

La Quinta Prueba de Implementación se realizó el día sábado 18 de agosto de 2012 a las 15:30 hrs. El encuentro fue protagonizado entre Club Deportivo Trasandino de Los Andes y Deportes Valdivia.

En esta oportunidad se viajó a la Quinta Región el día viernes 17 de agosto, para transmitir el partido en directo desde el Estadio Regional de los Andes, ubicado en la ciudad del mismo nombre.

En la implementación se agrego un cable de 10 metros Audio Mini Plug 3.5 A 3.5 Macho-Hembra para realizar entrevistas al final del partido.

Procedimiento

Instrumentos utilizados:

- Cámara de Video Sony Handycam HDR-CX130

- Cámara Sony Bloggie MHS-PM5K

- Notebook Sony Vaio vpcea35fl

- Capturadora de Video “Pinnacle Dazzle Dvd Recorder Hd”

- Módem Banda Ancha Móvil Entel

- Programa “Xsplit Broadcaster”

- Servidor www.ustream.tv

- Cables RCA Audio/Video

- 2 Trípodes, uno para cada cámara

- Switch Selector de Audio/Video RCA

- Micrófono de Computador

- Cable de 6 metros RCA Audio/Video

- Monitor de Computador LG Flatron L1550S

- Adaptador de Audio Jack 3.5 mm Spliter

- Adaptador triple hembra RCA

- Cable de 10 metros Audio Mini Plug 3.5 A 3.5 Macho-Hembra

84

El partido se iniciaba a las 15:30 horas. En esta ocasión, llegamos 2 horas antes al estadio para conocer tanto el espacio físico, como al encargado del recinto, y realizar el procedimiento habitual de conseguir energía eléctrica para evitar posibles inconvenientes durante la transmisión.

Una vez que se establece el suministro de energía, se conecta el notebook y la pantalla al alargador múltiple. Se enciende el notebook, y se realiza una conexión entre este y el monitor a través de un cable VGA.

Luego se instaló el módem banda ancha móvil al puerto USB del notebook, que como es de costumbre fue recargada con una bolsa de minutos por un valor de $1990, que equivale a un día completo de conexión a internet, de esta manera la cobertura tendría amplia seguridad por todo el tiempo que requiera la transmisión.

Conectamos la capturadora de imagen al otro puerto USB del notebook, después hacemos la conexión con un cable RCA entre la capturadora y el switch selector para luego conectar las dos videocámaras. Como en las transmisiones anteriores utilizamos el cable RCA de 6 metros para la cámara Sony Bloggie MHS-PM5K que se ubicó cerca de la banca de suplentes y la cámara Sony Handycam HDR-CX130 se utilizó para la grabación del partido ya que tiene una mejor calidad de imagen.

A continuación, se instala el Adaptador de Audio Jack 3.5 mm Spliter en la entrada de micrófono del notebook, que presenta dos salidas donde podemos conectar los dos micrófonos que serán utilizados por los comentaristas. También se dejo instalado un cable de 10 metros Audio Mini Plug 3.5 A 3.5 macho-hembra cerca de la videocámara Bloggie MHS-PM5K para realizar entrevistas a los jugadores al término del partido.

El siguiente paso es abrir el software de producción “Xsplit Broadcaster”, el cual se debe abrir después de instaladas las videocámaras para que este las reconozca.

El marcador, el cronometro y el video publicitario se encuentran en el monitor externo; de esta forma podemos trabajar de manera más fácil y ordenada, porque nos permite seleccionar las regiones donde necesitemos trabajar; mientras que en la pantalla del notebook se encuentran disponibles el programa Xsplit Broadcaster y el broadcast de la página Ustream.

85

Para dar inicio a la transmisión debemos ir al broadcast; donde aparecen dos opciones:

“Iniciar broadcast” e “Iniciar grabación”, se deben seleccionar ambas para comenzar. También en el broadcast de Ustream.tv se puede regularizar el volumen de los micrófonos y de la calidad de imagen que queremos.

Posteriormente, se publicita acerca de la transmisión del encuentro futbolístico entre Deportes Valdivia y Club Deportivo Trasandino De Los Andes, utilizando como medios de difusión el twitter de la página aguantecallecalle.com y facebook.

el twitter de la página aguantecallecalle.com y facebook. Figura 7.21. Registro del equipamiento en la quinta
el twitter de la página aguantecallecalle.com y facebook. Figura 7.21. Registro del equipamiento en la quinta
el twitter de la página aguantecallecalle.com y facebook. Figura 7.21. Registro del equipamiento en la quinta

Figura 7.21. Registro del equipamiento en la quinta implementación realizada el sábado 18 de agosto de 2012.

Al igual que en las transmisiones anteriores, en el sitio web www.aguantecallecalle.com, estuvo disponible un chat donde nuestros seguidores podían manifestarse abiertamente, consultarles acerca de sus apreciaciones personales respecto a la calidad de la imagen de la transmisión por medio de una encuesta, donde la pregunta concreta fue “¿Qué te pareció la calidad de la transmisión streaming?”, y las opciones para responder eran: Deficiente, regular, buena y excelente.

Como fue un partido fuera de Valdivia hubo una mayor cantidad de personas que seguían nuestra transmisión, por lo que aumento considerablemente a un total de 147 usuarios

86

que respondieron la encuesta. Esta vez la que tuvo mayor cantidad de votos fue la opción “Excelente” con la cantidad de 45, luego sigue la opción “Deficiente” que consiguió 36 votaciones, siguiendo con 34 la opción “Buena” y con 32 votos fue la opción “Regular”.

A B
A
B

Figura 7.22. Ilustración de los resultados arrojados por la encuesta realizada durante la transmisión del partido, a un costado se observa el número de votantes en cada una de las opciones y sus respectivos porcentajes (A). Gráfico que de manera esquemática simplifica los resultados previamente obtenidos en la encuesta, y permite efectuar un breve análisis comparativo entre cada uno de los porcentajes (B).

Nuestra cuenta Ustream tiene el número de seguidores que vieron nuestra transmisión por medio del servidor Ustream y el número de horas de visualización traducido en minutos.

el número de horas de visualización traducido en minutos. Figura 7.23. El registro del número de

Figura 7.23. El registro del número de seguidores que presenciaron la transmisión por medio del servidor Ustream el día sábado 18 de agosto de 2012 y el número de horas de visualización. En conclusión, 408 personas visualizaron el partido a través del canal Ustream. Esta transmisión se mantuvo al aire durante 301 minutos aproximadamente.

87

7.6. Sexta prueba de implementación

La sexta y última prueba de implementación se efectuó el día viernes 7 de septiembre de 2012 a las 20:30 hrs.; que a diferencia de las demás implementaciones, esta no se realizó durante la transmisión de un partido de fútbol. En esta oportunidad, se elaboró un programa de televisión piloto, cuya transmisión streaming se realizó en directo desde un estudio de televisión en las dependencias de una casa particular.

El programa desarrollado en esta transmisión, se enfocó en tratar temas de conversación asociados a Deportes Valdivia, como el desempeño que tuvo el equipo durante el torneo; se analizaron también las expectativas tanto de los hinchas, como de los dirigentes y futbolistas del equipo y la posibilidad de ascenso del equipo con el consiguiente ingreso de este al fútbol profesional. Este programa estaba moderado por integrantes del staff de la página aguantecallecalle.com, y contaba con la participación del gerente general de Deportes Valdivia, ex dirigentes e hinchas del club, quienes tenían la oportunidad de compartir sus opiniones.

Igualmente se hizo contactos vía Skype con ex jugadores y también se emitió audio de entrevista que se realizaron durante la semana a los jugadores y cuerpo técnico de Deportes Valdivia.

Procedimiento

Instrumentos utilizados:

- Cámara de Video Sony Handycam HDR-CX130

- Cámara Sony Bloggie MHS-PM5K

- Notebook Sony Vaio vpcea35fl

- Capturadora de Video “Pinnacle Dazzle Dvd Recorder Hd”

- Programa “Xsplit Broadcaster”

- Servidor www.ustream.tv

- Cables RCA Audio/Video

- 2 Trípodes, uno para cada cámara

- Switch Selector de Audio/Video RCA

- Micrófono de Computador

- Adaptador de Audio Jack 3.5 mm Spliter

88

- Adaptador triple hembra RCA

- Logitech Cámara Web C210

- LCD LG

- Adaptador Plug mono 6.3 a Plug mono 3.5 MA60

El programa se iniciaba a las 20:30 horas. Debido a que esta transmisión era más compleja que las anteriores, se decidió realizar el procedimiento de implementación 3 horas antes de la emisión del evento.

Se conectaron todos los equipos que necesitan corriente. En esta ocasión no se utilizó el monitor de computador LG Flatron L1550S, en vez de eso se operó un televisor LCD el cual se conecto de la misma manera que el monitor externo. Tampoco usamos el módem banda ancha móvil para conectarnos a internet, ya que la casa tenía a disposición una conexión de banda ancha de 2 Mbps de subida, o sea tenemos una conexión mucho mayor que los 512 Kbps que nos proporcionaba el módem de banda ancha móvil. Con esto tendremos una mejor calidad de imagen para los usuarios que están conectados a la transmisión.

Luego, conectamos la capturadora de imagen al puerto USB del notebook. Después hacemos la conexión con un cable RCA entre la capturadora y el switch selector para luego poder conectar las dos cámaras. Utilizamos el cable RCA para la videocámara Sony Bloggie MHS-PM5K y a la Sony Handycam HDR-CX130. Estas se ubicaron en distinta posiciones para obtener ángulos diferentes.

Además de las videocámaras se adicionó una cámara web (Logitech Cámara Web C210), para así obtener diferentes ángulos de imágenes para la transmisión y hacerla más dinámica. Gracias al software Xsplit Broadcaster se puede adicionar esta cámara web y seleccionarla en el momento en que uno quiera. La cámara web que se adiciono tiene una conexión vía USB.

A continuación, se instala el Adaptador de Audio Jack 3.5 mm Spliter en la entrada de micrófono del notebook, que presenta dos salidas donde podemos conectar los dos micrófonos que serán utilizados por los comentaristas. Esta vez utilizamos un micrófono de computador y un micrófono con un plug de 6.3 mm, por lo tanto se tuvo que comprar un adaptador plug 6.3 a plug 3.5 para poder conectarlo al adaptador de audio.

89

89 Figura 7.24. Imagen del Adaptador Plug mono 6.3 a Plug mono 3.5 MA60. El siguiente

Figura 7.24. Imagen del Adaptador Plug mono 6.3 a Plug mono 3.5 MA60.

El siguiente paso es abrir el software de producción “Xsplit Broadcaster”, el cual debe abrirse después de instaladas las videocámaras para que este las reconozca.

Con Xsplit Broadcaster se logró realizar un contacto de audio con un ex jugador de Deportes Valdivia vía Skype. El software de producción tiene una opción para realizar contactos con Skype.

Lo otro que se realizo con el software de producción fue reproducir el audio de las entrevistas que se realizaron y agregarle la imagen del entrevistado

que se realizaron y agregarle la imagen del entrevistado Figura 7.25. Unas de las imágenes que
que se realizaron y agregarle la imagen del entrevistado Figura 7.25. Unas de las imágenes que

Figura 7.25. Unas de las imágenes que se agregaban según el audio del entrevistado.

También los videos publicitarios, el logo del canal y lo mencionado anteriormente se encuentra en el televisor LCD LG que se conecto; de esta forma podemos trabajar de manera más fácil y ordenada, porque nos permite seleccionar las regiones donde necesitemos trabajar; mientras que en la pantalla del notebook se encuentran disponibles el programa Xsplit Broadcaster y el broadcast de la página Ustream.

Para dar inicio a la transmisión debemos ir al broadcast; donde aparecen dos opciones:

“Iniciar broadcast” e “Iniciar grabación”, se deben seleccionar ambas para comenzar. También

90

en el broadcast de ustream.tv se puede regularizar el volumen de los micrófonos y de la calidad de imagen que queremos.

Posteriormente, se publicita la transmisión del programa piloto con el nombre “La previa albirroja”, utilizando como medios de difusión el twitter de la página aguantecallecalle.com y facebook.

el twitter de la página aguantecallecalle.com y facebook. Figura 7.26. Sexta implementación realizada el viernes 7
el twitter de la página aguantecallecalle.com y facebook. Figura 7.26. Sexta implementación realizada el viernes 7
el twitter de la página aguantecallecalle.com y facebook. Figura 7.26. Sexta implementación realizada el viernes 7

Figura 7.26. Sexta implementación realizada el viernes 7 de septiembre de 2012.

Se realizó la misma encuesta que en las transmisiones anteriores, la cual estuvo disponible en la página web www.aguantecallecalle.com. También en la página se encontraba disponible el chat para que los seguidores puedan manifestarse abiertamente, consultarles acerca de sus apreciaciones personales respecto a la calidad de la imagen de la transmisión por medio de una encuesta, donde la pregunta concreta fue “¿Qué te pareció la calidad de la transmisión streaming?”, y las opciones para responder eran: Deficiente, regular, buena y Excelente.

Para este programa piloto tuvimos 82 votantes, los cuales 34 seguidores seleccionaron la opción de “Excelente”, lo sigue la opción “Buena” con una cantidad de 20 votantes, luego con 16 votos “Regular” y la opción “Deficientes” es la que menos seleccionaron con la cantidad de 12 votos.

91

A B
A
B

Figura 7.27. Ilustración de los resultados arrojados por la encuesta realizada durante la transmisión del programa, a un costado se observa el número de votantes en cada una de las opciones y sus respectivos porcentajes (A). Gráfico que de manera esquemática simplifica los resultados previamente obtenidos en la encuesta, y permite efectuar un breve análisis comparativo entre cada uno de los porcentajes (B).

Hay que considerar que en esta oportunidad los datos estadísticos de la página Ustream no fueron considerados debido que por alguna falla del sistema de la página no se encontraron los datos requeridos.

7.7. Costos de la implementación

Al realizar un estudio de televisión por internet también se debe considerar la inversión para realizar este proyecto.

Todos los implementos que se utilizaron para este estudio y las inversiones en adquirir los que faltaban fue por mi cuenta, lo único que fue financiado por los ingresos de la página www.aguantecallecalle.com fueron los pasajes ida y vuelta para cubrir el partidos en Los Andes.

Hay que considerar que algunas herramientas básicas para realizar las transmisiones ya se encontraban adquiridas, pero igual se dará un monto estimado de estas para dar a conocer cuánto saldría un estudio de televisión por internet empezando de cero.

A continuación se realizó una tabla donde sale los precios estimados de los equipos utilizados para la implementación, tanto los dispositivos que ya se encontraban adquiridos como en los que se invirtieron durante el desarrollo de la implementación.

92

DISPOSITIVOS ADQUIRIDOS

Notebook Sony Vaio Vpcea35fl

$300.000

Cámara de Video Sony Handycam HDR-CX130

$200.000

Cámara Sony Bloggie MHS-PM5K

$70.000

Logitech Cámara Web C210

$15.000

Monitor de Computador LG Flatron L150S

$40.000

2 Trípodes

$40.000

Micrófono de Computador

$4.000

Sub Total

$669.000

DISPOSITIVOS EN QUE SE INVIRTIERON

Capturadora de Video “Pinnacle Dazzle Dvd Recorder Hd

$70.000

Módem Banda Ancha Móvil Entel

$20.000

Programa “Xsplit Broadcaster”

$7.000

Switch Selector de Audio/Video RCA

$4.000

Cable de 6 metros RCA Audio/Video

$6.000

Cable de 10 metros Audio Mini Plug 3.5 A 3.5 Macho-hembra

$4.000

Adaptador de Audio Jack 3.5 mm Spliter

$500

Adaptador triple hembra RCA

$500

Adaptador Plug mono 6.3 a Plug mono 3.5 MA60

$500

Sub Total

$112.500

Total

$791.500

Figura 7.28. Cuadro en que se ve reflejada la inversión que se necesitó para crear un estudio de televisión vía enlaces streaming.

7.8. Aspectos legales

En ámbito legal todo fue estudiado y consultado previamente de realizar las transmisiones para que no haya ningún tipo de conflicto en este tema. Se bajaron las bases del campeonato 2012, y se observaron todos los artículos con detalles. Después hicimos las consultas pertinentes a la dirigencia del club, los cuales nos apoyaron con la iniciativa de transmitir los partidos.

93

Por lo que en el aspecto legal no se tuvo ningún problema, nunca se nos negó la transmisión y grabación de ningún partido de Deportes Valdivia, tanto como los partidos de local como los de visita.

7.9. Resultados de gráficos

A modo de conclusión, se resumieron los datos obtenidos durante el desarrollo de cada una de las pruebas de implementación por medio de dos gráficos. Básicamente, se trabajó en dos grandes puntos; uno de ellos, es el número de adherentes que presenciaban los partidos transmitidos a través de nuestra página; mientras que el segundo punto, estuvo enfocado en una encuesta realizada a los televidentes donde señalaban su apreciación respecto a la calidad de la transmisión.

El gráfico 1, representado en la Figura 7.29, señala que existe un claro aumento en el número de televidentes a medida que avanzan las pruebas de implementación; Sin embargo, en una de ellas, específicamente en la prueba N° 3, se experimenta una baja en el número de espectadores, el que se vio afectada directamente por el horario de transmisión del partido (domingo 29 de julio a las 12:00 horas).

del partido (domingo 29 de julio a las 12:00 horas). Figura 7.29. La gráfica de a

Figura 7.29. La gráfica de a conocer los resultados de las estadísticas entregada por el servidor que se utilizo para las transmisiones. Hay que considerar que en la prueba de implementación N° 6 debido a un problema del sistema no nos dio el resultado de aquella transmisión.

94

El gráfico 2, representado en la Figura 7.30, es el resumen de los resultados obtenidos de las encuestas respondidas por los televidentes a través de la página, respecto a la calidad de la imagen durante la transmisión de cada partido. Ésta se hizo sobre la base de la pregunta “¿Qué te pareció la calidad de la transmisión streaming?”; las opciones para responder eran:

Deficiente, regular, buena y Excelente.

responder er an: Deficiente, regular, buena y Excelente. Figura 7.30. La gráfica nos da conocer la

Figura 7.30. La gráfica nos da conocer la opinión de los seguidores respecto a la calidad de la imagen, es de modo voluntario. Se debe considerar que está encuestas se empezó a realizar desde la prueba de implementación N° 3.

95

Capitulo 8

Mejoras al sistema streaming

La idea central de esta tesis es crear un estudio vía streaming con los recursos mínimos, es decir, reducir los costos de implementación para que cualquiera que tenga una idea de un programa o desea transmitir algo de interés, pero no tenga muchos recursos pueda realizar la transmisión sin la necesidad de utilizar una gran cantidad de dinero.

En la implementación que se utilizo en nuestro estudio de televisión por internet se puede realizar mejoras para optimizar el sistema, esto implica costos más altos de las herramientas que se van utilizar. A continuación analizaremos las herramientas y lo que se necesita para mejorar el estudio de televisión por internet.

8.1. Capturadora de video

Lo que se necesita para transmitir una imagen en alta definición es una capturadora de video con entrada y salida HDMI. Estas capturadora tienen una tarjeta de video que soportan imágenes en HD, lo que implica tener un ordenador con una mayor capacidad de recursos.

La tarjeta de estas capturadoras permite la captura y reproducción imágenes de alta resolución de video HDMI. Captura directamente evitando la compresión de la videocámara, grabando de modo directo desde el sensor de imágenes de la cámara. También se puede usar una videocámara de bajo costo para capturar el video de resolución HD con total calidad de emisión. Tiene la posibilidad de trabajar con video comprimido y sin compresión en definición estándar PAL/NTSC hasta video total 1080 HD.

en definición estándar PAL/NTSC hasta video total 1080 HD. Figura 8.1. En la imagen se muestra
en definición estándar PAL/NTSC hasta video total 1080 HD. Figura 8.1. En la imagen se muestra

Figura 8.1. En la imagen se muestra la capturadora Blackmagic Intensity Shuttle Thunderbolt.

96

Las características que debe tener la computadora para soportar la capturadora de imagen de alta definición como requisitos mínimos son una memoria de 4 GB de RAM, una tarjeta de video no integrada, puerto HDMI o USB 3.0, un procesador Intel i5, AMD Quad Core o superior, entre otras cosas.

8.2. Switch HDMI

Si se desea más de una videocámara en la transmisión, y así realizar algo más dinámico, se requiere un switch HDMI para lograr conectar varias cámaras.

un switch HDMI para lograr conectar varias cámaras. Figura 8.2. En la imagen se ve un

Figura 8.2. En la imagen se ve un switch HDMI con 5 entradas y una salida.

Con esto se tiene la posibilidad de conectar las videocámaras de alta deficinición que se estimen convenientes, dependiendo de las características del switch que se utilice. Existen switch HDMI que pueden ser manejados de manera manual o por medio de un control remoto, seleccionando la videocámara dependiendo del ángulo que se desea utilizar.

8.3. Servidor streaming

El servidor streaming que se seleccionará depende de la cantidad de público que va dirigida la transmisión, ya que según las personas que se conectan cobran un monto estimado en cada servidor. Al contratar un servidor, da la posibilidad que cierta cantidad gente se conecte sin que se deteriore la calidad de la imagen, elimina la marca de agua del servidor, quita todo tipo de publicidad que tiene el servidor cuando es gratuito, etc.

Todo depende de la cantidad de usuarios promedio que se conecten para contratar el plan que más convenga. Los precios y las opciones de los planes varían según el servidor.

97

8.4. Videocámara y micrófonos

La calidad de la imagen también va a cargo del tipo de videocámara que se utilice. Si se

utiliza una videocámara de resolución estándar, no importará el tipo de conexión o la capturadora que se utilice, no se verá en alta definición. Para tener una imagen en HD es necesario utilizar cámaras profesionales, ya que además de la alta definición tienen para controlar la luminosidad, balance de blanco, contraste, entre otras cosas.

Usar micrófonos profesionales también sería lo ideal para un audio de calidad, estos tendrían que ir con un interfaz de audio, para controlar la calidad del audio, y además conectar micrófonos inalámbricos si es necesario.

Lo que implica las mejoras en la implementación es tanto en la calidad del producto final,

como en los precios. Todos los componentes mencionados resultan muchos más costosos que la implementación anterior.

. Resumen

1) La mejora del estudio de televisión puede tener la cantidad que se estime necesario de videocámaras profesionales, ya que estas cámaras tienen la opción controlar la luminosidad, balance de blanco, contraste, entre otras cosas. Además de la imagen en alta resolución. 2) Estas videocámaras van conectada a la entrada del switch HDMI, el cual puede ser manejado manera manual o vía control remoto, para seleccionar la cámara que se desea utilizar. 3) Se utiliza la capturadora de imagen con entrada y salida HDMI, esta se conecta a la salida del switch y a la entrada HDMI del ordenador. Con esta capturadora obtenemos una imagen en HD.

La realización de la transmisión se realiza por medio de una conexión alámbrica, debido

a que el modem banda ancha móvil no cumple los requisitos para realizar una

transmisión de alta definición, se debe utilizar un plan que alcance los 4 Mbps de

4)

subida. 5) La selección de imágenes entre la videocámara se hace mediante el software de producción, también con este programa se puede agregar el marcador del partido, propagandas, el cronometro, entre otras cosas

98

Los micrófonos pueden ser conectados a una interface de audio, así se puede regular la

frecuencia, el control de volumen, entre otras cosas. También se puede utilizar una interfaz con micrófono inalámbrico. 7) El servidor streaming se deberá contratar un plan según la cantidad de público que visualicen la transmisión, esto implica que elimina la marca de agua del servidor, la calidad de imagen que reciben los receptores, quita todo tipo de publicidad que tiene el servidor cuando es gratuito, etc.

6)

8)

El servidor envía la señal que estamos trasmitiendo a los seguidores.

9)

Mediante un sitio web se envía el link donde se puede visualizar la transmisión.

10) Mediante las redes sociales se puede realizar publicidad para la visualización de la

transmisión.

publicidad para la visualización de la transmisión. Figura 8.3. La secuencia de la figura, en a)

Figura 8.3. La secuencia de la figura, en a) Las videocámaras profesionales, b) micrófonos que se puede utilizar de mejor calidad que la implementación anterior, c) se puede utilizar una interfaz de audio, este si es necesario puede ser inalámbrico para no tener problema con los cables del micrófono, d) el sitch HDMI con el cual se selecciona la videocámara que se desea utilizar, e) La capturadora de video Hd, el cual va conectado entre el swtich y el ordenador, f) La conexión es de modo alámbrico, el plan de esta conexión debe tener la capacidad de 4 Mbps de subida para realizar un transmisión de alta definición, h) el servidor streaming se debe contratar un plan según el publico que verá la transmisión, i) el sitio web, el cual dará a conocer el enlace en donde se verá la transmisión, j) los seguidores el visualizaran la transmisión streaming.

99

8.5. Costos de la mejora de implementación

Si se desea mejorar el sistema del estudio de televisión por internet, esto implicará un aumento en los costos de la nueva implementación, ya que mejora la calidad de los equipos y de la transmisión para los que van a recibir la transmisión con una alta definición.

Se realizó una tabla, la que se ve en la figura 8.4, donde sale los precios estimados de los equipos utilizados para la mejora de la implementación:

DISPOSITIVOS

 

Laptop

$300.000

2

Videocámara profesional

$2.400.000

Capturadora de video HD

$150.000

Switch HDMI

$15.000

Interfaz inalámbrico

$80.000

2

Trípodes

$40.000

Micrófono

$15.000

Plan de internet con 4 Mbps de subida

$70.000

Servidor Streaming

$45.000

 

Total

$3.115.000

Figura 8.4. Cuadro en que se ve reflejada los precios aproximados de la mejora del sistema streaming.

100

Conclusiones

La idea de realizar transmisiones vía streaming por medio de un estudio de televisión por internet, es absolutamente posible, aún si no gozamos de la facultad de poseer grandes tecnologías ni costosos equipos.

Este sistema de transmisión, puede ser aplicado en un sin número de actividades y en todas las áreas que se requieran.

Los objetivos, al igual que los resultados esperados en cada una de las implementaciones, fueron logrados de manera íntegra; es decir, se cumplieron las expectativas en cuanto a reducir al máximo el costo en cada una de las implementaciones y conseguir una señal de transmisión óptima. Dichas transmisiones fueron evaluadas por nuestros seguidores, a través de encuestas donde la calidad de la imagen era una interrogante clave, pues permitía ir mejorado ese aspecto a medida que avanzábamos en cada una de las implementaciones. Sin embargo, esta se puede ver afectada por múltiples variables; entre ellas, y sin dudar una de las más importantes, es el módem banda ancha móvil, la cual debe contar con una alta velocidad de subida de conexión, de este modo, será mejor la señal de transmisión; siempre y cuando la velocidad de descarga de la persona que está visualizando la transmisión sea la apropiada.

Otra área que se logró conocer, y no menos importante, fue el protocolo de transporte; gracias a la aplicación del programa Wireshark que analiza el tráfico de paquetes. El servidor streaming utilizado en las transmisiones trabaja con la plataforma Adobe Flash, estos a su vez, ocupan como medio de transporte de datos el protocolo RTMP.

Los telespectadores poseen una amplia variedad de sistemas de redes que bloquean los protocolos por su seguridad; por lo que el protocolo RTMP, presenta otras variables que permiten que este pueda ser utilizado sin inconvenientes en conexiones con medidas de seguridad.

La codificación de audio y video, también es muy importante para que la transmisión sea eficiente. Las nuevas tecnologías han puesto a disposición del consumidor una gran variedad de formatos que son ideales para el transporte de paquetes de audio y video.

101

El códec

empleado en el audio fue AAC, que gracias a la técnica de compresión que

posee, elimina datos de audio innecesarios garantizando una mejor calidad del sonido.

En cuanto al video, el códec h.264 fue el seleccionado, que actualmente goza de la popularidad en cuanto a las transmisiones streaming se refiere, y cuenta con una serie de características importantes en la compresión de datos.

El manejo del software de producción Xsplit, fue de gran relevancia para ejecutar múltiples funciones, lográndose de este modo una transmisión más interactiva y permitiendo a su vez regular el tamaño de los pixeles más adecuados para la transmisión.

Resumiendo, podemos mencionar que se lograron en gran parte los objetivos propuestos, no obstante, se puede mejorar aún más el sistema implementado. Este mejoramiento requiere de la inversión de una mayor cantidad de recursos, para lograr una calidad de imagen con un nivel prácticamente profesional. Además, la experiencia adquirida en la implementación del estudio, reflejó la necesidad de tener un equipo de trabajo en la producción de la transmisión.

102

Anexos

Anexo 1

María del Carmen Gomez (2010). Estudio del streaming de audio y video sobre redes heterogéneas. Escuela Politécnica Superior, Universidad Carlos III de Madrid. Páginas 37- 42.

Anexo 2

María del Carmen Gomez (2010). Estudio del streaming de audio y video sobre redes heterogéneas. Escuela Politécnica Superior, Universidad Carlos III de Madrid. Páginas 46 69.

103

Referencias

[1] David Méndez Carmona (2011). Aplicación de Multiconferencia Flash Meeting. Máster Oficial en Sistemas Telemáticos e Informáticos, Universidad Rey Juan Carlos.

[2] Hugo Ortega Bernal (2010). Análisis e implementación de un sistema video streaming en redes dual stack IPV4/IPV6, Facultad de Ciencias e Ingeniería, Pontificia Universidad Católica del Perú.

[3] Miguel Pellón López (2009). Diseño de un algoritmo rápido para decisión de modo en H.264, Departamento de teoría de la señal y comunicaciones, Universidad Carlos III de Madrid.

[4] Javier Cabezas (2012). Estudio y calidad de codificación utilizando los perfiles 10 Bits del estándar H.264, Escuela Universitaria de ingeniería Técnica de Telecomunicación, Universidad Politécnica de Madrid.

[5] Juan Carlos Veliz y Pedro Morales (2010). Sala de sesiones virtuales para la ESPOL, Escuela Superior Politécnica del Litoral.

[6]

video a dispositivos móviles, Departamento de ingeniería electrónica, Universidad de Antioquia.

Juan Pablo Quintero y Cristian Castro (2006). Evaluación de servidores de streaming de

Víctor Ojeda (2011). Transmisión en línea de video a través de Internet utilizando

tecnología RTP, Escuela superior de ingeniería mecánica y eléctrica, Instituto Politécnico Nacional, México.

[7]

[8] Juan Ramírez (1995). Videostreaming y videoconferencia: Herramientas actuales para la Tele-Enseñanza, Departamento de ingeniería y arquitecturas telemáticas, Universidad Politécnica de Madrid.

[9] Cristian Huepe (2010). Diseño y validación de las componentes de un proveedor de servicios de academia virtual económico y con fines docentes, Departamento de ingeniería eléctrica, Universidad de Chile.

[10] Oscar Torres (2009). Evolución y tendencia de la tecnología de streaming en Internet, Departamento de informática, Universidad Nacional del Noreste, Argentina.

104

[11] Karla Martínez (2011). Eficiencia de codificación del codificador DIRAC, Universidad Autónoma de Ciudad Juárez, México.

[12] America Morales, Carlo Vitale, Eduardo Palacios y Juan Solares (2000). Estandares de compresión de audio y video en tiempo real MPEG, Universidad Francisco Marroquín, Guatemala.

[13]

Uruguay.

Daniel Rijo (2004). Fundamentos de Video Streaming. Universidad de la República,

[14] Francisco Ramos (2010). Análisis e implementación de un sistema real de medida de ancho de banda, Escuela Politécnica Superior, Universidad Autónoma de Madrid.

[15] Ghita Ibnoulkhatib (2011). Sistema de captura de imágenes de streaming para el mantenimiento de la continuidad de la señal de TV (UPV-TV), Escuela politécnica superior de Gandia, Universidad Politécnica de Valencia.

[16] Andrew Ramos (2012). Diseño e implementación de una interfaz multimedia interactiva basada en un servidor de video para un laboratorio remoto virtual, Pontificia Universidad Católica del Perú.

[17] Jorge Sandoval (2011). Calidad de experiencia en el servicio banda ancha móvil, Departamento de ingeniería eléctrica, Universidad de Chile.

[18] Beatriz Casín (2013). DASH: Un estándar MPEG para streaming sobre HTTP, Departamento de arquitectura de computadores, Universidad Politécnica de Catalunya.

[19] Felipe Prieto y Luisa Rodríguez (2007). Streaming de audio a través de dispositivos móviles utilizando J2ME, Universidad el Bosque, Colombia.