Sunteți pe pagina 1din 14

Transmision de la Voz

El sonido humanamente audible consiste en ondas sonoras que producen oscilaciones de la


presión del aire, que son convertidas en ondas mecánicas en el oído humano y percibidas por el
cerebro. La propagación del sonido es similar en los fluidos, donde el sonido toma la forma de
fluctuaciones de presión. En los cuerpos sólidos la propagación del sonido involucra variaciones
del estado tensional del medio.

La propagación del sonido involucra transporte de energía sin transporte de materia, en forma
de ondas mecánicas que se propagan a través de la materia sólida, líquida o gaseosa. Como las
vibraciones se producen en la misma dirección en la que se propaga el sonido, se trata de una
onda longitudinal.

Si la temperatura ambiente es de 15 °C, la velocidad de propagación del sonido es 340 m/s


(1224 km/h ). Este valor corresponde a 1 MACH.

Las cualidades o parámetros que permiten diferenciar un sonido de otro son intensidad, timbre,
duración y tono.

Intensidad: La intensidad del estímulo auditivo se mide en decibelios (dB o dbs). Si tenemos en
cuenta que el «umbral» es el punto a partir del cual una persona empieza a ser consciente de una
sensación, podemos definir el «umbral auditivo» como la intensidad mínima que necesita una
persona para empezar a oír, y el «umbral de dolor» como la intensidad máxima que es capaz de
soportar su oído. Entre estas dos intensidades se encuentra el umbral de confort, desde donde
tendremos la sensación más cómoda y agradable de estimulación sonora.

Timbre: Esta cualidad nos va a permitir identificar dos fuentes sonoras diferentes.

Duración: Permite diferenciar entre un sonido corto y un sonido largo cuando el resto de sus
cualidades o parámetros son idénticos.

Tono: Permite la distinción entre un sonido grave y otro agudo. Las frecuencias agudas nos
permiten mejorar la discriminación de los fonemas del habla, y las frecuencias graves permiten
captar los parámetros esenciales del habla como ritmo y entonación.
El oído humano percibe aquellos sonidos cuyas frecuencias se encuentran entre 20 y 20.000
vibraciones por segundo (frecuencias audibles). La frecuencia se mide en ciclos por segundo y se
expresa en hercios (Hz). El rango de frecuencias conversacionales de la voz humana está entre
250 y 3.000 Hz, si bien algunos fonemas se encuentran situados entre los 4.000 y los 8.000 Hz.

La Voz Humana
La voz masculina tiene un tono fundamental de entre 100 y 200 Hz, mientras que la voz femenina
es más aguda, típicamente está entre 150 y 300 Hz. Las voces infantiles son aún más agudas. Sin
el filtrado por resonancia que produce la cavidad buco nasal nuestras emisiones sonoras no
tendrían la claridad necesaria para ser audibles. Ese proceso de filtrado es precisamente lo que
permite generar los diversos formantes de cada unidad segmental del habla.

La voz humana está compuesta por ondas acústicas que viajan a través del aire a la velocidad del
sonido, esto es a 1,244 Km/h (o 340 m/s). Pero esta rapidez no significa que me pueda
comunicar fácilmente con puntos distantes pues la voz humana se atenúa rápidamente, perdiendo
energía a medida que viaja. Luego de unos pocos metros ya no podemos escuchar una
conversación.

La voz humana por tanto es de la misma naturaleza que el resto de ondas acústicas y esto ya se
conocía desde antes de la invención del teléfono.

Antes de la invención del teléfono también se conocía que existían otros tipos de ondas llamadas
ondas eléctricas que podían ser transmitidas a través de un conductor metálico como un cable de
cobre. Este segundo tipo de ondas es de una naturaleza diferente a las ondas acústicas y viaja a
la velocidad de la luz, es decir aproximadamente 300,000 km/s. Es decir, más de lo que podamos
imaginar; casi instantáneamente desde un punto de vista terrenal. Adicionalmente podemos
controlar la atenuación de estas ondas y hacerlas viajar por grandes distancias.

Con estos hechos conocidos ya a mediados del siglo 19 es más fácil comprender que muchos
persiguieran la idea de transformar las ondas acústicas en ondas eléctricas para así poder
transmitirlas luego a grandes distancias a través de conductores metálicos. La cuestión es que
había que inventar un dispositivo para hacer dicha transformación y allí estaba la clave del
asunto. Este dispositivo, conocido como micrófono en nuestros días es una parte importante de
cualquier aparato telefónico.

Rango de frecuencias de la voz humana

Otra característica importante de la voz humana es que las cuerdas vocales modulan la voz en un
amplio espectro de frecuencias que van de graves a agudos en un rango aproximado de 20Hz a
20kHz. Todo un abanico de sonidos!

Esto nos hace suponer que un micrófono debe ser capaz de capturar y transmitir todo este
rango de frecuencias. Sin embargo, en la actualidad sabemos que para transmitir voz
«entendible» no es necesario transmitir todas las frecuencias sino un rango mucho menor y
transmitir un rango menor de frecuencias tiene sus ventajas pues facilita la transmisión como
veremos más adelante. Por lo tanto los teléfonos comerciales solo transmiten un rango
aproximado de 400Hz a 4kHz. Esto distorsiona un poquito la voz pero de todas maneras se
puede entender. Es por eso que cuando oímos a alguien por teléfono su voz suena ligeramente
diferente que en la vida real pero aun así podemos entender la conversación.

Digitalizacion de la voz
Digitalizacion es: Acción de convertir en digital información analógica. En otras palabras, es
convertir cualquier señal de entrada continua (analógica) en una serie de valores numéricos.

La información digital es la única información que puede procesar una computadora,


generalmente en el sistema binario, es decir unos (1) y ceros (0).

Mientras que la telefonía tradicional utiliza la voz mediante señales analógicas, la telefonía IP
requiere tenerla codificada en formato digital, es decir en 0’s y 1’s, puesto que es el único
lenguaje interpretado por el computador. A este proceso de conversión se le denomina
digitalización de voz.
La señal digital, es la codificación de la señal sonora en términos discretos (por lo general en dos
estados 1, y 0). El principal problema de la señal digital, es que nuestro oído es analógico con lo
que por un lado necesitamos una conversión analógica digital y posteriormente una conversión
digital analógica (para que nuestro oído sea capaz de percibirla). A este conjunto de procesos se
le suele llamar DSP (Digital Signal Procesing).

En el paso del analógico al digital (ADC) existen dos procesos el muestreo (número de muestras
que cogemos de la señal analógica, a mas muestras, mejor representación de la señal) y la
codificación (el valor que le vamos a dar a todas esas muestras, a mayor número de bits mayor
parecido con la señal analógica. Posteriormente aparece el DAC (paso de la señal digital a la
analógica), para que nuestro oído sea capaz de escucharlo.

La tasa o frecuencia de muestreo es el número de muestras por unidad de tiempo que se toman
de una señal continua para producir una señal discreta, durante el proceso necesario para
convertirla de analógica en digital. Como todas las frecuencias, generalmente se expresa en
hercios (Hz, ciclos por segundo) o múltiplos suyos, como el kilohercio (kHz), aunque pueden
utilizarse otras magnitudes.

En audio, la máxima audiofrecuencia perceptible para el oído humano está en torno a los 20 kHz,
por lo que teóricamente una frecuencia de muestreo de 40 kHz sería adecuada para
digitalizarla; no obstante, el estándar introducido por el CD-Audio (Disco Compacto), se
estableció en 44,1 kHz. La frecuencia de muestreo ligeramente superior permite compensar los
filtros utilizados durante la conversión analógica-digital.

Hay que tener en cuenta que no todas las fuentes sonoras se aproximan a los 20 kHz que
corresponden a esta frecuencia máxima; la mayoría de los sonidos está muy por debajo de ésta.
Por ejemplo, si se va a grabar la voz de una soprano, la máxima frecuencia que la cantante será
capaz de producir estará en torno a los 1046 Hz, con lo que utilizar una frecuencia de muestreo
de 44,1 kHz sería innecesario (se estaría empleando una capacidad de almacenamiento extra que
se podría economizar).
En este caso, siguiendo el Teorema de Nyquist, sería adecuada una frecuencia de muestreo en
torno a los 2100 Hz. En este sentido, la mayoría de software/hardware están preparados para
que el usuario pueda seleccionar la frecuencia de muestreo a utilizar. El estándar del CD-Audio
está fijado en 44,1 kHz, pero esto no significa que esa sea la frecuencia que utilizan todos los
equipos. Los sistemas domésticos de baja calidad pueden utilizar frecuencias de 22,05 kHz o de
11,025 kHz (produciendo así una señal analógica de inferior calidad a la que podría generarse con
la información contenida en el disco). Además, las tarjetas de sonido de los equipos informáticos
utilizan frecuencias por encima o por debajo de este estándar, muchas veces seleccionándolas
en función de las necesidades concretas (sobre todo, en aplicaciones de audio profesional).

En audio profesional, se utilizan frecuencias de muestreo de 48 kHz o superiores. La razón es


que cuando se graban altas frecuencias, cercanas a los 20 kHz, usando los 44,1 kHz, sólo se
recogen dos muestras por ciclo, con lo que la señal resultante queda muy limitada. Ante esto, es
evidente que las altas frecuencias se muestrean peor que las bajas; una tasa de muestreo
superior al estándar permite corregir esta disparidad.

Teorema de Nyquist
Según el teorema de muestreo de Nyquist-Shannon, para poder replicar con exactitud (es decir,
siendo matemáticamente reversible en su totalidad) la forma de una onda es necesario que la
frecuencia de muestreo sea superior al doble de la máxima frecuencia a muestrear.

Es un error frecuente y extendido creer que una misma señal muestreada con una tasa elevada
se reconstruye mejor que una muestreada con una tasa inferior. Esto es falso (siempre que la
tasas empleadas cumplan el criterio de Nyquist, naturalmente). El proceso de muestreo (que no
debe ser confundido con el de cuantificación) es, desde el punto de vista matemático
perfectamente reversible, esto es, su reconstrucción es exacta, no aproximada. Dicho de otro
modo, desde el punto de vista matemático al que se refiere el teorema de muestreo de Nyquist-
Shannon, la reconstrucción de una señal de 10 kHz es idéntica tanto si se obtiene de una tasa de
muestreo de 25000 muestras por segundo como de una de 50000 muestras por segundo. No
aporta nada incrementar la tasa de muestreo una vez que ésta cumple el criterio de Nyquist.
También son errores frecuentes y extendidos, relacionados con lo expuesto en este párrafo,
creer que los puntos que resultan del proceso de muestreo se unen en la reconstrucción
mediante rectas formando dientes de sierra o que existe un proceso de cálculo que realiza la
interpolación de manera simulada. En resumen, el teorema de muestreo demuestra que toda la
información de una señal contenida en el intervalo temporal entre dos muestras cualesquiera
está descrita por la serie total de muestras siempre que la señal registrada sea de naturaleza
periódica (como lo es el sonido) y no tenga componentes de frecuencia igual o superior a la mitad
de la tasa de muestreo; no es necesario inventar la evolución de la señal entre muestras.
En la práctica y dado que no existen los filtros analógicos pasa-bajo ideales, se debe dejar un
margen entre la frecuencia máxima que se desea registrar y la frecuencia de Nyquist
(frecuencia crítica) que resulta de la tasa de muestreo elegida (por ejemplo, para CD-Audio la
frecuencia máxima de los componentes a registrar y reproducir es de 20 kHz y la frecuencia
crítica de la tasa de 44100 muestras por segundo empleada es de 22,05 kHz; un margen del 10%
aproximadamente para esta aplicación). Pero este margen es una necesidad que resulta de las
limitaciones físicas de un filtro de reconstrucción (o filtro antialiasing) real, y no una
consideración que contemple (o deba contemplar) el teorema. Con frecuencia en los conversores
modernos de CD-Audio, para la reconstrucción de una señal se emplean técnicas de
sobremuestreo con objeto de aumentar este margen y permitir el uso de filtros de fase lineal
(retardo de grupo nulo) en la banda pasante y, en general, más sencillos y económicos con
pendientes de atenuación más suaves.

Los nuevos formatos de audio que recientemente han aparecido (aunque con escaso éxito
comercial) que emplean PCM sin pérdida por compresión con tasas de muestreo más altas a las
empleadas en el CD-Audio, (DVD-Audio, por ejemplo) para registrar y reproducir señales de
idéntico ancho de banda se justifican porque permiten el empleo de filtros de reconstrucción
más benignos, sencillos y económicos sacrificando un recurso cada vez más económico y de
menor trascendencia (la capacidad de almacenamiento, un recurso crítico en el pasado) y porque,
además, satisfacen simultáneamente las expectativas de un mercado como el audiófilo,
caracterizado por dogmas entre los que se encuentra muy extendida la falsa creencia de que
esto representa una mejora en la calidad de la señal reconstruida (en particular, de sus
componentes de alta frecuencia). Este error es sólo una consecuencia de una clara
incomprensión de las consecuencias del teorema de muestreo y de establecer comparaciones
falaces como, por ejemplo, con la digitalización de imágenes (donde no se realiza una
reconstrucción de una señal periódica), etc.

La alta tasa de muestreo de otro formato de audio de reciente aparición, el SACD o Super
Audio CD, es una consecuencia del uso de una tecnología denominada modulación Sigma-Delta
(Direct Stream Digital). Si bien la tasa de muestreo es 64 veces la del CD-Audio, es necesario
tener presente que se trata de una cuantificación de 1 bit (en lugar de los 16 empleados en el
CD-Audio) y basado en técnicas de Noise Shaping (modelado de ruido). No es posible, por tanto,
establecer comparaciones superficiales con el PCM de CD-Audio, ya que en este caso la relación
señal-ruido no es constante respecto de la frecuencia (en CD-Audio el ruido de cuantificación es
independiente de la frecuencia y sólo depende de los intervalos de amplitud empleados en el
proceso de cuantificación, es decir, de unos 98,09 dB constantes para los 16 bits de este
estándar CD-Audio en todo el espectro útil). Un SACD puede registrar y reproducir señales con
componentes de hasta 33 kHz con una relación señal-ruido equivalente al de un CD-Audio
(aunque 33 kHz está casi una octava por encima del máximo audible y, por tanto, una ventaja
sobre el CD-Audio de dudosa utilidad) y mantener una relación señal-ruido de aproximadamente
122 dB para el espectro audible (un potencial, el equivalente aproximado a 20 bits, también de
dudosa utilidad práctica como formato final de usuario). Entre las ventajas objetivas de estos
formatos recientes (DVD-Audio y SACD) se encuentra el potencial multicanal (registro de más
de dos canales) y la capacidad para el empleo de técnicas de protección de copia (algo de
extraordinario interés para las compañías discográficas). Ninguna prueba doble-ciego realizada
en condiciones controladas ha probado que existan diferencias audibles entre estos formatos
denominados de «alta resolución».

Conversión analógica-digital
La conversión analógica-digital (CAD) consiste en la transcripción de señales analógicas en
señales digitales, con el propósito de facilitar su procesamiento (codificación, compresión, etc.)
y hacer la señal resultante (la digital) más inmune al ruido y otras interferencias a las que son
más sensibles las señales analógicas.

La digitalización o conversión analógica-digital (conversión A/D) consiste básicamente en


realizar de forma periódica medidas de la amplitud (tensión) de una señal, redondear sus valores
a un conjunto finito de niveles preestablecidos de tensión (conocidos como niveles de
cuantificación) y registrarlos como números enteros en cualquier tipo de memoria o soporte. La
conversión A/D también es conocida por el acrónimo inglés ADC (analogue to digital converter).

En esta definición están patentes los cuatro procesos que intervienen en la conversión analógica-
digital:

1. Muestreo: el muestreo (en inglés, sampling) consiste en tomar muestras periódicas de la


amplitud de onda. La velocidad con que se toma esta muestra, es decir, el número de
muestras por segundo, es lo que se conoce como frecuencia de muestreo.

2. Retención (en inglés, hold): las muestras tomadas han de ser retenidas (retención) por un
circuito de retención (hold), el tiempo suficiente para permitir evaluar su nivel
(cuantificación). Desde el punto de vista matemático este proceso no se contempla, ya que
se trata de un recurso técnico debido a limitaciones prácticas, y carece, por tanto, de
modelo matemático.

3. Cuantificación: en el proceso de cuantificación se mide el nivel de voltaje de cada una de


las muestras. Consiste en asignar un margen de valor de una señal analizada a un único
nivel de salida. Incluso en su versión ideal, añade, como resultado, una señal indeseada a la
señal de entrada: el ruido de cuantificación.
4. Codificación: la codificación consiste en traducir los valores obtenidos durante la
cuantificación al código binario. Hay que tener presente que el código binario es el más
utilizado, pero también existen otros tipos de códigos que también son utilizados.

Durante el muestreo y la retención, la señal aún es analógica, puesto que aún puede tomar
cualquier valor. No obstante, a partir de la cuantificación, cuando la señal ya toma valores
finitos, la señal ya es digital.

Los cuatro procesos tienen lugar en un conversor analógico-digital.

Un computador o cualquier sistema de control basado en un microprocesador no puede


interpretar señales analógicas, ya que sólo utiliza señales digitales. Es necesario traducir, o
transformar en señales binarias, lo que se denomina proceso de digitalización o conversión de
señales analógicas a digitales.

El proceso de digitalización utiliza el muestreado o sampleado, cada cierto tiempo se lee el valor
de la señal analógica y toma una muestra:

1. Si el valor de la señal en ese instante está por debajo de un determinado umbral, la señal
digital toma un valor mínimo (0).

2. Cuando la señal analógica se encuentra por encima del valor umbral, la señal digital toma
un valor máximo (1).
El momento en que se realiza cada lectura es ordenado por un sistema de sincronización que
emite una señal de reloj con un período constante.

La modulación por impulsos codificados (MIC o PCM por sus siglas inglesas de Pulse Code
Modulation) es un procedimiento de modulación utilizado para transformar una señal analógica en
una secuencia de bits (señal digital), este método fue inventado por Alec Reeves en 1937. Una
trama o stream PCM es una representación digital de una señal analógica en donde la magnitud
de la onda analógica es tomada en intervalos uniformes (muestras), cada muestra puede tomar
un conjunto finito de valores, los cuales se encuentran codificados.

En la figura observamos que una onda senoidal está siendo muestreada y cuantificada en PCM.
Se toman las muestras a intervalos de tiempo regulares. De cada muestra existen una serie de
posibles valores. A través del proceso de muestreo la onda se transforma en código binario, el
cual puede ser fácilmente manipulado y almacenado.

Recuperación de la señal analógica


En la recuperación se realiza un proceso inverso, con lo que la señal que se recompone se
parecerá mucho a las originales (a), (b) y (c), si bien durante el proceso de cuantificación, debido
al redondeo de las muestras a los valores cuánticos, se produce una distorsión conocida como
ruido de cuantificación. En los sistemas normalizados, los intervalos de cuantificación han sido
elegidos de tal forma que se minimiza al máximo esta distorsión, con lo que las señales
recuperadas son una imagen casi exacta de las originales. Dentro de la recuperación de la señal,
ya no se asignan intervalos de cuantificación en lugar de ello son niveles, equivalentes al punto
medio del intervalo IC en el que se encuentra la muestra normalizada.

Ventajas de la señal digital

1. Cuando una señal digital es atenuada o experimenta perturbaciones leves, puede ser
reconstruida y amplificada mediante sistemas de regeneración de señales.

2. Cuenta con sistemas de detección y corrección de errores, que se utilizan cuando la señal
llega al receptor; entonces comprueban (uso de redundancia) la señal, primero para
detectar algún error, y, algunos sistemas, pueden luego corregir alguno o todos los
errores detectados previamente.

3. Facilidad para el procesamiento de la señal. Cualquier operación es fácilmente realizable a


través de cualquier software de edición o procesamiento de señal.

4. La señal digital permite la multigeneración infinita sin pérdidas de calidad.

5. Es posible aplicar técnicas de compresión de datos sin pérdidas o técnicas de compresión


con pérdidas basados en la codificación perceptual mucho más eficientes que con señales
analógicas.

Desventajas de la señal digital

1. Se necesita una conversión analógica-digital previa y una decodificación posterior, en el


momento de la recepción.

2. Si no se emplean un número suficientes de niveles de cuantificación en el proceso de


digitalización, la relación señal a ruido resultante se reducirá con relación a la de la señal
analógica original que se cuantificó. Esto es una consecuencia de que la señal conocida
como error de cuantificación que introduce siempre el proceso de cuantificación sea más
potente que la del ruido de la señal analógica original, en cuyo caso, además, se requiere la
adición de un ruido conocido como «dither» más potente aún con objeto de asegurar que
dicho error sea siempre un ruido blanco y no una distorsión. En los casos donde se emplean
suficientes niveles de cuantificación, la relación señal a ruido de la señal original se
conservará esencialmente porque el error de cuantificación quedará por debajo del nivel
del ruido de la señal que se cuantificó. Esto, naturalmente, es lo normal.

3. Se hace necesario emplear siempre un filtro activo analógico pasa bajo sobre la señal a
muestrear con objeto de evitar el fenómeno conocido como aliasing, que podría hacer que
componentes de frecuencia fuera de la banda de interés quedaran registrados como
componentes falsos de frecuencia dentro de la banda de interés. Asimismo, durante la
reconstrucción de la señal en la posterior conversión D/A, se hace también necesario
aplicar un filtro activo analógico del mismo tipo (pasa bajo) conocido como filtro de
reconstrucción. Para que dicho filtro sea de fase lineal en la banda de interés, siempre se
debe dejar un margen práctico desde la frecuencia de Nyquist (la mitad de la tasa de
muestreo) y el límite de la banda de interés (por ejemplo, este margen en los CD es del
10%, ya que el límite de Nyquist es en este caso 44,1 kHz / 2 = 22,05 kHz y su banda de
interés se limita a los 20 kHz).

Procesamiento digital de señales


Un procesador digital de señales o DSP (sigla en inglés de digital signal processor) es un
sistema basado en un procesador o microprocesador que posee un juego de instrucciones, un
hardware y un software optimizados para aplicaciones que requieran operaciones numéricas a
muy alta velocidad. Debido a esto es especialmente útil para el procesado y representación de
señales analógicas en tiempo real: en un sistema que trabaje de esta forma (tiempo real) se
reciben muestras (samples en inglés), normalmente provenientes de un conversor
analógico/digital (ADC).

Se ha dicho que puede trabajar con señales analógicas, pero es un sistema digital, por lo tanto
necesitará un conversor analógico/digital a su entrada y digital/analógico en la salida. Como todo
sistema basado en procesador programable necesita una memoria donde almacenar los datos con
los que trabajará y el programa que ejecuta.

Se puede procesar una señal para obtener una disminución del nivel de ruido, para mejorar la
presencia de determinados matices, como los graves o los agudos y se realiza combinando los
valores de la señal para generar otros nuevos.

Eventualmente cuándo el DSP ha terminado su trabajo, los datos digitales pueden volverse atrás
como señales analógicas, con calidad mejorada. Por ejemplo: un DSP puede filtrar ruido de una
señal, remover interferencias, amplificar y/o suprimir frecuencias, encriptar información, ó
analizar una corriente compleja en sus componentes esenciales.
Este proceso deberá ser realizado en TIEMPO REAL, lo cuál es muy rápido, necesitando así que
el DSP realice miles de millones de operaciones por segundo.

En su núcleo, un DSP es altamente numérico y repetitivo. A la vez que cada dato llega, éste debe
ser multiplicado, sumado y además de eso transformado de acuerdo a fórmulas complejas. Lo que
permite realizar todo ello es la velocidad del dispositivo. Los sistemas basados en DSP’s deben
trabajar en tiempo real, capturando y procesando información a la vez que ocurre. Los
conversores análogo – digital deben adquirir la información lo suficientemente seguido como para
captar todas las fluctuaciones relevantes de las señales. Si el ADC es muy lento se perderá
información. El DSP también debe trabajar rápido para no perder información que le llega desde
el ADC y además cumplir con el adecuado procesamiento de las señales.

Digitalización y Compresión

La digitalización es una tecnología que se ha desarrollado con éxito para la transmisión de voz y
video. La telefonía fija y la celular manejan esta tecnología pero cada uno tiene sus propios
codificadores. Como sabemos la mejor calidad de audio la tiene todavía la comunicación
telefónica, la celular es buena pero como todos hemos notado nuestro cerebro necesita hacer un
mayor esfuerzo para entender una conversación por un teléfono celular, de ahí que no se debe
conducir y hablar por el celular a la vez. Las centrales IP utilizan codificadores diferentes para
poder transmitir por la web, ya que estos deben de utilizar el menor ancho de banda posible.
Como sabemos el primer paso para cada conexión de VoIP es la digitalización, convirtiendo las
señales analógicas en paquetes digitales. Esto se puede hacer en varias maneras; La forma más
fácil es tomar un muestreo de frecuencias con una proporción fija que sea lo suficientemente
alta para captar todas las frecuencias necesarias, luego dividimos la fuerza de la señal en varios
niveles. Por ejemplo, 8000 Hz y 256 niveles de muestreo es una configuración fija muy común.
De esta manera, la señal se escaneada y digitaliza por medio de un convertidor de analógico a
digital o ADC la cual muestrea la data en la frecuencia fija con una profundidad de 8 bits. Los
datos son enviados sin comprimir, la otra parte los decodifica con un convertidor de digital a
analógico o DAC. La combinación de 8 kilohercios y la profundidad de muestreo de 8 bits es
buena para sustituir a las conversaciones normales de telefonía. Las comunicaciones en telefonía
se llevan a cabo en frecuencias entre aprox. 500 Hz y 3.500 Hz a 256 niveles diferentes por lo
cual es suficiente para proporcionar una buena calidad. Pero, la calidad tiene un precio en VoIP.
El muestreo de datos sin comprimir a esta proporción genera un flujo continuo de datos de 8
kbytes/seg. Esto no es gran cosa para los anchos de banda de países desarrollados, pero puede
ser demasiado para conexiones de Internet más lentas, o peor aún a través de una conexión de
internet móvil. Por lo tanto se han hecho varios intentos de reducir el número de kilobytes por
segundo necesarios para lograr una calidad de voz aceptable. Esto puede en principio, lograrse
de varias maneras. Usted puede reducir la frecuencia de muestreo un poco, pero esto tiene un
efecto negativo debido a que las frecuencias más altas se filtran. De acuerdo con el Teorema de
muestreo de Nyquist-Shannon, que se remonta a 1928, mucho antes de que hubiera VoIP o
incluso en Internet, no es posible digitalizar las señales en una frecuencia de muestreo inferior
a 2 veces la frecuencia más alta en el espectro. La reducción de la tasa de muestreo de 4000
Hz, por ejemplo, reduciría el máximo permitido de frecuencia en la señal analógica a 2000 Hz,
que es muy por debajo de las frecuencias que son comunes en el habla, de mujeres y niños. Por lo
tanto la reducción de la frecuencia de muestreo puede ayudar un poco en la reducción de la
asignación de ancho de banda de la aplicación de VoIP, pero en una pequeña proporción. Otro
enfoque es, por tanto, reducir el número de bits necesarios para almacenar una muestra de
datos. Como se mencionó anteriormente, 8 bits de codificación dará una calidad razonablemente
alta para una señal en una conversación. La reducción del número a 4 reduciría el ancho de banda
utilizado en un 50%. Lamentablemente, esta reducción también tiene un precio. Con 8 bits, hay
256 niveles de señal posible. La decodificación de la señal nuevamente a analógica origina una
leve señal donde el paso de un nivel a otro es menor del 0,5% del valor de la señal de pico a pico.
A pesar de ser una distorsión del 0,5% puede ser audible, el discurso seguirá siendo
comprensible y la mayoría de las personas que no son meticulosas no lo detectaran.

Con una profundidad de 4 bits, la codificación de la señal sólo tendrá 16 niveles diferentes
disponibles. Esto no es mucho. Cada paso en la conversión de digital a analógica será de un 7%,
que es linealmente dividido entre el máximo pico de intensidad de señal posible. Imaginen que
alguien está hablando en voz baja en su teléfono donde su fuerza de señal no será más del 25%
del pico, en este caso la codificación digital es casi binaria, generando un sonido enlatado del
lado para el receptor. La reducción de la profundidad de muestreo con un 50%, de 8-4 bits da
una degradación de la calidad de un factor de 16. Esto tampoco es lo que queremos.

Una solución para combatir el problema de la mala calidad de voz con un volumen bajo de señal es
no dividir el gráfico de intensidad de la señal en 16 niveles de igualdad, sino tener más niveles en
torno a la línea cero y menos cerca de los niveles de volumen máximo. Un enfoque común consiste
en utilizar una escala logarítmica en lugar de una escala lineal. Las escalas logarítmicas no son
extrañas en esta aplicación, ya que nuestros oídos raramente escuchan diferencias de volumen
en una escala logarítmica. Diez veces más volumen en términos de energía se escuchan como
cerca de dos veces más alto para el oído humano. Otra solución es usar algoritmos de adaptación
que dividen la señal linealmente, pero no entre los valores máximos posibles de la señal de pico a
pico, sino entre los valores reales de la señal. Si alguien está hablando a un volumen bajo, estos
algoritmos de forma automática aumentar la señal y el error de cuantificación de la señal nunca
es mucho más de 7% a 4 bits de profundidad de muestreo. A veces se puede escuchar este tipo
de acondicionamiento de señales en las líneas con ruido, donde los niveles de ruido aumenta en
medio de palabras o frases. Esto es porque el algoritmo de muestreo amplificar las señales de
bajo volumen, incluso si no hay presencia de señal real. La amplificación del ruido en la línea se
escuchara en el extremo del receptor.

Ahora la mejor manera de reducir las necesidades de ancho de banda para una aplicación de
VoIP esta en el uso de un protocolo propietario de baja pérdida de compresión (low-loss). Todos
sabemos que es una compresión ya que lo vemos en nuestros PCs. Las aplicaciones como ZIP
reducen el tamaño de los archivos mediante el análisis de patrones de bits y el cálculo de
patrones de bits alternativos y tablas de conversión que ocupan menos espacio que el archivo
original, estas técnicas de compresión que se utiliza en la compresión ZIP se llaman (no-loss) no-
pérdida, ya que es posible extraer los archivos originales de la versión comprimida sin pérdida de
información. Otras técnicas son de baja pérdida y aceptan algunas pérdidas de información en el
aumento de la compresión. La compresion low-loss de baja pérdida se utiliza a menudo en la
compresión de imágenes como la del formato JPG. La versión sin comprimir se parece a la
original, pero en estrecha observación pueden ver los artefactos causados por el algoritmo de
compresión. Este tipo de algoritmo funciona mejor si se desarrolla con conocimiento de los datos
a comprimir. Han desarrollado algoritmos de compresión específicos para la compresión de voz
que cuentan con baja pérdida combinada con una asignación de ancho de banda muy reducido. La
compresión en los teléfonos móviles es un ejemplo de ello.

S-ar putea să vă placă și