|
|
|
Video sobre redes
Indice
La transmisión de vídeo sobre redes de telecomunicaciones está llegando al
punto de convertirse en un sistema habitual de comunicación debido al
crecimiento masivo que ha supuesto Internet en estos últimos años. Lo estamos
utilizando para ver películas o comunicarnos con conocidos, pero también se usa
para dar clases remotas, para hacer diagnósticos en medicina, videoconferencia,
distribución de TV, vídeo bajo demanda, para distribuir multimedia en
Internet...
Debido a la necesidad de su uso que se plantea en el presente y
futuro, se han proporcionado distintas soluciones y sucesivos formatos para
mejorar su transmisión.
Pero hoy, ya hemos oído hablar negativamente de los
sistemas actuales de distribución de vídeo debido a su dudosa calidad en redes
como Internet.
Estas aplicaciones normalmente demandan un elevado ancho de
banda y a menudo crean cuellos de botella en las redes. Este es el gran problema
al que esta sometida la transmisión de vídeo. ¿Por qué es el vídeo tan
problemático?
¿Qué es el vídeo?
El vídeo no es nada más que la reproducción en forma
secuencial de imágenes, que al verse con una determinada velocidad y continuidad
dan la sensación al ojo humano de apreciar el movimiento natural. Junto con la
imagen, el otro componente es el sonido.
2. Transmisión de vídeo: vídeo digital.
La transmisión digital y la distribución de información audiovisual
permite la comunicación multimedia sobre las redes que soportan la comunicación
de datos, brindando la posibilidad de enviar imágenes en movimiento a lugares
remotos. Pero no es todo tan bonito a la hora de transmitirlo por red, debido a
que nos encontramos con sucesos como lentitud entre la reproducción de imágenes,
errores de transmisión, o perdidas de datos...
Existen dos formas de
transmisión de datos, analógico y digital. Una de las características del vídeo
es que está compuesto por señales analógicas, con lo que se pueden dar las dos
formas de transmisión. En los últimos años la transmisión de datos se ha volcado
hacia el mundo digital ya que supone una serie de ventajas frente a la
transmisión analógica. Al verse la información reducida a un flujo de bits, se
consigue una mayor protección contra posibles fallos ya que se pueden introducir
mecanismos de detección de errores, se elimina el problema de las
interferencias, podemos disminuir el efecto del ruido en los canales de
comunicación, conseguir codificaciones más óptimas y encriptado, mezclar con
otros tipos de información a través de un mismo canal, y poder manipular los
datos con ordenadores para comprimirlos, por ejemplo.
Además si queremos
difundir el vídeo por vías digitales tendremos que digitalizarlo, con lo que
debe ser capturado en su formato analógico y almacenado digitalmente logrando
así que sea menos propenso a degradarse durante la transmisión.
Existen dos
tipos de redes de comunicación, de conmutación de circuitos y de conmutación de
paquetes. En la conmutación de circuitos, donde la comunicación está
permanentemente establecida durante toda la sesión, un determinado ancho de
banda es asignado para la conexión, y el tiempo de descarga del vídeo puede
predecirse, pero tienen la desventaja de que las sesiones son punto a punto y
limitan la capacidad de usuarios.
En la conmutación de paquetes pueden
acomodarse más fácilmente las conferencias multipunto. Aquí el ancho de banda
esta compartido pero es variable, lo que supone una importante mejora puesto
que, si el bit rate (o número de bits por segundo) es fijo la calidad de la
imagen variará dependiendo del contenido de los fotogramas. Debe de cumplirse
que el ancho de banda, la resolución, y la compresión de audio sean idénticos
para cada cliente que recibe el vídeo, lo que dificulta la configuración del
sistema.
El vídeo es muy sensible al retardo de la red, ya que puede provocar
cortes en las secuencias. La pérdida de alguna información en el vídeo sin
comprimir no es muy relevante, ya que al perderse un fotograma, el siguiente
fotograma proporciona la suficiente información para poder interpretar la
secuencia. En cambio el vídeo comprimido es mucho más sensible a errores de
transmisión, ya que las técnicas de compresión que se valen de la redundancia
espacial y temporal pueden perder la información de esta redundancia y los
efectos de la falta de datos pueden propagarse en los próximos fotogramas. Es
por eso que actualmente la comunicación con vídeo vía Internet no prometen una
elevada fiabilidad de transmisión.
Algunas técnicas de compresión compensan
esta sensibilidad a la pérdida de datos enviando la información completa sobre
un fotograma cada cierto tiempo, incluso si los datos del fotograma no han
cambiado. Esta técnica también es útil para los sistemas de múltiples clientes,
para que los usuarios que acaban de conectarse, reciban las imágenes
completas.
Nos podemos preguntar cuál es la tecnología de red adecuada para
las aplicaciones de vídeo, pero siempre dependeremos del entorno en el que
trabajemos. Por ejemplo si disponemos de una alto ancho de banda el tipo de red
adecuada seria ATM; para un entorno de red de área local podríamos usar Fast
Ethernet, y actualmente para que el usuario de Internet, ADSL.
Pero la
solución para resolver el cuello de botella del ancho de banda del vídeo no está
en un solo tipo de red, sino en una infraestructura de red flexible que pueda
manejar e integrar diferentes redes y que deje paso también a futuras redes sin
cambiar el hardware. También debe ser capaz de negociar las variables de ancho
de banda, resolución, número de fotogramas por segundo y algoritmo de compresión
de audio. Así que se necesita un nodo que permita la interconectividad entre
todas las redes. Es el MCU (unidad de control multipunto). Cada red- RDSI, IP,
ASTM- usa protocolos específicos que definen la naturaleza de las ráfagas de
vídeo. Las combinaciones de protocolos y estándares son muchas: para vídeo H.261
o H.263, CIF o QCIF, de 7.5 fps a 30 fps; y para audio G.711, G.728, G.722 o
G.723. Por ejemplo en una conferencia múltiple el número de posibles
combinaciones de estándares y protocolos es muy elevado y puede saturar el MCU.
Muchos MCU no son capaces de negociar todas estas variables, forzando a los
terminales de los clientes a reducir sus protocolos al más bajo común
denominador de todos los participantes, bajando así la calidad del vídeo.
Digitalización
La información a digitalizar será la de las imágenes. Cada
cuadro de la imagen es muestreado en unidades de pixeles, con lo que los datos a
almacenar serán los correspondientes al color de cada pixel.
Tres componentes
son necesarias y suficientes para representar el color y para ser interpretado
por el ojo humano. El sistema de codificación de color usado es el RGB (Red,
Green, Blue).
Para digitalizar una señal de vídeo analógico es necesario
muestrear todas la líneas de vídeo activo. La información de brillo y color son
tratadas de forma diferente por el sistema visual humano, ya que es más sensible
al brillo que al color. Con lo que se usa un componente especial para
representar la información del brillo, la luminancia, una para el color y la
saturación, la crominancia. Cada muestra de color se codifica en señal Y-U-V (Y-
luminancia, U y V crominancia) partiendo de los valores del sistema RGB. Con
este sistema las diferencias de color pueden ser muestreadas sin resultados
visibles, lo que permite que la misma información sea codificada con menos ancho
de banda.
Un ejemplo de conversión de señal analógica de televisión en color
a una señal en vídeo digital sería:
Sistema PAL : 576 líneas activas, 25
fotogramas por segundo, para obtener 720 pixels y 8 bit por muestra a 13,5Mhz:
Número total de bits: 165.888.000 bits por segundo (aprox. 166Mbits/sg).
Ninguno de los sistemas comunes de transmisión de vídeo proporcionan
transferencias suficientes para este caudal de información
Las imágenes de
vídeo están compuestas de información en el dominio del espacio y el tiempo. La
información en el dominio
del espacio es provista por los pixels, y la
información en el dominio del tiempo es provista por imágenes que cambian en el
tiempo. Puesto que los cambios entre cuadros colindantes son diminutos, los
objetos aparentan moverse suavemente.
El valor de luminancia de cada pixel
es cuantificado con ocho bits para el caso de imágenes blanco y negro. En el
caso de imágenes de color, cada pixel mantiene la información de color asociada;
una imagen completa es una composición de tres fotogramas, uno para cada
componente de color, así los tres elementos de la información de luminancia
designados como rojo, verde y azul, son cuantificados a ocho bits.
Pero la
transmisión digital de vídeo tiene también alguna desventaja respecto a la
analógica, por ejemplo, en una videoconferencia, cuando distintos usuarios
envían sonido al mismo tiempo, si el proceso fuera analógico las distintas ondas
se sumarían y podríamos escuchar el conjuntos de todas ellas. Al ser digital,
los datos llegan en paquetes entremezclados, lo que dificulta la compresión.
Tipos comprimido/descomprimido
Como hemos dicho para cada punto de la
imagen se le asigna un determinado número de bits que representarán el color de
dicho punto. Si la imagen es en blanco y negro, bastará un bit para
representarlo, mientras que para 256 colores serán necesarios 8 bits. De esta
forma tendremos la imagen digitalizada, pero almacenar esta información
dependerá del número de pixels que utilicemos por imagen. Por ejemplo una imagen
de 640 x 480 puntos con 256 colores ocupan 300 Kb, y si tenemos una secuencia de
vídeo a 25 fotogramas por segundo significaría que un solo segundo ocuparía
7.500 Kb. Y todo esto sin contar el audio.
La información de vídeo compuesta
de esta manera posee una cantidad tremenda de información; por lo que, para
transmisión o almacenamiento, se requiere de la compresión de la imagen.
La
compresión del vídeo generalmente implica una pérdida de información y una
consecuente disminución de calidad. Pero esto es aceptable porque los algoritmos
de codificación están diseñados para descartar la información redundante o que
no es perceptible por el ojo humano. Aunque sabemos que la calidad del vídeo es
inversamente proporcional al factor de compresión.
La compresión es un arma
de doble filo, ya que el vídeo comprimido es más sensible a los errores. Un
error en vídeo comprimido puede hacer ilegible la imagen, con lo que se añade
redundancia para recuperar esa información.
El vídeo comprimido en general
debe transmitir información por un canal más pequeño del que necesitaría para
ser transmitido y poder ser visualizado en tiempo real. Así la información de
audio y vídeo deben ser procesadas por los codecs antes de ser transmitidos. Los
codecs derivan de las palabras compresor y descompresor, y son los módulos de
software que permiten la compresión y descompresión de los ficheros de audio y
vídeo para que puedan ser transmitidos por redes de baja velocidad.
La
digitalización y la compresión pueden darse conjuntamente y en tiempo real para
facilitar la comunicación y la interacción.
Los codecs más utilizados son los
siguientes: Microsoft Video1, Microsoft RLE, Intel Indeo R2, Intel Indeo R3,
Intel YUV9, CinePak, Captain Crinch, Creative Compressor.
Las señales
recibidas deben ser decodificadas antes de poder ser visualizadas por el
usuario. Durante este proceso se puede producir:
- lo que se llama "vídeo
fantasma" o suavización de imagen, que es la forma con la que los codecs
compensan los elevados flujos de información. Cuando ocurre esto, el codec
comprime la información reduciendo el "frame rate" (número de imágenes por
segundo), el cual puede hacer que los movimientos rápidos parezcan borrosos. El
codec también modifica la resolución para comprimir la información lo cual puede
hacer que la imagen se vea desplazada. Entonces, para reducir estos efectos, se
disminuye el flujo de información visual.
También puede darse un retardo de audio.
En la red de Internet por ejemplo
la mayoría de los usuarios están conectados a velocidades de 56.6 kilobits por
segundo (Kbps), 33.6 kbps o 28.8 kbps, y el vídeo descomprimido para ser enviado
en calidad broadcast requiere un ancho de banda de red de 160 megabits por
segundo (Mbps), en calidad CD requiere aproximadamente 2.8 Mbps, y con los
modems actuales sería imposible conseguir las velocidades requeridas para su
transmisión. Aquí es donde juegan un papel importante los codecs.
Los codecs
se optimizan para conseguir la mayor calidad posible en bajos índices de
transferencia. Son usados para codificar el vídeo en tiempo real o pregrabado y
ser mandado por la red para que el usuario final solamente con una aplicación
que lo descomprima podrá al instante visionar en su terminal.
Compresión
La técnica de compresión de vídeo consiste de tres pasos
fundamentalmente, primero el preprocesamiento de la fuente de vídeo de entrada,
paso en el cual se realiza el filtrado de la señal de entrada para remover
componentes no útiles y el ruido que pudiera haber en esta. El segundo paso es
la conversión de la señal a un formato intermedio común (CIF), y por último el
paso de la compresión. Las imágenes comprimidas son transmitidas a través de la
línea de transmisión digital y se hacen llegar al receptor donde son
reconvertidas al formato común CIF y son desplegadas después de haber pasado por
la etapa de post-procesamiento.
Mediante la compresión de la imagen se
elimina información redundante. Se ayuda de la redundancia espacial y temporal.
La redundancia temporal es reducida primero usando similitudes entre sucesivas
imágenes, usando información de las imágenes ya enviadas. Cuando se usa esta
técnica, sólo es necesario enviar la diferencia entre las imágenes, es decir las
zonas de la imagen que han variado entre dos fotogramas consecutivos, lo que
elimina la necesidad de transmitir la imagen completa. La compresión
espacial se vale de las similitudes entre pixeles adyacentes en zonas de la
imagen lisas, y de las frecuencias espaciales dominantes en zonas de color muy
variado.
El método para eliminar las redundancias en el dominio del
tiempo pueden ser eliminadas mediante el método de codificación de intercuadros,
que también incluye los métodos de compensación/estimación del movimiento, el
cual compensa el movimiento a través de la estimación del mismo.
En el otro
extremo, las redundancias en el dominio espacio es llamado codificación
intracuadros, la cual puede ser dividida en codificación por predicción y
codificación de la transformada usando la transformada del coseno.
La
transformada del coseno o DCT es una implementación específica de la
transformada de Fourier donde la imagen es transformada de su representación
espacial a su frecuencial equivalente. Cada elemento de la imagen se representa
por ciertos coeficientes de frecuencia. Las zonas con colores similares se
representan con coeficientes de baja frecuencia y las imágenes con mucho detalle
con coeficientes de alta frecuencia. La información resultante son 64
coeficientes DCT. El DCT reordena toda la información y la prepara para la
cuantización.
El proceso de cuantización es la parte del algoritmo que causa
pérdidas. La cuantización asigna un número de bits específico a cada coeficiente
de frecuencias y entonces comprime los datos asignando unos cuantos bits a los
coeficientes de alta frecuencia. sin que lo note el observador. Los parámetros
de la cuantización son optimizados, pero el proceso aún deteriora la calidad del
vídeo. Generalmente se acepta que un factor de compresión de 2:1
(aproximadamente 10Mb/seg), se pueden apreciar visualmente algunas pérdidas en
la integridad del vídeo.
El proceso de decodificación es básicamente el inverso del proceso de
codificación.
La compresión del audio está descrita por tres parámetros:
ratio de muestreo (numero de muestras por segundo), bits por muestra (numero de
bits para representar cada valor), y número de canales (mono o estéreo).
Los
estándares de vídeo digital más conocidos son: MPEG, Quicktime, AVI, MOV, real
vídeo, ASF...
Y para vídeo analógico: NTSC, PAL, SECAM
MPEG (Grupo de Expertos en Imágenes en movimiento) es un estándar
internacional, definido por un comité llamado MPEG formado por la ISO, para la
representación codificada y comprimida de imágenes en movimiento y audio
asociado, orientado a medios de almacenamiento digital
El algoritmo que
utiliza además de comprimir imágenes estáticas compara los fotogramas presentes
con los anteriores y los futuros para almacenar sólo las partes que cambian. La
señal incluye sonido en calidad digital. El inconveniente de este sistema es que
debido a su alta complejidad necesita apoyarse en hardware específico.
MPEG
aplica la compresión temporal y la espacial. En primer lugar se aplica una
transformada d coseno discreta, seguida de una cuantización para finalmente
comprimir mediante un algoritmo RLE. Los bloques de imagen y los de predicción
de errores tienen una gran redundancia espacial, que se reduce gracias a la
transformación de los bloques desde el dominio del espacio al dominio de
frecuencia.
MPEG requiere una intensiva computación para su codificación,
aunque se consiguen ratios desde 50:1 hasta 200:1
Existen diferentes opciones
dependiendo del uso:
MPEG-1 guarda una imagen, la compara con la siguiente y
almacena sólo las diferencias. Se alcanzan así grados de compresión muy
elevados. Define tres tipos de fotogramas:
MPEG-2
Con una calidad superior al MPEG-1, MPEG-2 fue universalmente
aceptado para transmitir vídeo digital comprimido con velocidades mayores de
1Mb/s aproximadamente.
Con MPEG-2 pueden conseguirse elevados ratios de hasta
100:1, dependiendo de las características del propio vídeo.
MPEG-2
normalmente define dos sistemas de capas, el flujo de programa y el flujo de
transporte. Se usa uno u otro pero no los dos a la vez. El flujo de programa
funcionalmente es similar al sistema MPEG-1. La técnica de encapsulamiento y
multiplexación de la capa de compresión produce paquetes grandes y de varios
tamaños. Los paquetes grandes producen errores aislados e incrementan los
requerimientos de buffering en el receptor/decodificador para demultiplexar los
flujos de bits. En contraposición el flujo de transporte consiste en paquetes
fijos de 188 bytes lo que decrementa el nivel de errores ocultos y los
requerimientos del buffering receptor.
Los estándares MPEG fueron
desarrollados para ser independientes de la red específica para proporcionar un
punto de interoperabilidad en entornos de red heterogéneos.
MPEG4
Es un estándar relativamente nuevo orientado inicialmente a las
videoconferencias, y para Internet. El objetivo es crear un contexto audiovisual
en el cual existen unas primitivas llamadas AVO (objetos audiovisuales). Se
definen métodos para codificar estas primitivas que podrían clasificarse en
texto y gráficos
La comunicación con los datos de cada primitiva se realiza
mediante uno o varios "elementary streams" o flujos de datos, cuya
característica principal es la calidad de servicio requerida para la
transmisión.
Ha sido especialmente diseñado para distribuir videos con
elevados ratios de compresión, sobre redes con bajo ancho de banda manteniendo
una excelente calidad para usuarios con buen ancho de banda.
Ofrece un ancho
rango de velocidades desde usuarios con modems de 10kbps a usuarios con anchos
de banda de 10Mbps.
Es rápido codificando el vídeo de alta calidad, para
contenidos en tiempo real y bajo demanda.
Codificación de vídeo MPEG bajo demanda
En soluciones como vídeo bajo
demanda los datos codificados en el formato MPEG tienen que ser transmitidos
sobre redes de comunicaciones. Puesto que el ancho de banda del medio de
transmisión es limitado, para mantener una constante velocidad de salida, debe
hacerse una negociación entre la velocidad y la calidad de la imagen. De esto se
encargan los algoritmos de cuantización, los cuales seleccionan diferentes
tablas de cuantización para diferentes tipos de imágenes durante la codificación
de datos. Una solución simple es codificar los datos originales dinámicamente en
el servidor, pero necesita grandes recursos. Una alternativa es almacenar los
ficheros codificados en MPEG en el servidor y adaptativamente recodificarlo en
base a las velocidades disponibles.
El objetivo es recodificar y codificar
los ficheros MPEG dinámica y eficientemente en un flujo de bits
constante.
MJPEG
Servir el vídeo
Muchas aplicaciones actuales como el vídeo requieren que
los mismos datos de un servidor sean distribuidos a múltiples clientes. Si
varios clientes solicitan los mismos datos y esta información fuera enviado una
vez por cada cliente, estaríamos malgastando el ancho de banda ya que estaríamos
transmitiendo la misma información varias veces por el mismo tramo de red y el
número de clientes estaría limitado por el ancho de banda disponible. La
solución es IP multicast. Soporta eficientemente este tipo de transmisión
permitiendo al servidor enviar una sola copia de la información a múltiples
clientes quienes deseen recibir la información.
El vídeo puede servirse como un fichero, o en tiempo real. A este última
forma de enviar el vídeo se le conoce como streaming.
Streaming
video
Streaming video, o vídeo en tiempo real, es la tecnología que permite
la transmisión y recepción de imágenes y sonidos de manera continua a través de
una red. A diferencia de otros formatos de audio y vídeo, en los que es
necesario esperar que el archivo sea cargado en el equipo para su visualización,
esta tecnología permite apreciar el contenido conforme se va teniendo acceso a
la información del archivo.
EL servidor de streaming permite visionar el
vídeo de forma continua porque hace uso de un buffer, donde van cargándose
algunos segundos de la secuencia antes de que sean mostrados. Entonces cuando se
detecta un periodo de congestión de red, se visualizarán los datos que tenemos
ya almacenados en el buffer. De esta forma el cliente obtiene los datos tan
rápido como el servidor y la red lo permitan. Hay pocos formatos hoy en dia que
soporten este tipo de visualización progresiva, probablemente en el futuro
próximo, el estandar para el streaming vídeo será en Advanced streaming format
(ASF).
El streaming puede decirse que funciona de forma inteligente ya que
asegura al usuario que recibirá la más alta calidad posible dependiendo de la
velocidad de conexión o de los problemas de conexión de la red. Tradicionalmente
la congestión de la red forzaba al usuario a detener la visualización del vídeo
almacenando en un buffer la información para posteriormente continuar mostrando
la secuencia. Con los nuevos formatos de streaming como el MPEG-4, el cliente y
el servidor pueden degradar la calidad de forma inteligente para asegurar una
reproducción continua del vídeo.
¿Cómo funciona?
Si se dan problemas de congestión de red, primeramente el
servidor de vídeo disminuye el número de fotogramas que está enviando para
mantener la calidad del audio e ir llenando el búffer mínimamente. Si las
condiciones empeoran, el servidor deja de mandar frames de vídeo, pero mantiene
la calidad del audio. Finalmente, si la calidad del audio empieza a degradarse,
el cliente reconstruye de manera inteligente las secuencias que tiene
almacenadas para no perder calidad.
Video en Internet
Existen dos métodos para la distribución de contenido
con audio y vídeo sobre la Web. El primer método usa un Servidor Web estándar
para repartir los datos a un medio visualizador. El segundo método usa un
servidor de streaming.
¿Cómo funciona un servidor web para distribución de
vídeo? Una vez disponemos del vídeo digitalizado el archivo será codificado o
comprimido a un fichero para ser distribuido sobre una red con un específico
ancho de banda como un modem de 56.6 kbps. Entonces el fichero se almacena en un
servidor web. Ahora sólo hemos de crear una página web en un servidor con un
enlace al fichero, el cual cuando sea pulsado por un cliente permitirá la
descarga automática.
El protocolo usado es el HTTP (Hypertext Tansport
Protocol), que opera en la parte alta del TCP el cual maneja la transferencia de
datos. Este protocolo no esta optimizado para aplicaciones en tiempo real, con
lo que el objetivo es maximizar el ratio de transferencia, para lograrlo usa un
algoritmo llamado "comienzo lento", TCP manda primero datos con un bajo ratio, y
gradualmente va incrementando el ratio hasta que el destinatario comunica una
perdida de paquetes. Entonces el TCP asume que ha llegado al límite del ancho de
banda y vuelve a enviar datos a baja velocidad, y a volverá a incrementar la
velocidad repitiendo el proceso anterior. TCP se asegura una fiable transmisión
de datos con la retransmisión de los paquetes perdidos. Sin embargo lo que no
puede asegurar es que todos los paquetes recientes llegarán al cliente para ser
visualizados a tiempo, con lo que podremos experimentar pérdida de imágenes en
las secuencias de vídeo.
Una solución sobre Internet
Internet no puede considerarse un medio
adecuado para la transmisión de vídeo en tiempo real. La calidad de los vídeos
transmitidos en tiempo real es bastante pobre con lo que debes elegir poca
velocidad y mucha calidad o ganar velocidad y perder calidad en imagen. Pese a
todo esto existen soluciones desarrolladas que con las mejoras de las técnicas y
de la velocidad de los modems han ido evolucionando.
Veamos como podríamos
montar un servidor de vídeo como podría ser el que hasta ahora ha sido el
estándar de transmisión de vídeo sobre Internet, RealVídeo.
Para poder
distribuir vídeo sobre Internet, y especialmente un sistema de stream vídeo, los
componentes que necesitamos son un codificador para digitalizar el vídeo y
comprimirlo, un software de servidor web, que puede ser una máquina distinta o
la misma que el codificador, y una conexión a la red con suficiente ancho de
banda, dependiendo del número de usuarios a los que queremos dar servicio. El
usuario final necesitará solamente el programa cliente para descargar y
visualizar los flujos de vídeo.
Videoconferencia
Como dijimos, el problema básico del vídeo es el gran
ancho de banda que requiere.
En videoconferencia suele trabajarse con
ventanas de 300x200 pixeles
El vídeo estándar utiliza 30 imágenes (frames)
por segundo, por tanto, 30 imágenes de 60 KB dan la friolera de 1,8 millones de
bytes por segundo, la mayoría de los fabricantes se orienta hacia la adopción de
la RDSI
Otra solución al cuello de botella del ancho de banda en
videoconferencia es la compresión de las imágenes. Complejos algoritmos basados
en la transformada discreta del coseno (DTC) suelen ser los más utilizados. Lo
más significativo de la compresión es la ratio que se puede alcanzar.
El
formato JPEG permite definir la calidad de la imágenes, es decir, cuanta pérdida
queremos aceptar en la compresión.
Los sistemas de videoconferencia
establecen la compresión mediante un dispositivo de hardware y/o software
llamado códec (codificador/decodificador), encargado además de muestrear las
señales de audio y vídeo así como de transmitirlas.
Hace algunos años podíamos pensar en la comunicación mediante video digital en tiempo real, pero sólo imaginarlo. Hoy en día puede decirse que es una realidad. Pero no está todo logrado. Tenemos la posibilidad de solicitar una película de cine desde casa, y que se nos sea servida inmediatamente via satélite. Pero no sólo queremos eso, queremos poder disfrutar de la comunicación multimedia y a bajo precio. Ahora mismo esto significa que a través de Internet ya que es la red que nos llega a todos hasta la puerta de nuestras casas. Pero no nos vale ver a nuestro amigo en blanco y negro, o estático, o borroso, queremos verlo como si lo tuviéramos delante. Y para esto, todavía tendremos que esperar un poco. Y es que no puede circular un camión por un carril de bicicleta; al menos hasta que no ensanchemos el carril.
Trabajo enviado por:
Luis
luloss@hotmail.com
Volver al inicio | Volver arriba |
Términos y
Condiciones - Haga
Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A. |