Entérese cómo en 1995 mirábamos el futuro de la tecnologia de compresión.
Es correcto afirmar que la compresión digital es neutral en cuanto a sus aplicaciones, porque la tecnología y los beneficios que de ella se desprenden se pueden utilizar en cualquier aplicación de transmisión digital o almacenamiento, desde sonido y datos hasta video con movimiento. La compresión digital ya se utiliza mucho en redes de comunicaciones de voz vía telefónica y es un componente principal de la tecnología para grabación de discos compactos. Sin embargo, la atención del mercado se centra en las tecnologías de compresión que se pueden aplicar a la transmisión de video.
Las nuevas técnicas para compresión de video pronto se utilizarán en servicios domésticos de satélite y en un futuro cercano en DBS, transmisiones HDTV, televisión por cable y los esperados servicios telefónicos por fibra. Las tecnológicas de compresión no solo introducirán cambios importantes en la industria de medios del país, sino que iniciarán avances importantes en mercados de video nuevos o en desarrollo, incluyendo teleconferencias y videoteléfonos, y en capacidad interactiva para sistemas educativos, aprendizaje a distancia y programas públicos de extensión/comunicaciones para los incapacitados y los ancianos, entre otros.
Transacciones según ancho de banda/frecuencia de datos
Hasta hace muy poco las perspectivas para la transmisión digital de video usando las modalidades tradicionales están fuera de las capacidades técnicas existentes. Además de la gran cantidad de ancho de banda de canal necesaria, el video digital puede exigir inmensas cantidades de espacio de almacenamiento y tiempo de transmisión. Un minuto de video análogo convertido a digital y transmitido a la velocidad requerida para televisión (30 cuadros por segundo) implicaría cerca de 2.000 megabytes de la capacidad de almacenamiento en el disco de un computador. Transmitir este minuto de video digital tomaría horas. En pocas palabras, esta es la esencia del problema para transmisión de video digital. La solución está en forzar o comprimir la señal hasta un punto en que pueda transmitirse dentro de los canales especificados disponibles. En la televisión NTSC y en al caso significativamente más difícil de las señales HDTV, la señal de video junto con audio y otros canales de información relacionada se deben comprimir para encajar en el ancho de banda de 6MHz asignado a la transmisión de televisión.
Un punto clave en la transmisión de señales digitales es que la cantidad de bits digitales que se necesita transmitir es directamente proporcional a la frecuencia de transmisión en bits y al ancho de banda requerido del canal. La línea inferior, por supuesto, es el costo. Los canales con mayores ancho de banda, las ilustraciones de más calidad, los programas en vivo y las transmisiones de video con movimiento se pueden tener a un mayor costo para el usuario final. Los costos por encima de los límites del consumidor son prohibitivos en la mayoría de los casos.
Para el video digital con movimiento, la frecuencia de bits requerida y las restricciones sobre el ancho de banda del canal llegan a muy altos niveles. Las señales análogas de video en vivo NTSC sin comprimir una vez convertidas en digitales, requieren un ancho de banda de canal capaz de transmitir a cerca de 90 Mbits/segundo. Esta es una línea inmensa para una sola transmisión de video y el doble del ancho de banda de canal establecido en la actualidad para la transmisión de video análogo. Las señales digitales HDVT sin comprimir exigen varias veces esta capacidad.
Hay varias maneras de reducir el ancho de banda de canal necesario par la transmisión de señal de video digital. En esencia, estas consisten en reducir la resolución de las ilustraciones (por ejemplo aceptar imágenes con calidad VCR en vez de la calidad de transmisión NTSC o la verdadera calidad HDTV), la velocidad de transmisión de la señal (reducir la frecuencia de cuadros de la acción en vivo hasta el movimiento fijo utilizado en las videoconferencias de enseñanza), la exactitud del color (reducir las ilustraciones a todo color a una paleta de cierta complejidad) y las redundancias en las ilustraciones transmitidas.
Dos factores hacen posibles las altas frecuencias de compresión del video digital sin comprometer las ventajas cualitativas que se pueden obtener mediante la conversión de análogo a digital.. En primer lugar está habilidad propia del ojo humano para compensar de manera automática las características de la imagen que difieren de lo se puede apreciar a simple vista. Por ejemplo, el ojo es menos sensible a variaciones en colorido o matizado que a variaciones en intensidad luminosa. En consecuencia, grandes cantidades de datos de color y hasta de luminosidad que constituyen las ilustraciones en un cuadro fijo de video, se pueden eliminar aprovechando la capacidad natural de compensación del ojo humano. Técnicamente esto se logra con métodos de codificación digital especiales (codificación intraframe) que matemáticamente excluyen los detalles visuales en los cuadros de video transmitidos.
El segundo factor se aplica sólo a imágenes en movimiento. En realidad las imágenes de video no son más que una serie de cuadros de video fijos transmitidos o presentados en una secuencia muy rápida. De nuevo el ojo ve movimiento pero cada cuadro es en realidad una imagen fija completamente diferente. Cuando se ven 30 cuadros por segundo en televisión o 24 cuadros por segundo en películas con figuras en movimiento, el ojo no puede percibir los pequeños cambios en la información de la imagen de un cuadro de video al siguiente. La impresión general es la de movimiento a través de la pantalla. Sin embargo, con frecuencia cerca de 99 por ciento de la información de un cuadro digital al siguiente es exactamente la misma. Al suprimir estas redundancias en la imagen y codificar digitalmente sólo el uno por ciento que no cambia (codificación intraframe) se puede reducir de modo significativo la cantidad de datos que se debe transmitir.
En esencia se utilizan dos planteamientos diferentes para lograr la compresión de la señal: uno usa mucha memoria y el otro involucra mucho procesamiento. En cualquier caso las técnicas de compresión permitirán comprimir dos a seis canales de video en el mismo ancho de banda como sucede hoy con un canal. Dependiendo de la calidad de video aceptable en el punto de recepción, es posible utilizar sistemas de compresión hasta para ocho o diez señales. Es probable que el video en cinta o en vivo con acción rápida, como deportes por ejemplo, demande relaciones de compresión inferiores en la escala 2:1 a 3:1, pero películas de acción proyectadas a 24 cuadros por segundo en vez de los 30 cuadros/segundo para video de televisión, permitirán mayores frecuencias de compresión debido a que se transmite menos información. El objetivo fundamental es la transmisión de cientos de canales de video comprimidos, cada uno con calidad HDTV digital.
Estándares de compresión para videos digitales
Muchos comités internacionales de la industria están desarrollando estándares técnicos para el manejo de imágenes de video digital. Los esfuerzos traspasan muchos límites tradicionales del mercado de video y en última instancia pueden fijar las bases para tratar el video, en todas sus manifestaciones, como simples variaciones sobre el mismo tema de información. En el futuro el video seguirá simbolizando películas y televisión, pero también incluirá todas las formas de gráficas y representaciones de realidad virtual basadas en el computador.
Hasta el momento se han propuesto tres enfoques para un estándar de video digital. En 1991 la ISO (International Standards Organization) adoptó el estándar propuesto por el grupo conjunto de expertos fotográficos (Joint Photographic Experts Group – JPEG) para aplicar en todo el mundo. El estándar JPEG está destinado a la compresión de imágenes fijas de video con poca o ninguna pérdida de información. Este enfoque se puede aplicar a imágenes en movimiento, sólo si se trata cada cuadro como una entidad independiente, razón por la cual exige transmitir cada detalle en cada cuadro de video. Se considera que el estándar JPEG tiene un campo de aplicación limitado cuando se requieren frecuencias de transmisión de video rápidas como las de emisiones de televisión abierta o cable.
Otro estándar en desarrollo se debe a una organización semejante para fijar modelos que representen la industria de la imagen en movimiento. El grupo de expertos de la imagen en movimiento (Motion Picture Experts Group – MPEG) está trabajando en un estándar que utilice más técnicas de codificación digital para lograr mayores frecuencias de compresión que suministren un incremento 3:1 sobre la frecuencia de compresión JPEG. Este también incluye especificaciones para audio digital y sincronización de datos. El objetivo para MPEG es suministrar video de calidad VHS y audio dentro de un canal de 1.5 Mbit/ segundo.
El tercer estándar fue adoptado en 1989 por el Comité Consultivo para Telefonía y Telegrafía Internacionales (CCITT) de la Unión Internacional de Telecomunicaciones. Este estándar se utiliza fundamentalmente en la transmisión de aplicaciones de teleconferencia y videoteléfono a través de medios conmutados de telecomunicaciones públicos/privados (en especial las portadoras teléfono y satélite). El estándar está diseñado en torno a la velocidad característica de 64 kilobits/segundo utilizada en los canales para telecomunicaciones de voz; de manera informal se le denomina PX64 (P veces 64) que representa o significa las diferentes velocidades de datos digitales a las que se puede transmitir imágenes. En el caso de las videoconferencias se informa que el estándar CCITT es semejante al estándar MPEG pero permite una transmisión más veloz (con la correspondiente disminución en la calidad de la imagen).
© National Association of Broadcasters.
Medio: TV y Video
http://www.tvyvideo.com/200112214007/noticias/empresas/tecnologpara-compresie-ses.html