HDMI - Su Historia y las diferencias entre los baratos y los caros
El HDMI es un estándar que permite transmitir vídeo de alta definición y audio digital multicanal a través de un solo cable. No es más que el sustituto del antiguo euroconector, que aún no ha sido desterrado de los hogares, pese a que la primera aparición del nuevo estándar tuvo lugar en el año 2002. Era la versión 1.0 y a partir de ese momento se han lanzado sucesivas evoluciones hasta llegar a la presentación del HDMI 2.0 hace un año. El salto cualitativo ha sido importante en esta última actualización, pero merece la pena echar la vista atrás para ver las diferencias entre las versiones existentes.
En diciembre de 2002 se presentó HDMI 1.0. Era un tipo de conexión nueva, diferente al euroconector y que pretendía reflejar el paso de lo analógico a lo digital, una transición que tenía lugar en esos momentos gracias al DVD y a la implantación de la TDT, que se empezaba a fraguar. La primera versión ofrecía una tasa de transferencia máxima de 4,9 Gbps y tenía soporte para resoluciones de 1080p en anchos de banda de 60Hz. El audio que transmitía era de ocho canales y 192 kHz. Básicamente se trataba de dar soporte al DVD.
La versión HDMI 1.2 añade algunas mejoras tres años después. La principal de todas ellas, sin duda, es que da soporte a las pantallas y formatos de vídeo de los PC. Lo que dará inicio a una fructífera unión entre estos equipos y los televisores que aún a día de hoy sigue prosperando para ver películas o álbumes de fotos, a pesar de que las tecnologías inalámbricas estén ganando terreno. El soporte al estádar One Bit Audio es otra de las novedades de la versión 1.2.
Poco tarda en salir la 1.3, menos de un año después, que da un nuevo y más decidido empujón a la tecnología. El ancho de banda es ya de 340 MHz y la tasa de transferencia de 10,2 Gbps. Soporta color en 10, 12 y 16 bit, así como los formatos de audio Dolby TrueHD y DTS-HD, utilizados en el HD-DVD y el Blue-ray. También se establece un nuevo miniconector destinado a videocámaras. Los primeros dispositivos que exigen HDMI 1.3 para funcionar con fluidez son la PlayStation 3 y la Xbox 360 (ambas de finales de 2006).
En 2009 llegó HDMI 1.4, que puede transmitir resoluciones de 4096×2160 píxeles, es decir, 4K. El estándar también pasa a soportar por primera vez vídeo en 3D, lo que resulta útil para ver películas pero también para jugar a videojuegos que tengan estas características. También se añade un microconector HDMI, más pequeño que el anterior miniconector y orientado a móviles y cámaras digitales.
El gran salto de HDMI 2.0
Pese a la constante evolución en las anteriores versiones ha sido la llegada de HDMI 2.0 la que ha renovado el estándar, preparándolo para los próximos años. La calidad de audio, que se había mantenido inmutable a lo largo de 11 años, se ha mejorado a 32 canales y 1536 kHz. Permite hasta cuatro fuentes de sonido simultáneas mientras que las otras versiones solo dejaban una fuente.
También se ha añadido soporte a 4K, que ya existía en HDMI 1.4, pero únicamente a 25 o 30 fotogramas por segundo. Esta frecuencia es válida para películas, pero no funciona bien en videojuegos o con imágenes de movimientos bruscos, como la retransmisión de ciertos deportes en televisión. Con HDMI 2.0 se obtienen hasta 60 fotogramas por segundo a resolución 4K, si bien es cierto que se necesita un cable adaptado a esta versión del estándar.
Evidentemente la tasa de transferencia también se ha incrementado. De 10,2 Gbps se ha pasado a 18 Gbps. Las formatos en 3D también se soportan y lo hacen a 25 imágenes por segundo.
¿Qué diferencia hay entre los cables HDMI baratos y los caros?
Este es un tema recurrente en foros especializados de Internet, pero las conclusiones de los expertos coinciden en señalar que realmente no existe diferencia alguna entre los cables HDMI baratos y los caros. Fruto del desconocimiento y del don de gentes de avispados vendedores, es bastante habitual que en los puntos de venta especializados nos intente convencer de las supuestas prestaciones de los cables de alta gama para hacernos gastar más dinero del necesario. Pero la realidad es bien distinta y se ha demostrado que el mito de las supuestas diferencias entre cables de diferente gama realmente no existen y se reducen a la resistencia y durabilidad del propio cable.
El origen de esta confusión se remonta a los cables que transmitían señal analógica y se comercializaban con funciones similares a las del HDMI. Evidentemente, estos cables eran de una calidad cuestionable y el habitual desgaste de los conectores influía notablemente en la calidad de la señal analógica que llegaba al televisor. Estos inconvenientes generaron toda una industria orientada a la comercialización de cables de mejor calidad con marcas que ofrecían cables con conectores de oro u otros metales, a precios mucho más elevados.
Con el tiempo el consumidor aceptó la idea de que unos cables eran mejores que otros y que valía la pena gastar más dinero por ello. En cambio, para la transmisión de señales digitales con cables HDMI la cosa es muy distinta. En primer lugar, la calidad de la señal digital dependerá del adaptador de potencia de nuestra antena, o en su defecto, del amplificador de señal entre la antena y nuestro televisor. Por tanto, el cable HDMI no es más que un mero transmisor de las señales, en base a ceros y unos, que nuestro dispositivo de pantalla registra y convierte en imagen.
En segundo lugar, el HDMI utiliza la denominada señalización de diferencial minimizado de transición –TMDS –, es decir, una tecnología diseñada para reducir la interferencia electromagnética y mejorar la señal digital registrada en los dispositivos. Su algoritmo de codificación convierte los datos gráficos de 8 bits originales en una señal de 10 bits resistente a fallos, para luego invertir el proceso a su formato original en el dispositivo de pantalla. Por tanto, el cable solo garantiza que la señal del receptor llegue al dispositivo de imagen con independencia de la calidad de imagen.
Entonces, ¿Dónde está la diferencia entre los cables baratos y los de alta gama? Principalmente en la calidad de los materiales que protegen los haces de hilos de cobre que transmiten la señal y que garantizan una mayor o menor resistencia a golpes o tirones. Cualquier defecto en la sección del cable HDMI interrumpirá la codificación de la señal y dejará sin imagen nuestra televisión.
Ahora bien, ¿vale la pena pagar 100 euros por un cable que nos va aportar la misma calidad de imagen que uno de 10 euros?
Un grupo de expertos demostró hace algunos años que los cables HDMI caros no afectan en modo alguno a la calidad de imagen de la señal digital, comparando un fotograma de Sintel, la película de código abierto producida por la fundación Blender, con la captura del mismo fotograma a la salida HDMI del dispositivo con una tarjeta TrueHD.
A partir de la huella digital única o hash MD5 del fotograma original y de cada captura realizada, los expertos utilizaron el software ImageMagick, para obtener una tercera imagen que destacaba las posibles diferencias de píxeles en rojo con un alto grado de precisión. Las conclusiones del estudio revelaron que el hash MD5 de los cables de alta gama no mejoraban en modo alguno la calidad del original, es decir, las huellas digitales eran idénticas.
Además, los expertos también demostraron que los cables caros comercializados para eliminar saltos temporales o reducir errores binarios tampoco mejoraban la calidad del original. Por tanto, queda demostrado que el mercado de los cables HDMI de alta gama responden más a una cuestión de marketing comercial que a una calidad real de la imagen digital.
Agustín Palisa - H7 Computación
Comentarios
Publicar un comentario