4Aug
Con todo el excelente hardware que tenemos disponible en estos días, parece que deberíamos disfrutar de una visualización de gran calidad sin importar qué, pero ¿y si ese no es el caso? La publicación SuperUser Q & A de hoy busca aclarar las cosas para un lector confundido.
Pregunta de hoy &La sesión de respuesta nos llega por cortesía de SuperUser, una subdivisión de Stack Exchange, una agrupación de sitios web Q & A dirigida por la comunidad.
Foto cortesía de lge( Flickr).
La pregunta
SuperUser reader alkamid quiere saber por qué hay una diferencia notable en la calidad entre HDMI-DVI y VGA:
Tengo un monitor Dell U2312HM conectado a una computadora portátil Dell Latitude E7440.Cuando los conecto a través de una computadora portátil - & gt;Cable HDMI - & gt;Adaptador HDMI-DVI - & gt;monitor( el monitor no tiene un conector HDMI), la imagen es mucho más nítida que si me conecto a través de una computadora portátil - & gt;adaptador miniDisplayPort-VGA - & gt;Cable VGA - & gt;monitor.
La diferencia es difícil de capturar con una cámara, pero veré mi intento a continuación. Intenté jugar con los ajustes de brillo, contraste y nitidez, pero no puedo obtener la misma calidad de imagen. La resolución es 1920 * 1080 con Ubuntu 14.04 como mi sistema operativo.
VGA:
HDMI:
¿Por qué es diferente la calidad?¿Es intrínseco a estos estándares?¿Podría tener un cable VGA defectuoso o un adaptador mDP-VGA?
¿Por qué hay una diferencia en la calidad entre los dos?
La respuesta
SuperUser Contribuidores Mate Juhasz, youngwt, y Jarrod Christman tienen la respuesta para nosotros. Primero, Mate Juhasz:
VGA es la única señal analógica entre las mencionadas anteriormente, por lo que ya es una explicación de la diferencia. Usar el adaptador puede empeorar aún más la calidad.
Algunas lecturas adicionales: HDMI vs. DisplayPort vs. DVI vs. VGA
Seguido de la respuesta de youngwt:
Suponiendo que el brillo, el contraste y la nitidez son los mismos en ambos casos, podría haber otras dos razones por las cuales el texto es más nítidocon HDMI-DVI.
Lo primero ya se ha dicho, VGA es analógico, por lo que deberá pasar por una conversión analógica a digital dentro del monitor. Esto teóricamente degradará la calidad de la imagen.
En segundo lugar, suponiendo que esté utilizando Windows, existe una técnica llamada ClearType( desarrollada por Microsoft) que mejora la apariencia del texto al manipular los subpíxeles de un monitor LCD.VGA se desarrolló con monitores CRT en mente y la noción de un subpíxel no es la misma. Debido al requisito de que ClearType use una pantalla LCD y el hecho de que el estándar VGA no le dice al host las especificaciones de la pantalla, ClearType se desactivará con una conexión VGA.
Recuerdo haber escuchado sobre ClearType de uno de sus creadores en un podcast para This() . Developers() . Life() IIRC, pero este artículo de Wikipedia también respalda mi teoría. Además, HDMI es compatible con DVI y DVI admite identificación electrónica de pantalla( EDID).
Con nuestra respuesta final de Jarrod Christman:
Los otros hacen algunos buenos puntos, pero la razón principal es un reloj obvio y falta de coincidencia de fase. VGA es analógico y está sujeto a interferencias y discordancias entre los lados de envío y recepción analógicos. Normalmente, uno usaría un patrón como este: Reloj
y fase
Luego, ajuste el reloj y la fase del monitor para obtener la mejor combinación y la imagen más nítida. Sin embargo, dado que es analógico, estos ajustes pueden cambiar con el tiempo y, por lo tanto, lo ideal sería utilizar una señal digital.
¿Tiene algo que agregar a la explicación? Suena apagado en los comentarios.¿Desea leer más respuestas de otros usuarios de Stack Exchange expertos en tecnología? Mira el hilo de discusión completo aquí.