4Aug
Com todo o ótimo hardware que temos disponível nos dias de hoje, parece que devemos estar desfrutando uma visão de excelente qualidade, não importa o que, mas e se não for esse o caso? O super-usuário do usuário Q & A publicação procura limpar as coisas para um leitor confuso.
Today's Question &A sessão de atendimento chega a cortesia do SuperUser - uma subdivisão do Stack Exchange, um agrupamento comunitário de sites Q & A.
Foto cortesia de lge( Flickr).
A pergunta
O leitor de alugadores SuperUser quer saber por que existe uma diferença notável de qualidade entre HDMI-DVI e VGA:
Eu tenho um monitor Dell U2312HM conectado a um laptop Dell Latitude E7440.Quando eu conectá-los via laptop - & gt;Cabo HDMI - & gt;Adaptador HDMI-DVI - & gt;monitor( o monitor não tem uma tomada HDMI), a imagem é muito mais nítida do que se eu me conecto via laptop - & gt;Adaptador miniDisplayPort-VGA - & gt;Cabo VGA - & gt;monitor.
A diferença é difícil de capturar com uma câmera, mas veja minha tentativa abaixo. Eu tentei jogar com as configurações de brilho, contraste e nitidez, mas não consigo obter a mesma qualidade de imagem. A resolução é 1920 * 1080 com o Ubuntu 14.04 como meu sistema operacional.
VGA:
HDMI:
Por que a qualidade é diferente? Isso é intrínseco a esses padrões? Posso ter um cabo VGA defeituoso ou um adaptador mDP-VGA?
Por que existe uma diferença de qualidade entre os dois?
A resposta As contribuições
SuperUser Mate Juhasz, youngwt e Jarrod Christman têm a resposta para nós. Primeiro, Mate Juhasz:
VGA é o único sinal analógico entre os mencionados acima, então já é uma explicação para a diferença. O uso do adaptador pode piorar ainda mais a qualidade.
Algumas outras leituras: HDMI vs. DisplayPort vs. DVI vs. VGA
Seguido pela resposta do youngwt:
Supondo que o brilho, o contraste e a nitidez sejam os mesmos em ambos os casos, pode haver outras duas razões pelas quais o texto é mais nítidocom HDMI-DVI.
O primeiro já foi declarado, o VGA é analógico, então ele precisará passar por uma conversão analógica para digital dentro do monitor. Isso teoricamente irá degradar a qualidade da imagem.
Em segundo lugar, assumindo que você está usando o Windows, existe uma técnica chamada ClearType( desenvolvida pela Microsoft) que melhora a aparência do texto manipulando os sub pixels de um monitor LCD.O VGA foi desenvolvido com os monitores CRT em mente e a noção de um sub pixel não é a mesma. Devido ao requisito de o ClearType usar uma tela LCD e o fato de o padrão VGA não indicar ao host as especificações da tela, ClearType seria desativado com uma conexão VGA.
Lembro-me de ter ouvido sobre o ClearType de um dos seus criadores em um podcast para This() . Developers() . Life() IIRC, mas este artigo da Wikipedia também suporta minha teoria. Além disso, HDMI é compatível com DVI e DVI suporta a identificação de exibição eletrônica( EDID).
Com a nossa resposta final de Jarrod Christman:
Os outros fazem alguns bons pontos, mas o motivo principal é um desajuste óbvio de relógio e fase. O VGA é analógico e está sujeito a interferências e desajustes dos lados de envio e recepção analógicos. Normalmente, alguém usaria um padrão como este:
Relógio e Fase
Ajusta o relógio e a fase do monitor para obter a melhor combinação e a imagem mais nítida. No entanto, uma vez que é analógico, esses ajustes podem mudar ao longo do tempo e, portanto, você deve, idealmente, usar apenas um sinal digital.
Tem alguma coisa a adicionar à explicação? Som desligado nos comentários. Deseja ler mais respostas de outros usuários Tech-savvy Stack Exchange? Confira o tópico de discussão completo aqui.