4Aug

Por que o HDMI-DVI fornece uma imagem mais nítida do que a VGA?

Com todo o ótimo hardware que temos disponível nos dias de hoje, parece que devemos estar desfrutando uma visão de excelente qualidade, não importa o que, mas e se não for esse o caso? O super-usuário do usuário Q & A publicação procura limpar as coisas para um leitor confuso.

Today's Question &A sessão de atendimento chega a cortesia do SuperUser - uma subdivisão do Stack Exchange, um agrupamento comunitário de sites Q & A.

Foto cortesia de lge( Flickr).

A pergunta

O leitor de alugadores SuperUser quer saber por que existe uma diferença notável de qualidade entre HDMI-DVI e VGA:

Eu tenho um monitor Dell U2312HM conectado a um laptop Dell Latitude E7440.Quando eu conectá-los via laptop - & gt;Cabo HDMI - & gt;Adaptador HDMI-DVI - & gt;monitor( o monitor não tem uma tomada HDMI), a imagem é muito mais nítida do que se eu me conecto via laptop - & gt;Adaptador miniDisplayPort-VGA - & gt;Cabo VGA - & gt;monitor.

A diferença é difícil de capturar com uma câmera, mas veja minha tentativa abaixo. Eu tentei jogar com as configurações de brilho, contraste e nitidez, mas não consigo obter a mesma qualidade de imagem. A resolução é 1920 * 1080 com o Ubuntu 14.04 como meu sistema operacional.

VGA:

HDMI:

Por que a qualidade é diferente? Isso é intrínseco a esses padrões? Posso ter um cabo VGA defeituoso ou um adaptador mDP-VGA?

Por que existe uma diferença de qualidade entre os dois?

A resposta As contribuições

SuperUser Mate Juhasz, youngwt e Jarrod Christman têm a resposta para nós. Primeiro, Mate Juhasz:

VGA é o único sinal analógico entre os mencionados acima, então já é uma explicação para a diferença. O uso do adaptador pode piorar ainda mais a qualidade.

Algumas outras leituras: HDMI vs. DisplayPort vs. DVI vs. VGA

Seguido pela resposta do youngwt:

Supondo que o brilho, o contraste e a nitidez sejam os mesmos em ambos os casos, pode haver outras duas razões pelas quais o texto é mais nítidocom HDMI-DVI.

O primeiro já foi declarado, o VGA é analógico, então ele precisará passar por uma conversão analógica para digital dentro do monitor. Isso teoricamente irá degradar a qualidade da imagem.

Em segundo lugar, assumindo que você está usando o Windows, existe uma técnica chamada ClearType( desenvolvida pela Microsoft) que melhora a aparência do texto manipulando os sub pixels de um monitor LCD.O VGA foi desenvolvido com os monitores CRT em mente e a noção de um sub pixel não é a mesma. Devido ao requisito de o ClearType usar uma tela LCD e o fato de o padrão VGA não indicar ao host as especificações da tela, ClearType seria desativado com uma conexão VGA.

Lembro-me de ter ouvido sobre o ClearType de um dos seus criadores em um podcast para This() . Developers() . Life() IIRC, mas este artigo da Wikipedia também suporta minha teoria. Além disso, HDMI é compatível com DVI e DVI suporta a identificação de exibição eletrônica( EDID).

Com a nossa resposta final de Jarrod Christman:

Os outros fazem alguns bons pontos, mas o motivo principal é um desajuste óbvio de relógio e fase. O VGA é analógico e está sujeito a interferências e desajustes dos lados de envio e recepção analógicos. Normalmente, alguém usaria um padrão como este:

Relógio e Fase

Ajusta o relógio e a fase do monitor para obter a melhor combinação e a imagem mais nítida. No entanto, uma vez que é analógico, esses ajustes podem mudar ao longo do tempo e, portanto, você deve, idealmente, usar apenas um sinal digital.

Tem alguma coisa a adicionar à explicação? Som desligado nos comentários. Deseja ler mais respostas de outros usuários Tech-savvy Stack Exchange? Confira o tópico de discussão completo aqui.