4Aug

Dlaczego HDMI-DVI zapewnia ostrzejszy obraz niż VGA?

click fraud protection

Z całym świetnym sprzętem, jaki mamy w dzisiejszych czasach, wydaje się, że powinniśmy cieszyć się świetną jakością oglądania bez względu na wszystko, ale co, jeśli tak nie jest? Dzisiejszy post SuperUser Q & A stara się wyjaśnić sytuację zagmatwanemu czytelnikowi.

Dzisiejsze pytanie &Sesja odpowiedzi przychodzi do nas dzięki uprzejmości SuperUser - poddziału Stack Exchange, opartego na społecznościach grupy Q & A.

Zdjęcie dzięki uprzejmości lge( Flickr).

Pytanie

Aluminiowy czytnik SuperUser chce wiedzieć, dlaczego zauważalna różnica w jakości między HDMI-DVI i VGA:

Mam monitor Dell U2312HM podłączony do laptopa Dell Latitude E7440.Kiedy łączę je za pomocą laptopa - & gt;Kabel HDMI - & gt;Adapter HDMI-DVI - & gt;monitor( monitor nie ma gniazda HDMI), obraz jest znacznie ostrzejszy niż w przypadku połączenia przez laptop - & gt;adapter miniDisplayPort-VGA - & gt;Kabel VGA - & gt;monitor.

Różnica jest trudna do uchwycenia za pomocą kamery, ale zobacz moją próbę poniżej. Próbowałem grać z ustawieniami jasności, kontrastu i ostrości, ale nie mogę uzyskać tej samej jakości obrazu. Rozdzielczość wynosi 1920 * 1080, a moim systemem operacyjnym jest Ubuntu 14.04.

instagram viewer

VGA:

HDMI:

Dlaczego jakość jest inna? Czy jest to nieodłączne od tych standardów? Czy mogę mieć wadliwy kabel VGA lub przejściówkę mDP-VGA?

Dlaczego między nimi występuje różnica w jakości?

Odpowiedzi od

SuperUser Mate Mate Juhasz, youngwt i Jarrod Christman mają dla nas odpowiedź.Najpierw, Mate Juhasz:

VGA jest jedynym sygnałem analogowym spośród wspomnianych powyżej, więc jest to już wyjaśnienie różnicy. Korzystanie z adaptera może jeszcze bardziej pogorszyć jakość.

Niektóre dalsze uwagi: HDMI vs. DisplayPort vs. DVI vs. VGA

Odpowiedź od youngwt:

Zakładając, że jasność, kontrast i ostrość są takie same w obu przypadkach, mogą istnieć dwa inne powody, dla których tekst jest ostrzejszyz HDMI-DVI.

Pierwsza z nich została już stwierdzona, VGA jest analogowa, więc będzie musiała przejść przez konwersję analogowo-cyfrową wewnątrz monitora. To teoretycznie obniży jakość obrazu.

Po drugie, zakładając, że używasz systemu Windows, istnieje technika o nazwie ClearType( opracowana przez firmę Microsoft), która poprawia wygląd tekstu poprzez manipulowanie subpikselami monitora LCD.VGA została opracowana z myślą o monitorach CRT, a pojęcie subpiksela nie jest takie samo. Ze względu na wymóg stosowania przez ClearType ekranu LCD oraz fakt, że standard VGA nie informuje hosta o specyfikacji wyświetlacza, funkcja ClearType byłaby wyłączona przy połączeniu VGA.

Pamiętam, że słyszałem o ClearType od jednego z jego twórców na podcastie dla This() . Developers() . Life() IIRC, ale ten artykuł Wikipedii również wspiera moją teorię.Również HDMI jest kompatybilny wstecz z DVI, a DVI obsługuje elektroniczną identyfikację ekranu( EDID).

Dzięki naszej ostatecznej odpowiedzi od Jarroda Christmana:

Inni robią dobre rzeczy, ale głównym powodem jest oczywiste niedopasowanie zegara i fazy. VGA jest analogowa i podlega zakłóceniom i niedopasowaniu analogowych stron wysyłających i odbierających. Normalnie można użyć takiego wzoru:

Zegar i faza

Następnie dostosuj zegar i fazę monitora, aby uzyskać najlepsze dopasowanie i najostrzejsze zdjęcie. Ponieważ jednak jest to ustawienie analogowe, zmiany te mogą się zmieniać wraz z upływem czasu, dlatego najlepiej użyć tylko sygnału cyfrowego.

Czy masz coś do dodania do wyjaśnienia? Dźwięk w komentarzach. Chcesz przeczytać więcej odpowiedzi od innych użytkowników Stack Exchange, którzy znają się na technologii? Sprawdź cały wątek dyskusji tutaj.