У меня есть монитор Dell U2312HM, подключенный к ноутбуку Dell Latitude E7440. Когда я подключаю их через laptop -> HDMI cable -> HDMI-DVI adaptor -> monitor
(на мониторе нет разъема HDMI), изображение получается намного более резким, чем с laptop -> miniDisplayPort-VGA adaptor -> VGA cable -> monitor
. Разницу сложно зафиксировать с помощью камеры, но моя попытка ее увидеть ниже. Я пытался играть с настройками яркости, контрастности и резкости, но я не могу получить то же качество изображения. Разрешение 1920х1080, я использую Ubuntu 14.04.
VGA:
HDMI:
Почему качество отличается? Это присуще этим стандартам или я должен подозревать неисправный кабель VGA или адаптер mDP-VGA?
Ответы:
VGA - единственный аналоговый сигнал из вышеупомянутых, так что это уже объяснение различий. Использование адаптера может еще больше ухудшить вашу ситуацию.
некоторое дальнейшее чтение: http://www.digitaltrends.com/computing/hdmi-vs-dvi-vs-displayport-vs-vga/
источник
Предполагая, что яркость, сужение и резкость в обоих случаях одинаковы, может быть две другие причины, по которым текст более четкий с DVI / HDMI:
Первое уже было заявлено, VGA является аналоговым, поэтому необходимо будет выполнить аналого-цифровое преобразование внутри монитора, это теоретически ухудшит качество изображения.
Во-вторых, при условии, что вы используете Windows, есть метод ClearType (разработанный Microsoft), который улучшает внешний вид текста путем манипулирования субпикселями ЖК-монитора. VGA был разработан с учетом ЭЛТ-мониторов, и понятие субпикселя не совпадает. Из-за необходимости использования ClearType ЖК-экрана и того факта, что стандарт VGA не указывает хосту, характеристики дисплея ClearType будут отключены при подключении VGA.
Источник: Я помню, что слышал о ClearType от одного из его создателей на подкасте для этого (). Developers (). Life () IIRC, но http://en.wikipedia.org/wiki/ClearType также поддерживает мою теорию. Также HDMI обратно совместим с DVI, а DVI поддерживает электронную идентификацию дисплея (EDID)
источник
Другие делают некоторые хорошие моменты, но главная причина - очевидное несоответствие часов и фаз. VGA является аналоговым и подвержен помехам и несоответствию аналоговой отправляющей и принимающей сторон. Обычно можно использовать такой шаблон:
http://www.lagom.nl/lcd-test/clock_phase.php
И отрегулируйте часы и фазу монитора, чтобы получить наилучшее совпадение и четкую картинку. Однако, поскольку он является аналоговым, эти настройки могут со временем сдвигаться, и, таким образом, в идеале вам следует просто использовать цифровой сигнал.
источник
Есть несколько ответов, указывающих, что цифровой сигнал по сравнению с аналоговым является правильным. Но это не отвечает почему? Несколько упомянутых слоев перевода, это тоже верно, массовое аналого-цифровое преобразование может привести к потере точности, но вам придется измерить это, так как трудно увидеть различия невооруженным глазом. Дешевая конвертация и все ставки выключены.
Так почему же цифровой лучше аналогового?
Аналоговый сигнал RGB (например, VGA) использует амплитуду сигнала (от 0,7 Вольт до пика в случае VGA). Это, как и все сигналы, имеет шум, который, если он будет достаточно большим, приведет к неправильному переводу уровней.
Отражения в кабеле (несоответствия импеданса) на самом деле являются самым большим падением аналогового видеосигнала. Это вносит дополнительный шум и ухудшается с более длинными кабелями (или более дешевыми), более высокое разрешение видео также увеличивает отношение сигнал / шум. Интересно, что вы не сможете увидеть никакой разницы в сигнале 800x600, если кабель VGA не слишком длинный.
Как цифровой сигнал избежать этих ловушек? Ну для одного уровень больше не актуален. Кроме того, DVI-D / HDMI использует дифференциальный сигнал, а также исправление ошибок, чтобы гарантировать, что они и нули точно передаются правильно. К цифровому сигналу добавлено дополнительное кондиционирование, которое нецелесообразно добавлять к аналоговому видеосигналу.
Простите за мыльницу, ребята, но это факты.
источник
Другая проблема заключается в том, что многие VGA-кабели являются ненужными. Если толщина VGA-кабеля составляет менее 1/4 ", вы , вероятно, заметите поблескивание на более крупных мониторах (чем выше резон, тем более брешь). Я даже заметил поблескивание на подключенном кабеле VGA на некоторых 19-дюймовых ЭЛТ-мониторах. Мои VGA-кабели имеют толщину около 1/3 ", и это действительно помогает с резкостью (более толстые провода, больше экранирование)
источник
HDMI и DVI очень похожи. Оба являются цифровыми; Основные отличия в том, что HDMI поддерживает аудио и HDCP. При переключении между HDMI и DVI происходит небольшое фактическое преобразование, но вместо этого соединяются соответствующие контакты на разъемах. Порт отображения является цифровым протоколом, но VGA является аналоговым, и преобразователь, вероятно, вносит небольшие недостатки и снижает резкость в сигнал. Монитор, вероятно, преобразует сигнал обратно в цифровой, что приводит к другому преобразованию, которое отрицательно влияет на качество.
В целом, компьютер-> HDMI-> DVI-> монитор имеет меньше фактических преобразований, чем компьютер-> DisplayPort-> VGA-> монитор, и никогда не преобразует сигнал в аналоговый, обеспечивая более четкое изображение.
источник
HDMI и DVI на самом деле одно и то же (по крайней мере, в вашем контексте). Разъемы DVI на самом деле представляют собой просто разъемы HDMI с другой разводкой (ряды контактов), плюс разъемы VGA с другой разводкой (контакты расположены вокруг крестообразной формы). Если вы посмотрите на конвертер HDMI-DVI, вы, вероятно, заметите, что крестообразная часть отсутствует.
Таким образом, вы сравниваете изображение HDMI с изображением VGA, и, как указал @Josh, оно включает фактическое преобразование.
На самом деле есть разница между HDMI и DVI, но это не относится к вам. HDMI может нести дополнительные сигналы, включая сигнал шифрования для защиты контента, звук, Ethernet и т. Д.
источник