На этот вопрос уже есть ответ здесь:
Я знаю, что есть предыдущий вопрос по этому поводу, но у него нет реальных ответов, несмотря на то, что его просмотрели 12 400 раз, и тот факт, что он был закрыт. С этим в мыслях...
Почему в мире разрешение 1366x768 реально? Он имеет соотношение сторон 683: 384, и это самая странная вещь, о которой я когда-либо слышал, живя в мире 16: 9.
Все экраны и разрешения, с которыми я был знаком, имеют соотношение сторон 16: 9. Мой экран, 1920x1080, 16: 9. 720p, с которым я знаком, это 1280x720, также 16: 9. 4K, с которым я знаком, 3840x2160, тоже 16: 9. И все же 1366x768 - это 683: 384, казалось бы, дикий отрыв от стандарта.
Я знаю, что есть много других разрешений повсюду, но 1366x768, кажется, доминирует над большей частью мира ноутбуков со средней ценой, а также кажется уникальным для мира ноутбуков. Почему ноутбуки не используют 1280x720 или что-то еще в качестве стандарта?
источник
Ответы:
Согласно Википедии (выделено мое):
Цитаты не приводятся, но это разумное объяснение: оно ближе всего к 16: 9, которое они могли получить, сохраняя разрешение по вертикали 768 от 1024x768, которое широко использовалось для производства ранних 4: 3 ЖК-дисплеев. Может быть, это помогло сократить расходы.
источник
В то время, когда первые широкоформатные компьютерные экраны стали популярными, обычное разрешение для панелей 4: 3 было 1024x768 (стандарт дисплея XGA). Таким образом, для простоты и обратной совместимости разрешение XGA было положено в основу разрешения WXGA, чтобы графика XGA могла легко отображаться на экранах WXGA. Простое увеличение ширины и поддержание одинаковой высоты также было технически более простым, потому что для достижения этой цели вам всего лишь нужно настроить горизонтальную частоту обновления. Тем не менее, стандартное соотношение сторон для широкого дисплея было 16/9, что невозможно при ширине 768 пикселей, поэтому было выбрано ближайшее значение 1366x768.
WXGA также может относиться к разрешению 1360x768 (и некоторым другим, менее распространенным), которое было сделано для снижения затрат на интегральные схемы. 1366x768 8-битные пиксели будут храниться чуть более 1 МБ (1024,5 КБ), чтобы не помещаться в 8-мегабайтный чип памяти, вам потребуется 16 Мбит только для хранения нескольких пикселей. Вот почему что-то чуть ниже 1366 было принято. Почему 1360? Потому что вы можете разделить его на 8 (или даже 16), что намного проще в обработке графики и может привести к оптимизированным алгоритмам.
источник
У меня был тот же вопрос в 2007 году, потому что мой компьютер не поддерживает мое разрешение по умолчанию для телевизора 1366x768, и я нашел это:
Я рекомендую прочитать полную статью здесь:
http://hd1080i.blogspot.com.ar/2006/12/1080i-on-1366x768-resolution-problems.html
источник
768 - сумма двух степеней 2 (512 + 256), а 1366 - 16/9, умноженное на 768, округленное до следующего целого числа. Но только тот, кто выбрал эту резолюцию, может ответить «почему». Некоторые люди просто любят полномочия 2.
Кроме того, 768 × 1366 - это чуть более одного мегипикселя (2 ^ 20), что составляет около 1,05 мегапикселя (1,05 * 10 ^ 6). 768 раз 1365 как раз под этим, поэтому, вероятно, в игру вступил и маркетинг.
источник