На этой странице сравниваются камеры Canon EOS 550D и Canon EOS 500D и упоминается
18,7 миллиона эффективных пикселей
для 550D. Однако наилучшее разрешение, возможное при использовании этой камеры,
5184 * 3456 = 17915904 ~ 17.9 million pixels
Что такое эффективные пиксели, и почему в этом случае это число превышает 17,9 миллиона?
Ответы:
Часть того, что мы видим здесь, - это (я достаточно уверен) не более чем простая опечатка (или что-то в этом роде) со стороны DPReview.com. По данным Canon , [PDF, стр. 225] количество лунок на датчике составляет «Приблизительно 18,00 мегапикселей».
Затем они уменьшаются до примерно 17,9 мегапикселей, когда входные данные шаблона Байера превращаются в то, что большинство из нас считает пикселями. Разница довольно проста: каждая лунка на датчике воспринимает только один цвет света, но пиксель, как вы обычно ожидаете на выходе (например, файл JPEG или TIFF), имеет три цвета для каждого пикселя. На первый взгляд может показаться, что файл будет иметь только одну треть пикселей, по сравнению с ячейками датчика на входе. Очевидно, что это не так. Вот (упрощенное представление), как все работает:
Каждая буква представляет одну лунку на датчике. Каждый блок представляет собой один трехцветный пиксель, который будет добавлен в выходной файл.
Во «внутренней» части датчика каждый выходной пиксель зависит от входных данных от четырех лунок датчика, но каждая лунка датчика используется в качестве входных данных для четырех различных выходных пикселей, поэтому количество входных сигналов и количество выходных сигналов остается неизменным.
Однако по краям у нас есть сенсорные лунки, которые дают только два пикселя вместо четырех. В углах каждый лунка датчика вносит свой вклад только в один выходной пиксель.
Это означает, что общее количество выходных пикселей меньше, чем количество сенсорных лунок. В частности, результат меньше на одну строку и один столбец по сравнению с входными данными (например, в примере у нас есть датчик 8x3, но выходные пиксели 7x2).
источник
Я не знаю, почему термин «эффективный» используется DPReview, но есть несколько причин несоответствия между количеством фотосайтов (пикселей) на чипе и размером в пикселях результирующих изображений.
Некоторые датчики камеры имеют полосу маскированных пикселей по бокам. Эти пиксели идентичны основной массе пикселей на датчике, за исключением того, что они не получают свет. Они используются для обнаружения помех и вычитания их из сигнала, создаваемого светочувствительными пикселями.
Во-вторых, [хорошие] алгоритмы демозаписи используют много «операций соседства», это означает, что значение пикселя зависит в некоторой степени от значения соседних пикселей. Пиксели на крайнем крае изображения не имеют соседей, поэтому вносят вклад в другие пиксели, но не увеличивают размеры изображения.
Также возможно, что камера обрезает датчик по другим причинам (например, окружность изображения на объективе не совсем покрывает датчик), хотя я сомневаюсь, что это имеет место с 550D.
источник
Есть две причины, по которым эффективные пиксели меньше, чем фактическое количество пикселей датчика (чувствительных элементов или датчиков). Во-первых, датчики Байера состоят из «пикселей», которые воспринимают один цвет света. Обычно присутствуют красные, зеленые и синие сенсоры, организованные в пары строк в виде:
Один «пиксель», как большинство из нас знакомо с ним, пиксель в стиле RGB на экране компьютера, генерируется из датчика Байера путем объединения четырех сенсоров, квартета RGBG:
Поскольку для генерирования одного компьютерного пикселя RGB используется сетка 2x2 из четырех датчиков RGBG, по краю датчика не всегда достаточно пикселей для создания полного пикселя. «Дополнительный» край пикселей обычно присутствует на датчиках Байера, чтобы приспособиться к этому. Дополнительная граница пикселей может также присутствовать просто для компенсации полной конструкции датчика, использования в качестве калибровочных пикселей и размещения дополнительных компонентов датчика, которые обычно включают ИК- и УФ-фильтры, фильтры сглаживания и т. Д., Которые могут препятствовать полное количество света от достижения внешней периферии датчика.
Наконец, датчики Байера должны быть «демозакнуты» для получения нормального RGB-изображения компьютерных пикселей. Существует множество различных способов демозирования датчика Байера, однако большинство алгоритмов пытаются максимизировать количество пикселей RGB, которое можно извлечь, смешивая пиксели RGB из каждого возможного перекрывающегося набора 2 × 2 квартетов RGBG:
Для датчика с 36 одноцветными датчиками можно извлечь всего 24 пикселя RGB. Обратите внимание на перекрывающуюся природу алгоритма демозаики, наблюдая за анимированным GIF выше. Также обратите внимание, что во время третьего и четвертого проходов верхний и нижний ряды не использовались. Это демонстрирует, как не всегда могут использоваться граничные пиксели датчика при демозаизации массива Байера-сенсора.
Что касается страницы DPReview, я полагаю, что они могут иметь неверную информацию. Я полагаю, что общее число сенсоров (пикселей) на датчике Canon 550D Bayer составляет 18,0 мегапикселей, в то время как эффективные пиксели или число компьютерных пикселей RGB, которые можно сгенерировать из этой базы 18 мегапикселей, составляют 5184x3456 или 17 915 904 (17,9 мегапикселя). Разница сводилась бы к тем граничным пикселям, которые не могут полностью составить полный квартет, и, возможно, к некоторым дополнительным граничным пикселям, чтобы компенсировать конструкцию фильтров и крепежного оборудования, которые расположены перед датчиком.
источник
Извините, что разочарован, но ни одно из этих объяснений не соответствует действительности. На каждом датчике есть область вне области формирования изображения, которая также содержит фотосайты. Некоторые из них отключены, некоторые включены полностью, а некоторые используются для других целей мониторинга. Они используются для установки уровней усиления и баланса белого как «контрольный набор» для тех, кто выполняет фактическую съемку.
Если вы берете данные датчика RAW с любой из камер Powershot, совместимых с CHDK, и используете dcraw для их преобразования, вы можете получить полное изображение датчика, включая эти 100% черные и 100% белые области.
Что интересно, так это то, что разрешение RAW в камере всегда превышает разрешение JPG в камере. Причина в том, что более простые и быстрые методы интерполяции, используемые в камере для перехода от RAW к JPG, требуют, чтобы окружающие RGB фотосайты определяли конечный цвет каждого пикселя. Крайние и угловые фотосайты не имеют этих цветовых ссылок со всех сторон, чтобы сделать это. Выполнение этого процесса позже на компьютере с лучшим программным обеспечением для интерполяции RAW позволит вам получить немного большее разрешение по размеру изображения, чем то, которое можно получить с помощью встроенного в камеру JPG.
Рецензенты DPReview и авторы статей никогда не должны восприниматься кем-либо как Евангелие. Я нашел так много пробелов в их тестах и вопиющих примерах, когда тестеры даже не знали, как пользоваться камерами, что я не учел их советы много лет назад.
источник