Я не говорю об изменениях фокусного расстояния.
Я читал много постов, в которых говорится, что в полнокадровой камере плотность пикселей ниже по сравнению с камерой с датчиком кадрирования, поэтому она захватывает больше света и, таким образом, имеет лучшую производительность ISO и больший динамический диапазон. Поэтому, если я переключу камеру с датчиком кадрирования на съемку с более низким разрешением, будет ли это соответствовать лучшей плотности пикселей и имитировать производительность полного кадра (или среднего формата), или она всегда будет снимать с максимальным разрешением и уменьшением размера?
--EDIT: 1--
У меня есть Canon 60D, и у меня есть 3 варианта размеров изображения RAW (RAW, M-RAW и S-RAW). Если RAW - это просто дамп с датчиков камеры, как они могут быть 3 разных размеров? Камера также уменьшает изображения RAW?
Ответы:
Учитывая, что у вас есть Canon, более низкие режимы RAW, mRAW и sRAW, ДЕЛАЙТЕ ИСПОЛЬЗОВАНИЕ ВСЕХ доступных пикселей датчика, чтобы получить более богатый результат без необходимости байеровской интерполяции. Фактический формат вывода, хотя он все еще содержится в файле изображения Canon RAW .cr2, кодируется в формате Y'CbCr, аналогично многим форматам выпадающего видео. Он хранит информацию о яркости для каждого ПОЛНОГО пикселя (2x2 квадрата из 1 красного, 1 синего и 2 зеленых пикселей), а каждый канал цветности получен из полупиксельных данных (1x2 пара из 1 красного + 1 зеленого или 1 синего + 1 зеленого) ,
Я не совсем уверен, каковы конкретные различия в низкоуровневом аппаратном чтении и кодировании между mRAW и sRAW, однако, вообще говоря, чем меньше выходной формат, тем больше входной информации о пикселях датчика можно использовать для каждого выходного пикселя. Небольшое количество интерполяции, присутствующего в м / ТРО является спорным, так как оба формата интерполировать гораздо меньше, чем родной RAW. Следует также отметить, что ни mRAW, ни sRAW не являются фактическими форматами «RAW» в обычном смысле ... данные датчика обрабатываются и преобразуются во что-то еще, прежде чем они сохраняются в файле .cr2.
Подробнее о форматах, полученных из YUV, и о Canon sRAW см. Мой ответ здесь: Почему цветовое пространство xvYCC не воспринимается фотографами?
Из «Понимание того, что хранится в файле Canon RAW .CR2»:
Каждый «пиксель» в изображениях sRAW и mRAW содержит четыре компонента ... разделенный Y-компонент (y1 и y2), а также x (цветность Chrominance Blue) и z (цветность Chrominance Red). Все четыре компонента (с точки зрения 1/2 изображения, sRAW1 / mRAW) имеют высоту столбца 2 (h) и ширину 1 (v). Это указывает на то, что значение яркости (Y ') состоит из ПОЛНОГО квадрата 2x2 пикселей или двух столбцов 2x1 пикселей, сохраненных в y1 и y2.
Приведенные ниже ссылки, по-видимому, конкретно не утверждают это, поэтому я немного размышляю здесь, однако с помощью sRAW2 (1/4 необработанного) я считаю, что информация о яркости будет получена из блока пикселей 4x4, где h = 4 и v = 2. Цветовое кодирование станет более сложным для изображения размером 1/4, поскольку матрица байерового цветового фильтра на датчике не расположена в аккуратных красных и синих столбцах. Я не уверен, обрабатываются ли чередующиеся столбцы высотой 2x1 для каждого компонента Cr и Cb или выполняется какая-либо другая форма интерполяции. Одно можно сказать наверняка ... интерполяция исходных данных всегда больше выходных данных, и, насколько я могу судить, перекрытия (как в обычной байеровской интерполяции) не происходит.
Наконец, sRAW1 / mRAW и sRAW / sRAW2 сжимаются с использованием алгоритма сжатия без потерь. Это критическое различие между этими форматами и JPEG, который также использует кодировку типа YCC. JPEG выполняет сжатие с потерями, что делает невозможным восстановление пикселей до их точного исходного представления. Форматы Canon s / mRAW действительно можно восстановить до исходных 15-битных изображений с полной точностью.
Ссылки:
источник
Теоретически, это возможно, если камера использует правильную стратегию для уменьшения размера изображения.
Как вы заметили, в современных камерах с датчиком кадрирования необработанное изображение остается неизменным независимо от установленного вами размера JPEG. Изображение JPEG просто масштабируется. Это может несколько уменьшить появление шума, но это происходит из-за алгоритма масштабирования изображения (вы не можете вписать столько пятнистых пикселей в меньшее изображение, сколько вы можете в полноразмерную версию). Тем не менее, более вероятно, что вы сможете добиться хотя бы такого же хорошего, если не лучшего, если вы сделаете шумоподавление и масштабируете себя после свершившегося факта.
Существует стратегия, которая приведет к настоящему снижению шума. На некоторых задних сторонах среднего формата высокого разрешения (например, в серии Phase One SensorPlus) используется стратегия, называемая пиксельным бинингом , когда группы смежных датчиков рассматриваются как одно гораздо большее датчик, а их совокупный заряд считывается с датчика. Это отличается от чтения индивидуальных сборов и усреднения (то, что вы ограничены в обработке после чтения) - это происходит на аппаратном уровне и меняет то, что означает «сырой». Шум чтения имеет больше шансов на компенсацию, а накопленный заряд делает аналого-цифровое преобразование менее неоднозначным (диапазон преобразованных квантов шире с меньшим усилением).
На практике это обычно означает уменьшение разрешения в четыре раза (половина ширины и половина высоты). Со средним форматом 60 или 80 мегапикселей вы все равно получите изображение 15 или 20 мегапикселей; с 16-мегапиксельной камерой с датчиком кадрирования вы получите 4-мегапиксельное необработанное изображение. Теперь вы, возможно, знаете, а я могу знать, что чистое 4-мегапиксельное изображение лучше, чем шумное 16-мегапиксельное, но не все согласятся с тем, что создание меньшего изображения требует дополнительных затрат. Это означает, что маловероятно, что в ближайшее время вы увидите, что пиксельный биннинг используется в чем-то меньшем, чем камера профессионального уровня. Он может появляться в полнокадровых камерах, если их разрешение продолжает расти, но я бы не стал искать его в датчике обрезки. (Ну, может, Pentax однажды сделает удар, потому что они не делают полнокадровый.)
источник
Если основной проблемой является высокий уровень шума, одно из решений состоит в том, чтобы снимать несколько кадров, а программное обеспечение с хорошими алгоритмами объединяет одно хорошее изображение из нескольких худших. Например, ALE, Anti-Lamenessing Engine делает это. Для движущихся объектов это, очевидно, не работает, но вы можете снимать с рук, скажем, при ISO 1600, а затем комбинировать снимки, чтобы получить уровни шума, близкие к ISO 400 или 800.
источник