Как программное обеспечение повышает экспозицию в пост-обработке?

9

Кто-нибудь знает какие-либо алгоритмы или может математически объяснить, как яркость (EV) выполняется при постобработке? Регулирует ли он уровень яркости / RBG / контрастности для каждого пикселя? Относится ли это к гистограмме?

Каковы технические характеристики компенсации экспозиции для недодержанного изображения при постобработке?

РЕДАКТИРОВАТЬ: В этом вопросе здесь была размещена ссылка. У него есть примеры изменения EV, и он движется влево / вправо. В ответе Мэтта Грамма он утверждает, что каждый пиксель «умножается» (что, на мой взгляд, указывает на то, что гистограмма перемещается вверх / вниз).

Кто-нибудь может объяснить, почему это так? (Это EV меняется слева направо)

BBKING
источник
Вы хотите ограничить этот вопрос этими конкретными продуктами Adobe, или вы заинтересованы в корректировке экспозиции при постобработке в целом?
Пожалуйста, прочитайте мой профиль
Возможный дубликат Что означает украсить изображение?
Итай
2
Я прочитал это дважды, и я все еще нахожу это довольно запутанным вопросом. Не могли бы вы перефразировать некоторые более дискурсивные части и четко сосредоточиться на своем основном вопросе?
Марк Уитакер
@mattdm Да, в общем. Итай Кинда не очень. :) Марк Уитакер подойдет. (Мне сказали, что я не могу на более чем одного человека)
BBking
@ Марк Уитакер Я уже уточнил?
BBking

Ответы:

6

Я знаю, что нас всех волнует наличие цифровых камер, но факт в том, что у нас нет . У нас есть аналоговые камеры, которые имеют цифровой формат вывода (и множество цифровых схем, которые также не имеют прямого отношения к изображению).

Всякий раз, когда аналоговый сигнал преобразуется в цифровой сигнал, вы вносите шум квантования. То есть, очень маловероятно, что сигнал, поступающий в преобразование, будет точно соответствовать значению цифрового числа, которое выходит на другом конце - воспринимайте его как ошибки усечения или округления.

Когда вы выполняете постобработку цифрового файла изображения, шум квантования, добавленный камерой, «запекается». Неважно, с какой глубиной вы работаете в посте, данные, с которыми вы работаете, имеют как аналоговые (ну, квантовые) шумовые компоненты (тепловой и дробовой шум, искажение усилителя и т. Д.), Так и шум квантования. выхода камеры. Качество базовых данных не является идеальным, поэтому любые вычисления, выполненные с использованием ошибочных данных, приведут к неправильному выводу. GIGO , как говорится.

В камере, с другой стороны, вы получаете возможность усилить (или ослабить) аналоговый сигнал перед квантованием. Это не помогает с шумом в аналоговой области, но уменьшает шум квантования при данном уровне яркости .

Допустим, у вас есть аналоговое значение 4,4, что означает. Если вы снимаете с использованием ISO 100, наша гипотетическая «цифровая» камера преобразует это в цифровое значение ровно 4. Если вы решите увеличить видимую экспозицию в посте, вы застряли в работе с 4, который усекается. Если вы увеличите ISO в камере (менее чем на полную остановку), то значение 4.4 будет усилено аналоговой схемой до его преобразования в цифровую форму, что может привести к цифровому значению на 1 выше, чем при цифровой обработке. Разница в один бит может показаться не такой уж большой, но когда вы начнете накапливать все ошибки по ходу обработки, данный пиксель может быть довольно далеко от значений, которые он должен иметь. Вот что такое шум.

(Также существует тот факт, что камера «знает» свои собственные характеристики отклика и может учитывать их при обработке. Например, Lightroom не производит специфическое для камеры вычитание шума на основе ISO. Камеры могут , хотя и не могут , все делают .)


источник
Спасибо, Стэн. Да, на фотографии есть все виды шума. Поэтому, если вы настраиваете EV в PP, вы также усиливаете этот шум. Так же, как ISO усиливает любой шум.
BBking
2
Увеличение ISO и EV усиливает шум, но я думаю, что Стэн говорит, что регулировка ISO в камере лучше, чем увеличение экспозиции в постобработке (потому что вы по существу усиливаете сигнал до того, как шум квантования вводится в A / Буду шаг).
Seanmc
4

Это формула, которую вы ищете?

RGB[c] = max( RGB[c] * pow(2,EV), RGBmax )

Это в основном означает, что для каждого канала (каждого пикселя) данных RGB умножьте его на 2 ^ EV, а затем обрежьте до любого максимального значения для ваших данных. Для 8-битного цвета RGBmax будет 255, для 16-битного цвета - 65535 и т. Д.

EV здесь является относительным EV, поэтому EV + 2.0 умножит (осветлит) каждый пиксель в четыре раза, а EV-2.0 разделит (затемнит) каждый пиксель в четыре раза.

Сама формула не зависит от гистограммы, но если вам нужно решить, какое значение экспозиции использовать для оптимальной настройки изображения, тогда для гистограммы будет произведена какая-то статистика для расчета EV.

Осьминог
источник
1
Я считаю, что значения RGB уже представляют воспринимаемую яркость, поэтому ваша формула неверна. Это было бы правильно для значений, измеренных датчиком (который близок к линейному, см. Ответ Мэтта), но не для уже преобразованных значений RGB. (Попробуйте, что произойдет, если вы примените свою формулу.)
Сабольч
@Szabolcs, я думал, что ОП запрашивает алгоритм для выполнения EV компенсации в постобработке, не так ли? Я признаю, что вопрос не совсем ясен для меня, но они просят математику.
Осьминог
Спасибо за Ваш ответ! У вас есть ссылка на эту формулу, чтобы я мог ее подробнее изучить?
BBking
1
@ Осьминог Да, но я хотел сказать, что ваша формула неверна, если она применяется к значениям RBG . Значения RGB вычисляются из необработанных данных датчика, беря логарифм необработанного значения (наше восприятие является приблизительно логарифмическим) и затем линейно масштабируя результат (что соответствует установке черной точки и белой точки). (Плюс некоторые другие вещи, о которых упоминал Мэтт.) Таким образом, ваша формула верна при применении к необработанным значениям пикселей, но неверна для значений RGB. Если вы на самом деле попытаетесь выполнить преобразование изображения на практике, вы поймете, что я имею в виду.
Сабольч
Возьмите необработанный файл, извлеките данные dcrawс помощью -4переключателя, чтобы убедиться, что он не будет выполнять преобразование журнала самостоятельно, а затем попытайтесь выполнить простое базовое преобразование самостоятельно и применить компенсацию экспозиции в процессе.
Сабольч
3

NB вопрос был отредактирован с тех пор, как ответ Стэна на этот вопрос затрагивает другой вопрос:

Кто-нибудь знает какие-либо алгоритмы или может математически объяснить, как яркость (EV) выполняется при постобработке? Регулирует ли он уровень яркости / RBG / контрастности для каждого пикселя? Относится ли это к гистограмме?

Каковы технические характеристики компенсации экспозиции для недодержанного изображения при постобработке?

Это может быть просто умножение всех значений пикселей (например, яркость, контрастность - это не термин, который применяется к отдельным пикселям) и применение смещения. Если это делается после демозаики, вы просто умножаете значения красного, зеленого и синего на один и тот же коэффициент.

Процесс компенсации экспозиции немного сложнее в контексте преобразования RAW, поскольку датчики камеры по своей природе являются линейными устройствами, в то время как большинство преобразователей RAW применяют нелинейную кривую тона, чтобы попытаться эмулировать контрастную S-кривую, которую вы получаете с пленкой.

Таким образом, наилучшее время для компенсации экспозиции - до того, как она будет применена. Это в основном означает использование функции EC вашего RAW-конвертера, а не ожидание, пока вы не экспортировали Photoshop, поскольку к этому времени почти наверняка будет применена нелинейная кривая.

Ситуация еще более сложная, так как некоторые преобразователи RAW * использовали «скрученные» цветовые профили, которые приводят к тому, что оттенок / насыщенность отображаются на разные значения в зависимости от интенсивности. Это сделано для получения более приятных цветов за счет точности и может повлиять на результаты компенсации экспозиции.

Некоторые конвертеры RAW также предлагают инструменты для восстановления светлых участков и усиления теней. Они вносят локальные корректировки (то есть учитывают гораздо больше, чем значения отдельных пикселей). Если вы хотите узнать подробности этих алгоритмов, вам, вероятно, придется подождать и надеяться, что здесь появится разработчик Lightroom.

* когда я говорю «некоторые конвертеры RAW», я в основном говорю о Lightroom / ACR, поскольку это единственный, который я изучал, другие продвинутые конвертеры RAW, вероятно, делают подобное.

Мэтт Грум
источник
Из того, что вы знаете, можете ли вы продемонстрировать, как умножение значения RGB приводит к повышению яркости? Например, имеет ли структура пикселей значения цвета и яркости? Насколько я знаю, вы можете умножить значение пикселя, чтобы изменить его цвет тоже. Мне нравится S-образная кривая. Я знаю, что спрашиваю конкретно об отдельном пикселе, но я понимаю больше в связи с картиной в целом. Я понимаю, что интерполяция также участвует.
BBking
1
Файлы RAW @BBking содержат только значения интенсивности (яркости), каждый пиксель имеет цветной фильтр, поэтому у вас есть чередующиеся интенсивности красного, зеленого и синего. Поскольку датчики камеры являются линейными устройствами, масштабирование записанных значений дает почти такой же результат, как и более длительная экспозиция датчика. После демозаизации изображения могут быть сохранены в нескольких цветовых форматах, наиболее распространенным из которых является RGB, где в каждом пикселе записывается количество красного, зеленого и синего света. Умножение каждого из этих значений на один и тот же коэффициент увеличивает яркость, умножение каждого значения на разную величину меняет цвет.
Мэтт Грум
«Поскольку датчики камеры являются линейными устройствами». Чтобы быть педантичными, датчики камеры «почти линейны», как ([вы уже указали]) ( photo.stackexchange.com/a/33986/6294 ). (Я думал, что это стоит упомянуть, так как ОП также заинтересован в математической постановке задачи). Хороший алгоритм теоретически может учитывать типичную реакцию датчика, даже если он работает только со значениями RGB.
Альберто
@Alberto да, это хорошая точка зрения, я должен был сказать «приблизительно линейный», но поскольку мой комментарий был уже 598 символов, что заняло бы его более 600 и потребовало бы разделения на два комментария;)
Мэтт Грум
3

Математически яркость матрицы (изображения) в целом зависит от воздействия на значение функции CIE L * оттенка пикселя. Это арифметические отношения. Сложите, вычтите, умножьте и разделите.

Опять же, математически матрица преобразования (числовая) добавляется к существующей матрице в с. Они могут быть сделаны выборочно для субъекта или для всей матрицы (изображения).

Хорошая экспозиция и плохая экспозиция являются произвольными терминами, если диапазон освещенности объекта находится в пределах полезного диапазона датчика камеры. Диапазон предметов может быть широким или узким до крайности.

Примечание. Гистограмма является наглядным пособием, отображающим относительное распределение освещенности на изображении. Это линейно. Это не имеет ничего общего с экспозицией, обратной взаимосвязью интенсивности и времени, которая всегда представлена ​​логарифмически.

Стан
источник
2

Каковы технические характеристики компенсации экспозиции для недодержанного изображения при постобработке?

Простое усиление всех значений в изображении увеличит все значения в равной степени. Этот «линейный» отклик свойственен цифровым изображениям.

Мы не воспринимаем вещи таким образом, и получающееся изображение будет казаться неестественным.

Аналоговое изображение (пленочная эмульсия) выглядело более естественным, так как реакция фотоэмульсии более похожа на реакцию зрительной системы человека. Были сделаны ссылки на S-образную кривую. Эта характерная форма "S" является аналоговым ответом.

Компенсация разницы между нашим пропорциональным человеческим визуальным откликом и линейным цифровым откликом предлагает различные средства для эстетической гармонизации различий.

Должен быть эффективный способ обеспечить пропорциональную компенсацию разницы. Это техничность.

Стан
источник