Lytro.com описывает свою новую камеру светового поля как способную захватывать все световое поле, а не только одну плоскость света, тем самым предоставляя целый новый набор возможностей постобработки, включая настройку фокуса и перспективы.
Какой тип датчика может «захватывать каждый луч света в каждом направлении в любой момент времени»? Как будет кодироваться и обрабатываться по существу бесконечное количество информации? Будет ли объектив в передней части в традиционном смысле?
Вот диссертация изобретателя: http://www.lytro.com/renng-thesis.pdf
Может кто-нибудь свести это к тем из нас, кто знаком с традиционными технологиями?
Ответы:
Простой способ думать об этом заключается в следующем:
Представьте себе, что вместо одной камеры у вас была сетка из 100 камер в массиве 10x10. Когда вы стреляете, каждый из них стреляет одновременно. Каждый из них будет иметь немного другое представление о том, что вы фотографируете. Существуют некоторые математические модели, которые вы можете использовать для сортировки «обратного инжиниринга» изображения и его перестройки различными способами. В этом вся суть, за исключением того, что вместо 100 камер у вас есть тысячи, и все они образованы массивом линз чуть выше плоскости датчика. Таким образом, изображение, которое выходит из датчика камеры, имеет несколько кругов частичных изображений, каждое из которых немного отличается от соседнего с ними. Затем они используют математику, чтобы собрать одно изображение из этих частичных изображений.
источник
Вот мои слова после прочтения очень доступной статьи Рен Нг.
В традиционной цифровой камере входящий свет фокусируется на плоскость, датчик, который измеряет яркость в каждой светочувствительной ячейке, пикселе. Это создает окончательное изображение в том смысле, что результирующий растр значений может быть нанесен в виде связного изображения.
Камера со световым полем ( Plenoptic ) использует тот же тип датчика, но размещает массив микролинз перед датчиком. Это становится плоскостью формирования изображения и определяет разрешение в пикселях постобработанных изображений, а не датчик в целом. Каждая микролинза улавливает световые лучи в различных направлениях, создавая «изображение под апертурой», которое записывается на группу ячеек на датчике. Полезная схема из статьи:
Обычная фотография, которая должна была бы быть сформирована, может быть получена путем суммирования массива субапертурных изображений для каждого пикселя. Но дело в том, что деривации становятся возможными благодаря использованию вычислений трассировки лучей. (Леонардо де Винчи был бы завистлив.) В частности, глубиной резкости можно манипулировать, тем самым отделив традиционную апертуру / глубину полевых кандалов. Коррекция аберрации объектива также возможна.
В статье описывается, что «общее» световое поле и «все» направления света могут быть захвачены, когда на самом деле это будет ограничено количеством микролинз, размером сенсора под каждым и т. Д. Конечно, как и все в противном случае, если на это можно дать достаточно разрешения, можно сказать «практически все». Поэтому я полагаю, что Plenoptic камеры будут рекламировать количество пикселей и количество лучей.
источник