С цифровыми фотоаппаратами дело обстоит иначе. Они, похоже, застряли в этом тупике надолго.
Устройство традиционного фотоаппарата нельзя назвать сложным. Когда срабатывает затвор, объектив фокусирует свет на плёнке или пластинке, которая покрыта фоточувствительной эмульсией. На эмульсии формируется скрытое изображение, которое затем можно проявить с помощью химической обработки.
Цифровая фотография не внесла в эту последовательность заметных изменений. Место плёнки заняла светочувствительная матрица, а химическую обработку — считывание с неё информации, но этим всё и ограничилось. Суть осталась той же: зафиксированное в момент срабатывания затвора изображение считается финальным результатом, готовым снимком, ради которого всё и затевалось.
Такой подход — это атавизм, бесполезный пережиток прошлого. Матрица может заменять фотоплёнку, но её возможности гораздо шире. В цифровой фотографии нет нужды ограничиваться записью единственного кадра. Гораздо более интересных результатов можно достичь, если перестать имитировать ограничения прошлого. Фотоаппарат должен собирать и обрабатывать как можно больше информации, которую дают матрица и другие датчики.
Собранные данные в этом случае не являются финальным результатом. Они становятся полуфабрикатом, который ещё предстоит собрать в пригодную для употребления картинку, пропустив через соответствующие алгоритмы. Дисциплина, занимающаяся поиском таких алгоритмов, называется вычислительной фотографией.
В начале июня вышла новая версия прошивки для электронных очков Google Glass. Согласно описанию, которое опубликовал Google, обновление заметно улучшило качество снимков, получаемых с помощью встроенной камеры.
Как может новый софт улучшить качество съёмки, если железо осталось прежним? Встроенная камера состоит из того же пятимегапиксельного сенсора и той же паршивой оптики, которые смотрелись бы уместнее не в футуристических электронных очках, а в недорогом смартфоне трёхлетней давности.
Тем не менее разница налицо, и какая! Судя по тестовым фотографиям, выросли и чувствительность, и динамический диапазон, и даже, кажется, чёткость. Впрочем, последнее — скорее всего, иллюзия, связанная с нехваткой деталей на пересвеченных кадрах, которые выдавала камера устройства в прошлом.
Новая прошивка Google Glass повышает качество снимков при помощи самого старого и самого известного алгоритма вычислительной фотографии — HDR (точнее, его слегка модифицированного варианта, неплохо работающего даже на движущихся объектах).
Вот как он действует: вместо единственного кадра камера по команде снимает целую последовательность. Первый кадр последовательности имеет минимальную выдержку, поэтому на нём лучше проработаны самые яркие детали, но всё остальное тонет в тени. Выдержка второго уже подольше, следующего ещё дольше — и так далее до самого последнего кадра, снятого с максимальной выдержкой. Он, наоборот, ужасно пересвечен, но зато позволяет разглядеть самые тёмные детали.
Когда последовательность готова, все кадры программно сливаются воедино. Изображение, которое получается в результате, имеет идеально проработанные детали и в светлых областях сцены, и в тенях. Информация о тенях извлекается из кадров с долгой экспозицией, а о свете — из кадров с короткой.
Фотографы часто используют HDR для того, чтобы достичь особого художественного эффекта: почти сверхъестественной освещённости и детализации сюжета, вызывающей ассоциации, скорее, с компьютерным рендером, чем с реальностью.
Мобильным устройствам HDR нужен для другого: алгоритм позволяет выжать максимум из не очень качественных матриц и плохонькой оптики. Разработчики Google Glass не открыли Америки: обработчик HDR с некоторых пор имеется в iPhone и множестве других смартфонов, а nVidia даже включила аппаратную поддержку этого алгоритма в чипсет Tegra 4.