Ru-Board.club
← Вернуться в раздел «Цифровое изображение»

» Теория и практика цифрового фото

Автор: xy
Дата сообщения: 01.02.2006 15:52
так, на меня не кивать и не наезжать - уважайте пожилого человека ;)
Автор: dimzakh
Дата сообщения: 07.02.2006 17:34
В защиту мегапикселей.

Идея зародилась здесь:
http://forum.ru-board.com/topic.cgi?forum=36&topic=0736&start=60
и развилась здесь:
http://forum.ru-board.com/topic.cgi?forum=36&topic=0440&start=1480#12
чтобы не оффтопить - по предложению Duke Shadow переношу текстик сюда.

Пока при измерении на тестах-миррах разрешающей способности матриц фотоаппаратов она будет расти - этт будет оставаться бъективной реальностью, и смысл в росте числа пикселей будет; даже если это после шарпенинга - тем не менее значит в определенных условиях (при низких шумах) с бОльшей матрицы можно будет вытянуть бОльшую картинку, получить бОльшие возможности для кропа-кадрирования и увеличения. Сейчас просто рост качества при росте этого параметра вышел за область линейности, - ну так у процессоров реальная производительность растет давно растет медленнее, чем гигагерцы, и не на всех задачах, - но растет. Там просто процесс не носит оптимизационный характер, гигагерцы особо ничего не ухудшают; здесь - мегапиксели ограничены шумами, и задача опимизации включает субъективность определения весов отдельных составляющих.
Полный, "честный" размер пиксела RGGB матрицы- 4 элемента; и если большая матрица на том же объективе позволит решать задачу объединения цветных компонентов "в лоб", без интерполяций - хуже не будет никому, меньше будет артефактов, да и цветовой шум отдельного пикселя не будет расползаться по соседним, не содержащим информации о данной компоненте. Кажется, у какого-то фуджика предлагалось увеличение ISO на ступень-другую при уменьшении разрешения в 4 раза, - фатически как раз при "честном" формировании пиксела. Так что пишем 5 мегапикселей - в уме держим 1.25; вместо 8-ми - 2. Соответственно так милые сердцу мгногих старые добрые 5 мег по-честному можно будет снять только с 20-мегапиксельной матрицы. Просто и фирмы-производители аппаратов-матриц, и их критики сейчас в заложниках сложившегося на заре цифрового фото "интерполяционного" способа подсчета разрешающей способности матрицы. Вот говорить о "мегасенсорах" было бы честно-корректно.
Разрешение, требуемое матрицей от объектива, по крайней мере в 2 раза меньше, чем обычно считают, пересчитывая на интерполяцию. R и B сенсоров в 4 раза меньше, чем на аппарате написано : ). Поэтому если на черно-белой мирре аппарат (читай-объектив) разрешает n линий, для аналогичного физического разрешения в цвете нужно в 2-4 раза больше мегапикселей. Если 7 мег на 1/1.8, то сенсор 3.7 мкм, расстояние между двумя R-сенсорами 7.4 мкм, три ряда - 22.2 мкм, соответствует 45 линиям/мм объектива. Очень посредственно. Так что сдается мне - 8-10 мегапикселей не роскошь.. и не такие уж придурки на фирмах в КБ сидят, мегапиксели гонят.
Я подозреваю, что пресловутая "магия пленки" отчасти обусловлена этими самыми основанными на низкой пространственной разрешающей способности по цвету артефактами на цветовых переходах у цифровиков. Каждый из них в отдельности на реальном снимке практически незаметен, но вместе - оконтуривают переходы, подменяют цветовой контраст яркостным, создают исподволь ощущение грязцы на снимках, убивают тонкую цветовую текстуру. Примерно как эффект транзисторного звука в аудио, ненавидимые меломанами артефакты MP3 и тому подобное.
По-моему возможны аналогии между пленкой как живописью и цифрой как раскрашеной графикой. Никоим образом не в укор цифре, просто технология выделения яркостной составляющей и последуюшей подгонки под нее цветовых переходов определенно напрашивается на графические аналогии. Для того, чтобы не было артефактов, чтобы цифра стала живописью, необходимо, чтобы цветовые каналы обрабатывались независимо, и частота дискретизации каждого из них в соответствии с теоремой Найквиста вдвое превышала граничную частоту сигнала; в аудио сигнал ограничивают фильтрами, здесь эту роль играет именно ограниченное разрешение объектива; причем там - фильтры высокого порядка, резко обрезающие все за границей пропускания; здесь же - объектив размывет мягко, плавно уменьшая контраст для высоких частот, поэтому требования к частоте дискреизации (количеству пикселей) должны быть выше. Хотя в аудио тоже уже давно для высококачественного звука используют фильтры низкого порядка (= мягкорисующие объективы) и соответственно вместо 44 кГц - 96 и даже 192.

Автор: Duke Shadow
Дата сообщения: 07.02.2006 21:30
dimzakh

Цитата:
Поэтому если на черно-белой мирре аппарат (читай-объектив) разрешает n линий, для аналогичного физического разрешения в цвете нужно в 2-4 раза больше мегапикселей.

Имхо, это не так. Предельный случай - красно-синяя мира, в которой линии попадают на "неродной" ряд: красные на B-G, синие - на G-R. Цвета в этом случае не будет - полностью согласен. Но даже та же самая мира, но попавшая на "свои" ряды, даст всё-таки миру. Не красно-синюю, но тем не менее. Потому что даже при самом убогом алгоритме интерполяции для восстановления цвета в точке используется информация с прилегающих к нему пикселей.

Цитата:
Если 7 мег на 1/1.8, то сенсор 3.7 мкм

Возьмём для примера Canon A620. 7 Мп @ 1/1.8
Размеры сенсора: 7.18 x 5.32 мм. Максимальное разрешение: 3072 x 2304 точек.
Разрешение для ЦФК традиционно измеряется в линиях на высоту кадра. Учитывая "три ряда на две линии" имеем 2304 / 1.5 = 1536 линий на высоту. Что даст 1536 / 5.32 = 289 линий на мм. Учитывая, что при переходе от плёнки к "цифре" линии "удвоились" имеем 289 / 2 = 144 линии на мм. в единицах классической плёночной фотографии. Это то, что должен "выдать" объектив. Не больше и не меньше. Не могу сказать насколько это круто, но вроде слышал, что 110 линий на мм. в плёнке - это уже очень гуд.

Цитата:
Я подозреваю, что пресловутая "магия пленки"

В плёночный период я пользовался Кодаковской мыльницей и на теорию фото мне было глубоко фиолетово. Есть снимок - и ладно. Так что ничего сказать не могу.
Автор: dimzakh
Дата сообщения: 07.02.2006 22:03
Duke Shadow
> Цвета в этом случае не будет - полностью согласен. Но даже та же самая мира, но попавшая на "свои" ряды, даст всё-таки миру.

Если мира то есть, то нет - это суть классический муар; образчик артефакта. На снимке это будет выглядеть как чередующиеся сколь угодно широкие светлые и темные полосы с частотой, равной разности пространственных частот миры и сенсора. Ни о каком разрешении при этом говорить не приходится. Проще кстати рассматривать черно-красную либо черно-синюю миры. Более-менее информативную картинку получишь - если на период попадет три сенсора данного цвета, т.е. 6 рядов "пикселей".

> 144 линии на мм. в единицах классической плёночной фотографии

"Три ряда на две линии" - это в смысле светлая + темная? я считал на период, т.е. видимо "в единицах классической пленочной фотографии".
1/1.8 = 0.55 дюйма диагональ. А если 7.18 x 5.32 - то (sqr(7.18^2+5.32^2))/25.4 = 0.352 дюйма. Неужели условная диагональ и реальная настолько различаются? возможно.. : ( - но все равно цветовая информация регистрируется с шагом вдвое большим, т.е. 72 линии на милиметр.

Автор: Duke Shadow
Дата сообщения: 08.02.2006 20:50
dimzakh

Цитата:
Если мира то есть, то нет - это суть классический муар

А такого не будет
Если линии миры попадут на "свой" цвет - будет именно мира. Неправильного цвета, но тем не менее будет.

Цитата:
Проще кстати рассматривать черно-красную либо черно-синюю миры.

Абсолютно фиолетово. Все три типа мир дадут практически неотличимый результат. Красно-синяя лишь немного улучшает шансы на распознавание при попадании на "свой" ряд.

Цитата:
"Три ряда на две линии" - это в смысле светлая + темная?

Да. При переходе к "цифре" стали считать как и в видеокамерах - за две линии. До этого такую комбинацию считали за одну.

Цитата:
Неужели условная диагональ и реальная настолько различаются?

К сожалению, да.

Цитата:
но все равно цветовая информация регистрируется с шагом вдвое большим, т.е. 72 линии на милиметр.

Имхо, это не совсем верно. Во-первых, реальные объекты никогда не будут чистых RGB цветов. Во-вторых, интерполяция в настоящее время производится по модифицированым Байеровским схемам, где расчёт цвета ведётся по опорной группе не четырёх ближайших соседей, а по группе из 12 и более пикселей, что ведёт к существенному повышению точности и кардинальному устранению муара.
И всё это мы ещё говорим без учёта deinterlace-фильтра, который "размазывает" линию так, чтобы она не попадала чётко на один ряд пикселей.

Я прекрасно понимаю, что ты мне хочешь сказать. Что для идеально правильного расчёта цвета необходимо, чтобы линия накрыла все цвета в маске Байера. Но проблема в том, что это не совсем верная посылка к расчёту разрешающей способности. Она провоцирует к тому, что в реальной ситуации разрешающяя способность матрицы не будет использована полностью (опять же вернулись к проблеме "мегапиксели - то зло" ) Более того - даже в этом случае, имхо, расчёт не будет идеальным - больше чем уверен, что при расчёте цвета пикселя яркость соседей учитывается с поправочными коэффициентами.
Автор: dimzakh
Дата сообщения: 08.02.2006 21:36
Двухцветную миру проще рассматривать. В твоем случае кстати - с учетом интерполяции - матрица вообще никогда не заметит полосок. Если синее попадает на синее, а красное на красное - система интерполяции будет уверена, что во ВСЕХ точках изображения находится синий и красный оттенки, и выдаст сплошной лиловый цвет. И будет права - от сплошной лиловой поверхности картинка будет точно такая же. Синий сенсор не может подсказать, что в этой точке нет красного; и наоборот. Никакой информации об отсутствии цвета в промежутках у аппарата нет. Теорема Найквиста о минимум двух точках на период здесь вполне уместна. Только когда каждый второй красный сенсор сможет сказать об отсутствии в его точке красного цвета - аппарат будет уверенно знать о полосках. А поскольку спектр сигнала не ограничен фильтром-объективом строго по частоте матрицы - точек нужно больше; отсюда получается правило о минимум трех сенсорах на период.

Что для идеально правильного расчёта цвета необходимо, чтобы линия накрыла все цвета в маске Байера.
Я примерно это хочу сказать, да. Только не провоцирует, а настоятельно требует : ). Точнее - что даже за мягкорисующим объективом матрице найдется довольно много работы; хотя улучшение качества с ростом мегапикселей за определенной чертой будет медленнее, чем линейное. И что в противном случае на изображении обязательно будут артефакты. В большинстве случаев незаметные по отдельности, но ощущение кристальной ясности будет потеряно. Причем для правильной цветопередачи некоторое размывание объективом картинки не только не мешает, но является необходимым условием, ибо - в соответствии с Найквистом-Котельниковым ограничивает диапазон сигнала. Поэтому мегапиксели злом полагать у меня не получается. Теоретически по крайней мере : ). Да и практически тоже Меня на эти размышления подвигло наблюдение - что на цифровых фото заметно теряется сочность цвета, если снимается объект, состоящий из большого числа мелких деталей; трава на расстоянии например, особенно - хвоя. В спорах о цифре-пленке апологеты пленки такие именно фотки любят демонстрировать; обычно там еще динамический диапазон цифру портит, но это другой разговор. При попиксельном рассмотрении хорошо видно, что хотя резкость-разрешение хорошие, отдельную хвоинку можно рассмотреть, цвет вблизи границ теряется-притухает. Оно и понятно; в системе зеленых пикселей много, поэтому аппарат знает, что в данном месте проходит резкая граница, и хочет ее отобразить, чтобы соответствовать формальной мегапиксельности. Но синих и красных-мало, поэтому на них нельзя полагаться в определении ее цвета. Понятно, что и зелеными все резкие переходы делать - ничего хорошего не получится. Зато можно переходы обозначать в якостном канале, приглушив цвет, отенками серого; если их не слишком много - все ОК, картинка почти не теряет в цвете, но приобретает эффектную акцентированную резкость; но вот когда их много в куче... в таком скоплении везде границы, и удельный вес краевых эффектов большой.
Автор: Duke Shadow
Дата сообщения: 09.02.2006 14:47
dimzakh

Цитата:
и выдаст сплошной лиловый цвет

Мдя. По модифицированой Байеровской схеме - однозначно так и будет.
А если по окрестности каждого пикселя, то зависит от алгоритма расчёта. Каждый R окружён четырьмя B. Если в расчёте от каждого B брать по 1/4, то получится лиловый. Если меньше - получится либо плохо различимая линия, либо хорошо различимый муар

Цитата:
Теорема Найквиста о минимум двух точках на период здесь вполне уместна.

К сожалению ни с самой теоремой, ни с её прикладными применениями не знаком.

Цитата:
При попиксельном рассмотрении хорошо видно, что хотя резкость-разрешение хорошие, отдельную хвоинку можно рассмотреть, цвет вблизи границ теряется-притухает.

Это вполне может быть результатом постобработки. Излишний шарпенинг именно такой эффект даёт. А если уж совсем оголтелый, то можно таких ужасов добиться.... И это без учёта неприятного эффекта под названием блюминг и хроматических аберраций (которые на дешёвых мыльничных объективах обязательно будут), которые яркостные переходы очень хорошо "акцентируют". Поверх всего этого ещё и JPEG...
Хвои у меня нету. Могу предложить шерсть В частности кошачью. И свою небритую морду. Посмотришь, если есть желание. Правда тоже в JPEG снято, но сжатие очень щадящее. Имхо, переходы в глаза не бросаются даже при 100%. Очень всё мягко и прилично.
Автор: dimzakh
Дата сообщения: 09.02.2006 15:56
Сдается мне, что упомянутые тобой алгоритмы борьбы с муаром как раз и основаны на использовании корреляции цветовых переходов с яркостным каналом и на этой основе предусмотрительного приглушения цвета там, где цветовой информации недостаточно.
Вообще любым интеллектуальным-продвинутым алгоритмам интерполяции ничего не остается делать, кроме как использовать априорную информацию, предположения о характере-особенностях обрабатываемой картинки. Если они оправдываются - хорошо, а если картинка умудрится их не оправдать и обмануть алгоритм - артефакты вылезут с какой-нибудь другой стороны, но с умноженной силой : )
Меньше 1/4 брать нельзя, иначе каждый пиксел в конечном изображении будет нести родимое пятно преобладающего оттенка его прототипа в байеровскй матрице.
Интерполяция - тоже постобработка; шарпенинг - да, он уже имеющийся эффект акцентирует здорово, как и все прочее, но сам по себе он не должен соотношение цветов изменять. Парадокс в том, что слишком резкий для данной матрицы объектив тоже может этот эффект акцентировать - аналогично шарпенингу : ). И понятно, что причина не единственная. Но аберрации обычно различны в центре и на краях, мелкотекстурная зелень же везде примерно одинаково гасится. Причем вроде получается, что именно на зеленых перехдах эффект потускнения будет более заметен, т.к. зеленые переходы - из-за вдвое большего числа пикселей - более резкие, и вкладываются с бОльшим весом в яркостный канал; кошачья и человечья шерсть же обычно изначально серенькие, на них потускнение может быть вообще незаметно.
Впрочем этт все конечно теоретизирования, напрямую на практике не отражающееся. Но любопытно же - что, как и отчего : ))). В т.ч. - почему так настойчиво конструкторы за размерами матриц гонятся; сдается мне - это не только из-за маркетинговых цифирек на корпусе. Хотя наверное радикально проблему решат только трехслойные матрицы; но я что-то не верю в прогресс-успех этой технологии в ближайшем будущем.

Найквист (Котельников в патриотическом варианте) - практически понятная-значимая вещь из теории цифровой обработки сигналов; утверждает, что если есть элементарный периодический аналоговый сигнал (синусоида), то для его однозначного-полноценного восстановления после оцифровки необходимо, чтобы на период сигнала приходилось не менее двух цифровых отсчетов. Поскольку любой реальный сигнал по алгоритму преобразования Фурье может быть представлен в виде суммы периодических составляющих - данная теорема формулирует необходимое условие для полноценной оцифровки любого аналогового сигнала, в т.ч. изображения, после которой его можно будет однозначно и без артефактов реконструиовать: вначале ограничить спектр сигнала фильтром (фактически сгладить его, объектив это волей-неволей делает), а потом оцифровать с частотой в два раза выше, чем самая высокая частота, присутствующая в сигнале. Поэтому в идеале фотоаппарату нужна матрица с периодом (по цветовой составляющей! т.е. собственно RGGB-тетрад) в два раза меньше, чем период миры, которую объектив способен нарисовать с минимальным различимым контрастом (или в один бит АЦП, 1/256-1/4096, 0.4-0.02%, или на уровне шумов). Это очень строгий критерий, пока что на на практике используется существенно меньше, пресловутое разрешение миры, отображаемой с контрастностью 10-15% плюс запас раза в полтора. Пока будет оставаться зазор между практической и теоретической разрешающей способностью матрицы - он будет являться лазейкой для артефактов. К счастью, по своей природе зрительное восприятие, похоже, не основано на частотном принципе, и поэтому такие артефакты не очень заметны; а вот в аудио - все намного радикальнее-трагичнее : )
Автор: Duke Shadow
Дата сообщения: 09.02.2006 17:00
dimzakh

Цитата:
но сам по себе он не должен соотношение цветов изменять.

Поиграйся как-нибудь с "ползунками". Бывает до того "накрутишь", что на однородном сером фоне всяческие "звёзды" появляются.

Цитата:
Причем вроде получается, что именно на зеленых перехдах эффект потускнения будет более заметен

"Зелень" у меня есть, но она вся с Canon G6

Цитата:
В т.ч. - почему так настойчиво конструкторы за размерами матриц гонятся

Стоп, за размерами или за мегапиксельностью всё же?

Цитата:
Хотя наверное радикально проблему решат только трехслойные матрицы

Трёхслойным ещё бороться и бороться за место под солнцем. У них есть принципиальные недостатки по сравнению с "классическими" Байеровскими
Читай тута:
http://www.hardline.ru/selfteachers/Info/Graphics/Digital%20photo/Glava%203/Index11.htm
Автор: dimzakh
Дата сообщения: 09.02.2006 17:09
Duke Shadow
Угу, появляются; так это шарпенинг шум, в т.ч. цветовой на поверхность вытаскивает. Среднестатистический цветовой баланс он вряд ли меняет.

> за размерами или за мегапиксельностью всё же?
В идеале конечно и то, и другое : ) оптимизационная задача, пока позволяют шумы, дифракция и блуминг - мегапиксели крутить таки есть смысл по-моему, даже за не очень хорошим объективом. Не из-за разрешения как такового, для более корректной-глубокой цветопередачи; поэтому вполне можно усреднять - уменьшать их число в итоговой картинке, после всех интерполяционных процедур (и упрощать их алгоритмы). О вроде как теортеическом пределе - я выше добавил.

Про трехслойники - да, я немного представляю их проблемы; но м.б. придумают какие-нибудь хитрые модификации.
Автор: Duke Shadow
Дата сообщения: 09.02.2006 20:16
dimzakh

Цитата:
Угу, появляются; так это шарпенинг шум, в т.ч. цветовой на поверхность вытаскивает.

Да нет, не всегда. Просто идеально ровного цвета добиться малореально, вот где встречаются хоть небольшие перепады, шарпенинг и "тащит".

Цитата:
мегапиксели крутить таки есть смысл по-моему, даже за не очень хорошим объективом.

Смотри того же Милчева. Матрицы современных аппаратов изготавливаются по схеме с буферизацией столбцов, в конструкции таких матриц есть т.н. регистры сдвига, куда перемещается информация после экспонирования. Так вот, при увеличении мегапиксельности, площадь, занимаемая регистрами сдвига, так же увеличивается, просто по той причине, что их нужен один ряд на каждый ряд светочувствительных пикселей. Т.е. полезная площадь и без того маленького пикселя ещё больше уменьшается. Чем грозит - ты в курсе.
Автор: dimzakh
Дата сообщения: 09.02.2006 20:31
Про регистры сдвига (а также попросту шины питания и сигналов, занимающих площадь матрицы) я в курсе; но электроника на месте не стоит. Того гляди - скоро и впрямь на каждый пиксел свой АЦП прицепят : ). И в MOS матрицах вроде этих регистров нет, напрямую считывают? она ж прямого доступа, сразу после такта считывания данного сенсора он готов к экспозиции. Но вообще - да, оптимизационная задача. Я говорю не про ее однозначное решение, только про один из векторов.
Автор: Duke Shadow
Дата сообщения: 10.02.2006 13:57
dimzakh

Цитата:
И в MOS матрицах вроде этих регистров нет, напрямую считывают? она ж прямого доступа, сразу после такта считывания данного сенсора он готов к экспозиции.

Зато у них у каждого пикселя своя обвязка. Которая, кстати, занимает очень много места, в итоге даже чуть ли не больше, чем все регистры сдвига. Поэтому-то и нету MOS матриц малого размера и большой мегапиксельности.
Какую-то новую технологию изобрели - кардинально уменьшает число элементов в обвязке пикселя CMOS-матриц - должно помочь.
Автор: xy
Дата сообщения: 10.02.2006 14:07
Duke Shadow

Цитата:
Какую-то новую технологию изобрели - кардинально уменьшает число элементов в обвязке пикселя CMOS-матриц - должно помочь.

примерно такие рекламномаркетинговые заявления звучали про матрицу в Оли Е330 ;)
кстати у нее таки самый маленький МОС-чип с 7.5Мп на борту
Автор: FAB58
Дата сообщения: 11.02.2006 00:50
Господа! Позвольте спросить.
А куда деваются с поверхности матрицы прермапленные битые и горячие пиксели?
А если никуда, то не является-ли 7Мп матрица (ну скажем Olympus SP-310) отбраковкой при производстве 8Мп матриц (ну скажем Olympus SP-350)? Эдакий "Celeron"...А?

Ну еще не оскудела "Поднебесная".... Во! - CMOS - аж на 2 мегапикселя ! http://www.ixbt.com/digimage/geniusaiptek.shtml
А представьте "пошарпленный" mp3шник....страшно

Автор: dimzakh
Дата сообщения: 11.02.2006 07:08
FAB58
Про отбраковку - все ж сомневаюсь. Надо, чтоб они ровненько по поверхности располагались более-менее, а технологический брак обычно кучами получается; или строками-столбцами. Замапить 14% площади матрицы - это уж совсем Бога надо не бояться. Celeron - не брак ни фига, кристалл обрезают - чтобы не тестить урезанные части, т.е. до отбраковки, а не после. Уменьшенное ISO на 350-м - по-моему намек, что матрица и впрямь другая.
Я делал тесты на разрешение на 310-м, - снимал газетный разворот A2, страничку объявлений с обилием мелких шрифтов, на среднем фокусном. Практически все читаемо, никаких заметных провалов разрешения не нашел, чуть-чуть меньше по краям резкость. Межпрочим разница с чадушкиным C-370 (3 мега) радикальнейшая, с иксусом 4-мегапиксельным сестренки - тоже, там этот разворот в принципе нечитаем.

upd - близко к теме разговора, хотя не самая свежая:
http://www.fcenter.ru/online.shtml?articles/hardware/digitalphoto/5473
понял наконец-то, откуда в фуджиках "интерполированный" RAW; кстати - получается, что он у них "честный", 16 бит на пиксель. Эхх, если бы счас выбирал - наверное таки E900 искал бы.
Автор: Duke Shadow
Дата сообщения: 11.02.2006 13:05
xy

Цитата:
примерно такие рекламномаркетинговые заявления звучали про матрицу в Оли Е330

Не, я где-то в "новостях" про это читал. Такие матрицы ещё вроде в серию не запущены.

FAB58

Цитата:
А куда деваются с поверхности матрицы прермапленные битые и горячие пиксели?

Туда же, куда и бэд-блоки на винчестере.

Цитата:
А если никуда, то не является-ли 7Мп матрица (ну скажем Olympus SP-310) отбраковкой при производстве 8Мп матриц (ну скажем Olympus SP-350)? Эдакий "Celeron"...А?

Не, практически нереально. Чтобы картинка не страдала "дырами" обрезать придётся по краю. А это уменьшение полезной площади, соответственно, переписывание ПО и т.д.

dimzakh

Цитата:
Межпрочим разница с чадушкиным C-370 (3 мега) радикальнейшая

Это вот с этим чтоли?
http://www.foto.ru/product.php?id=11998
Объектив типа "мышкин глаз"... Нашёл, с чем сравнивать!

Цитата:
кстати - получается, что он у них "честный", 16 бит на пиксель

Пока с разрешением не стал разбираться. Но про RAW скажу: ты как читал? Там же русским по HTML'ю написано: 12-разрядный АЦП. Откуда 16-битный RAW-то возьмётся? И уж переносить разрядность c S2 Pro на E900 это очень некорректно.
И заметь - каков размер матрицы, а глубина цвета "всего" 12 бит.
Автор: dimzakh
Дата сообщения: 11.02.2006 13:43
Duke Shadow
Я не сомневаюсь, что там 12-битный АЦП; больше и не надо для матрицы, бессмысленно. Я имел в виду старый разговор - где упоминалось, что у E550 на "12-мегапиксельный" RAW уходит 12 мегабайтов; получалось 8 бтт на пиксель, что удручало. Оказывается - в пространственной структуре ихнего RAW каждый второй "пиксель" - черный, и естественно в файл не пишется, тогда на пиксель приходится два байта, видимо - по-простому, без экноомии на "пустых" разрядах младшего.
Про С370 - какая матрица, такой и объектив; на кропах там хорошо видно, что попросту пикселей на буквочку не хватает, даже с учетом человеческого "дорисовывающего" воображения.
С бэд-блоками на винте - не совсем удачная ассоциация, там пространственное расположение безразлично, поэтому подмена практически ничего не меняет (кроме времени доступа - но это дело десятое, если редко). Здесь же "живой" пиксель не вырежешь и не перенесешь на место "битого", так что в местах "битых" пикселей приходится таки выполнять "дальнюю" интерполяцию.
Автор: Duke Shadow
Дата сообщения: 11.02.2006 14:12
dimzakh

Цитата:
получалось 8 бтт на пиксель

Ну так так оно и есть. На Е550 с его крошечной матрицей о более чем 8-битных градациях серого на пиксель можно только мечтать
Не забывай - в RAW каждый пиксель описывается только яркостной составляющей!
Остальное - забота интерполяционных алгоритмов.

Цитата:
С бэд-блоками на винте - не совсем удачная ассоциация, там пространственное расположение безразлично, поэтому подмена практически ничего не меняет

Я понимаю. Но этого я даже и не подразумевал. Ассоциация исключительно для указания "куда девается". Ни больше, ни меньше. И в том, и в другом случае всё остаётся на своих местах и не используется. Об алгоритмах "обмана" пользователя я даже и не думал разговор заводить.
Автор: dimzakh
Дата сообщения: 11.02.2006 14:22
Duke Shadow
Не забываю : ))) - я развлекался попиксельной распаковкой RAW в байеровскую матрицу, без интерполяции.
На E550 матрица вроде 1/1.7, побольше, чем у моего SP-310. Но при коррекции экспозиции и 12 бит моего RAW заметно помогают; зашумленные младшие биты - лучше, чем ничего, с учетом того, что пиксели усредняются зрительно.
Автор: FAB58
Дата сообщения: 11.02.2006 17:20
По поводу "дыр" тут без статистики по паре десятков камер обоих типов трудно утверждать.
А ПО таки переписывают - потому и разные модели.
Однако я совсем растерялся...
Физический размер матрицы тот-же. Мегапиксели разные. Но не будут же для дешевых камер делать две технологии - это нонсенс. Скорее всего нарезаются они из одного кристалла, но если количество Bad blocks выше нормы эти 14% очень равномерно исключаются из оборота. Естественно речь не идет о "кучках" дефектов.
Насколько я понимаю если битые пиксели програмно исключаются, то можно исключить и любые другие. Т е между матрицей и файлом RAW стоит некая программа (ну хотябы записи в файл). Так может эта программа имеет "спецзадание" - убрать каждого седьмого, если он похож на соседей, чернокожих убирать парами? И исключение это не на уровне технологии, а на уровне программы. А дыры на каждом кадре, соответственно в разных местах, где понезаметнее. Возможно и у большей матрицы есть такой "плавающий" запас для замены битых пикселей" (опять-же как в винче)
Технически реализуемо, выгоды очевидны. Вот такая гипотенуза...

Просто (может я дую на воду) обычно капиталисты младшие модели в линейке товара делают из отходов от старшей модели. Это для пользователя может означать, что менее мегапиксельная матрица младшей модели, принимаемая зачастую как достоинство, на самом деле может быть ниже качеством. И тогда переплатив 1000руб за старшую модель получаешь не только ремешок на шею.
А по поводу наличия в старшей модели более низкого ISO, так это по моему не столько из за более высоких шумов более мегапиксельной матрицы, сколько чтобы при хорошем освещении позволить сделать старшей моделью менее шумный снимок.
Автор: dimzakh
Дата сообщения: 11.02.2006 18:27
Ответ перенес в ветку по Oly 310-350
Автор: FAB58
Дата сообщения: 11.02.2006 21:41
Да оно как бы правильнее..
Автор: Brese
Дата сообщения: 18.02.2006 14:52
Такой вопрос:
Фокусное расстояние это расстояние между линзой и фокусом (плёнкой). Но в объективах много линз, до какой из них нужно замерять? Как я понимаю все линзы в объективе работают как одно целое, то есть образуют одну линзу. Но где она начинается и где заканчивается?
Автор: vladmir
Дата сообщения: 19.02.2006 18:06
Brese

Цитата:
Фокусное расстояние это расстояние между

Плёнкой (матрицей) и точкой фокусировки световых лучей.

Цитата:
все линзы в объективе работают как одно целое, то есть образуют

оптическую систему.

Цитата:
Но где она начинается и где заканчивается?

В фантазиях.))
Автор: Brese
Дата сообщения: 27.02.2006 16:17
vladmir

Цитата:
Плёнкой (матрицей) и точкой фокусировки световых лучей.

Так ведь точка фокусировки световых лучей, это и есть фокус. А он должен находиться там же где и плёнка. Или ты имел в виду центр линзы?

Подскажите где можно почитать объяснение как именно диафрагма влияет на глубину резкости. Желательно подробно и с картинками.
Автор: Duke Shadow
Дата сообщения: 27.02.2006 19:56
Brese

Цитата:
Подскажите где можно почитать объяснение как именно диафрагма влияет на глубину резкости. Желательно подробно и с картинками.

Фиглишь сечёшь?
Тогда тут: http://web.canon.jp/Imaging/enjoydslr/index.html
Автор: Brese
Дата сообщения: 27.02.2006 21:22
Duke Shadow
Ты имеешь в виду вот это? http://web.canon.jp/Imaging/enjoydslr/p_2_007.html
Это слишком примитивно.
Меня интересует что происходит с лучами света когда закрывается диафрагма и что такое
кружок нерезкости. Желательно по подробней и на русском.
Автор: dimzakh
Дата сообщения: 27.02.2006 23:11
Brese
Дык - там нечего особо подробно рассказывать. После прохождения через линзу свет от любой точки изображения сходится в конус; если фокус наведен правильно - его вершина должна совпасть с плоскостью пленки, т.е. точке изображения будет соответствовать точка на пленке. Если пленка чуть ближе или чуть дальше вершины - сечение ею светового конуса будет уже не точкой а кружочком, этот самый кружок нерезкости и есть. Перекрывая диафрагму - уменьшаем диаметр конуса и пропорционально диаметр кружка нерезкости. Изображения, находящиеся на разных расстояниях от аппарата, потребуют разного положения объектива относительно пленки, и соответственно лучи будут сходиться под разным углом; чем дальше объект - тем угол острее и меньше кружок нерезкости при том же смещении пленки относительно точки схождения лучей; поэтому на близко расположенные предметы фокус требуется наводить точнее.
Но при сильно закрытой диафрагме отностиельно бОльшую роль начинает играть световой поток, прошедший около ее края и отклонившийся от строго геометрического прямого пути вследствие волновой природы света; при этом говорят, что резкость уменьшатеся из-за дифракции.
Автор: Darsanval
Дата сообщения: 28.02.2006 04:23
Brese
Круг нерезкости это одна из характеристик, определяющих качество объектива. Самая маленькая точка, которую он может образовать - "минимальный круг нерезкости". Максимально допустимый размер точки на изображении называется "допустимым кругом нерезкости". Еще имеем в объективе дисперсию, дифракцию, аберрацию, астигматизм и так далее которые влияют на эту самую резкость...

Когда закрываешь диафрагму увеличивается глубина резко изображаемого пространства /ГРИП/.

Цитата из Гарольда М. Мерклингера "Наведение на резкость"
_http://www.hiero.ru/article.php?id=adjusting_dof
"Как же я решаю этот вопрос? Большинство моих снимков сделаны дальномерными или зеркальными камерами, позволяющими вручную установить диафрагму. Прикрыв диафрагму, я смотрю в объектив спереди, и отмечаю действующий диаметр диафрагмы. Потом я смотрю на сцену и решаю - какова самая маленькая деталь, которую я хочу иметь на снимке? Что это - камень на земле, травинка, зрачок глаза, отдельный волосок, кустарник на склоне горы? Если эта мельчайшая деталь больше, чем апертура объектива, то я просто фокусируюсь на бесконечности и приступаю к кадрированию и съёмке.

Если же мельчайшая деталь сцены меньше, чем апертура объектива, то надо определить - насколько меньше? Пусть, к примеру, апертура объектива вдвое больше, чем толщина моего большого пальца, а я хочу запечатлеть гальку, которая вдвое меньше моего пальца и, следовательно, вчетверо меньше диаметра объектива. Запомним это отношение - "1/4". Галька примерно в двадцати футах от камеры, а вдалеке, примерно в сотне футов, наводится каменное строение. Я хочу, чтобы щели в каменной кладке также были изображены на плёнке. Их размер я тоже оцениваю примерно в половину моего пальца. Где бы я не сфокусировался, глубина резкости будет простираться в обе стороны от точки фокусировки на одну четверть фокусировочной дистанции. Если я сфокусируюсь в 30 футах, то зона приемлемой резкости будет от 23 до 38 футов - по 7,5 (т. е. 30/4) футов с каждой стороны. Ближняя граница меня вполне устраивает, но с дальней надо что-то делать.

Выход один: нужно сильнее прикрыть диафрагму - скажем, на два деления. Теперь диаметр линзы равен толщине моего пальца. Глубина зоны резкости удвоилась - она теперь простирается от 15 до 45 футов (30 футов ± 30/2 футов). Предел разрешения в 100 футах от меня - чуть больше двух пальцев ((100-30)/30 = 2,3) - примерно вчетверо больше, чем нужно. Сдвинем точку фокусировки до 60 футов. Зона резкости теперь - от 30 до 90 футов. Это уже почти то, что надо. Разрешение в 100 футах - 2/3 толщины пальца ((100-60)/60), в 20 футах - тоже 2/3. Теперь я могу либо снимать с этими значениями, либо (если позволяет освещённость) уменьшить диафрагму ещё на ступень."

Давид Мзареулян "О расчёте глубины резко изображаемого пространства"
из серии "Объективная реальность"
_http://www.hiero.ru/article.php?id=grip
Цитата
"Понятие глубины резкости весьма относительно. Идеальная линза создаёт резкое изображение только одной плоскости, любая точка, не принадлежащая этой плоскости, будет нерезкой, т.е. изобразится на плёнке не точкой, а пятном. Но в мире нет ничего идеального, и для плёнки с разрешающей способностью 100 лин/мм пятно диаметром, скажем, 0,01 мм неотличимо от точки. Точно так же и при рассматривании отпечатка невооружённым глазм мы не сможем различить деталей меньших 0,1-0,2 мм. Таким образом, до определённых пределов между идеально резким и немного нерезким изображением нет разницы. Выбор этих "определённых пределов" (точнее, выбор максимально допустимого диаметра пятна нерезкости) - тема для отдельного разговора. Для узкой (35-мм) плёнки обычно принимается допустимый кружок нерезкости c=0,03 мм (c - от англ. circle of confusion, "кружок рассеяния"), для среднего формата c=0,05 мм. Это не значит, что при c=0,03 мм изображение будет резким, а при c=0,031 мм - уже нерезким. Размер допустимого кружка нерезкости определён достаточно приблизительно, и величины, рассчитанные с его помощью, верны с точностью около 10%."

Страницы: 12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667

Предыдущая тема: Выбор цифрового фотоаппарата:


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.