Разное

Сравнение фотографий с разных фотоаппаратов: Тестовые фотографии с объективов Canon, Nikon, Pentax, Sony, Olympus, Sigma, Tamron, Carl Zeiss и т.д.

FAQ | Какая камера имеет лучшую цветопередачу?

09 February, 2014


01:57 pm — FAQ | Какая камера имеет лучшую цветопередачу?

Продолжаю свою несистематическую рубрику «Часто задаваемые вопросы | (FAQ)»! Традиционно, сами вопросы можно задавать в комментариях или присылать на почту: [email protected]

Этот вопрос звучит обычно в таком контексте: «А скажите, какую камеру мне купить? Ну, чтобы снимок и его качество было объективно лучше?» И далее часто звучит этот вопрос:

#30 Какая камера имеет лучшую цветопередачу?

А дальше всё обычно выливается в длинную и порой весьма утомительную беседу с жонглированием брендами, упоминанием почти всех мифов интернета, типа «Nikon зеленит, Canon краснит, Sony синит» и так далее. Сил больше нет на это всё отвечать по сто тысяч раз. Поэтому, тут будет традиционно два варианта ответа: краткий и развёрнутый.

Оба они под катом. Но для начала — небольшое уточнение. Речь дальше пойдёт об этапе сравнения камер! Только об одном эпизоде — о том, когда выбирают фотоаппарат. Итак…

Краткий вариант:

Начинающий фотограф скорее всего не заметит особенной разницы в цветопередаче. Тем более, что практически все современные фотоаппараты снимают хорошо в этом плане. И если кратко — то камеру надо выбирать не по этим критериям. При подборе техники начального уровня лучше обращать внимание на цену, размер, вес, удобство фотоаппарата, на доступность объективов и аксессуаров… Ну и на другие факторы. Но никак не на цветопередачу. Почему так — поясню ниже.

А пока — вот вам в качестве иллюстрации предыдущих слов одна и та же сцена, снятая 3 разными фотоаппаратами с настройками «по умолчанию» (в автоматическом режиме):

Разумеется, различия есть. По цветам тоже, конечно. Но они такие мизерные… И вообще, все три кадра довольно скучные и неинтересные по цветам, с ними нужно работать.

Развёрнутый вариант ответа:

Если чуть более развёрнуто, то, на мой взгляд, тут есть несколько моментов, которые нужно учитывать при обсуждении этого вопроса. И они вот какие.

А о чём, собственно, речь?
Пожалуй, это самый невинный, на первый взгляд, но при этом и самый коварный вопрос тут. О чём идёт речь, когда люди сравнивают цветопередачу двух фотоаппаратов? Вроде всё просто, но если начать разбираться с этим вопросом предметно, то тут сразу надо учитывать что:
  • Когда заходит речь о сопоставлении, то первое что нужно сделать — это чётко задать условия, при которых будет идти сравнение. То есть, в нашем случае, нужно определиться — а что, собственно, снимаем?.. Портреты в студии?.. Репортаж на улице?.. Спорт? Жанр? Пейзаж? А то получается, что одни спрашивают про то, насколько камера даст интересные цвета для портрета, а другие спрашивают насколько хорош фотоаппарат в пейзажной фотографии.
    Что далеко не всегда равноценно, как сами понимаете. При этом, люди спрашивают не произнося свой вопрос вслух. Пусть отвечающий сам прочитает их мысли и догадается, да?
  • Сравнивать можно только JPEG-и, которые делают камеры. В принципе, конечно, можно сравнить и RAW-ы, но там многое будет зависеть от выбранного RAW-конвертера и его настроек. Да и тема эта не совсем для начинающих, положа руку на сердце. Уж не говоря о том, что в таком случае будет идти оценка работы цветокорректора и программы RAW-конвертации. Ни то, ни другое к фотокамере отношения не имеют.
  • В свою очередь, JPEG-и, которые делают фотоаппараты, сильно зависят от настроек, применённых в самих камерах. Снимки, сделанные одним и тем же аппаратом в одном месте и в одно и то же время, будут отличаться из-за выбранных сюжетных профилей типа «пейзаж», «портрет», «спорт» и так далее. Так же, картинки будут меняться от установок от баланса белого, от настроек ISO, от регулировки контраста, насыщенности и других параметров, которые сейчас есть в большом количестве практически во всех фотоаппаратах.
    Так, и в каком режиме снимать будем?
  • Далее, если даже рассматривать JPEG-и нескольких фотоаппаратов, допустим, с настройками «по умолчанию», то что, по сути, мы будем сравнивать? Работу встроенного программного обеспечения, на неких усреднённых параметрах, описанных неизвестными японскими программистами. Которые, кстати, часто сильно далеки от вопросов эстетики цветов, увы. Да-да, программируют софт для камер сейчас инженеры, их видение вопроса цветопередачи скорее базируется на технических взглядах, на некоей «средней температуре по больнице». Красный, например, достаточно насыщенный красный? Не выбивается, не отсекается? Не блёклый? Ну и хорошо. Красиво ли всё это выглядит или не очень — пусть у фотографов голова болит.
  • Хорошо, даже если отбросить или проигнорировать все предыдущие пункты, то как сравнивать-то будем? Какие критерии?
    «Какой фотоаппарат честнее цвета показывает?»
    М-м-м… Погодите! Но какой с этого толк?!.. Павел Косенко вот тут хорошо написал про честность в фотографии. По большому счёту она никому особенно не нужна, потому что людей интересует авторская интерпретация, направленная на передачу эмоций и ощущений от кадра. Тут уже не естественные цвета идут в ход, а нужные для решения конекретной задачи. Так что сравнивать можно только «входные точки», ибо всё равно цвет нужно допиливать для получения необходимого результата. Ну, а смысл тогда?..

  • Не утомились? Желание сравнить цветопередачу фотоаппаратов не пропало ещё? Тогда идём дальше.

    Так, что же это получается?
    Давайте резюмировать. Сравнение цветопередачи двух камер это, по сути, заочная битва двух якодзунов — мы должны оценить вот что: программисты какой фирмы сделали наиболее подходящую заготовку для дальнейшего допиливания её под наши задачи? Ибо пока ни одна фирма не работает всерьёз над интересными и гармоничными сочетаниями цветов. Кроме, да-да, не смейтесь — FUJIFILM. Да и там тоже как-то не особенно спешат развивать эту тему, как мне видится.
    Ну, а если так, то не всё ли равно тогда какой фотоаппарат синит, а какой краснит? В любом случае кадр надо доводить до ума, он, как правило, «по умолчанию» уныл чуть более чем полностью.

    Разумеется, заготовки тоже разные бывают. Некоторые достаточно лишь ошкурить «нулёвочкой» и всё готово. А с другими нужно брать рашпиль и долго-долго вдумчиво точить. Но тут опять же встаёт вопрос — а что, собственно, нужно выточить-то? Одно дело — швейную иглу, другое дело — болт на 42. Снова упираемся в субъективизм…


    Ну и чо?
    Мой любимый вопрос. =: ) В принципе, как всегда — ничо. На мой взгляд, выбирать фотоаппарат нужно не смотря на его цветопередачу. Ибо всё то, что камера делает «по умолчанию» — это заготовка. Дотачивать её можно настройками фотоаппарата (что получается сделать быстро, но грубо) или RAW-конвертацией и последующей обработкой (что тонко и аккуратно, но затратно по времени). В любом случае — цвета, выдаваемые фотокамерами «по умолчанию» часто весьма далеки от приятных глазу.
    И сравнивать JPEG-и «по умолчанию» — какое-то бестолковое занятие. Лучше пивка выпить, что ли, и о женщинах поболтать. И то более продуктивное занятие.

    Ну, то есть, если вам хочется, конечно, то взглянуть на цвета можно. Но это будут цвета JPEG-ов, которые являются «авторским видением» далёких от творчества японских программистов и инженеров. Ну, это примерно как выбирать краски, ориентируясь на то, какие картинки рисуют ими довольно посредственные в творческом плане химики и технологи, производящие эти краски на своём заводе.

    Я пытался эту мысль донести ранее: FAQ | Про инструментальные тесты фотоаппаратов. Но, видимо, придётся всё же писать большой пост-инструкцию по пошаговому выбору фотоаппарата. =: )


    А тут в качестве иллюстрации вполне очевидные отличия того, что делает камера в JPEG, от того, что можно получить из RAW в Lr нажав всего лишь одну кнопку Auto:

    Забавно тут то, что это всё последствия войны кита против слона — цифры против плёнки. Победить-то плёнку удалось, но какой ценой? Хе-хе. Впрочем, профессионалы и творческие люди тут совершенно не проиграли — они как раньше дотачивали свои картинки до нужных цветов-контрастов, так и сейчас это делают. А вот любителям приходится несладко… Впрочем, это уже несколько иная история.

    Tags: faq, photographic, test_photos, tutorial


    From:
    klimets
    Date:February 9th, 2014 10:07 am (UTC)
    (Link)

    RAW и только RAW и чуточку свободного времени 🙂

    (Reply) (Thread)

    From:belyaefff
    Date:February 9th, 2014 11:24 am (UTC)
    (Link)

    И много-много места на жёстком диске компьютера.

    (Reply) (Parent) (Thread) (Expand)

    From:dmitry_novak
    Date:February 9th, 2014 10:23 am (UTC)
    (Link)


    Цветоразделение на матрице — важная штука. Если у камеры ущербный метамеризм, то простейшие цвета она конечно передаст как надо, особенно с норм. профилем, а любые сложные условия поставят ее на коленки. Банальный и упрямый факт, что например при люминесцентных лампах мой е-м5 скинтон в раве отработал ощутимо лучше, чем второй пятак кэнона. Когда я купил олимпус, это все почувствовали и озвучили.
    А при дотачивании сложными коррекциями в ФШ теряется качество и пластика картинки.

    (Reply) (Thread)

    From:
    podakuni
    Date:February 9th, 2014 10:28 am (UTC)
    (Link)

    Я вот сейчас обрабатываю RAW-ы с E-M1 — вот где ужас, летящий на крыльях ночи! Особенно в зелёном канале. Но для большинства людей — травка и травка, чё такого? =: )

    (Reply) (Parent) (Thread) (Expand)

    From:lesnoybrodyaga
    Date:February 9th, 2014 10:23 am (UTC)
    (Link)

    Кроме, да-да, не смейтесь — FUJIFILM.

    Не смейтесь. Ради этого предложения весь пост и задуман. 😀
    Чтобы в глаза бросалось не столь явно, следующей идёт небольшая дымовая завеса: Да и там тоже как-то не особенно спешат развивать эту тему, как мне видится. ))))

    Впрочем, критерий, по которому можно выбирать камеры, имхо, высказан: Некоторые достаточно лишь ошкурить «нулёвочкой» и всё готово. А с другими нужно брать рашпиль и долго-долго вдумчиво точить.

    (Reply) (Thread)

    From:podakuni
    Date:February 9th, 2014 10:26 am (UTC)
    (Link)

    Везде наши люди видят рекламу, патологическая юоязнь, что их обманут. =: )

    Про критерий — всё, в принципе верно. Но проблема в том, что для разных жанров точить надо часто в разную сторону. Поэтому только «нулёвочкой» ну нигде не обойтись! =: )

    (Reply) (Parent) (Thread) (Expand)

    From:dr_bp
    Date:February 9th, 2014 10:24 am (UTC)
    (Link)

    У меня, ещё с плёночных времён, была необходимость снимать вместе с объектом цветовую шкалу. Их у меня было даже для микросъёмки. Сейчас есть чудные X-Rite’овские шкалы, есть «Макбет» даже старая кодаковская 13-я мишень. Всё это сводит разговоры о том «какая цветопередача лучше» к бессмысленности. Это в технической и научной фотографии. Ну и предметной. А в художественной, я вообще не понимаю, о какой цветопередаче речь? Какая нужно — такую и накрутим!
    Резюме — беседы о цветовой дифференциации штанов фотокамер (лучшей цветопередаче) — разговоры в пользу ленивых. Кому ехать, на шашечки не смотрит.

    (Reply) (Thread)

    From:rezanoe_gorlo
    Date:February 9th, 2014 10:39 am (UTC)
    (Link)

    я всем любителям советую выбирать в первую очередь лучшие по ИСО. Единственный критерий, недостаток которого трудней всего компенсировать обработкой.

    (Reply) (Thread)

    (Deleted comment)

    From:podakuni
    Date:February 9th, 2014 11:23 am (UTC)
    (Link)

    Давай я тебе покажу это на пальцах в следующий раз в «Долькабаре»? =: )

    (Reply) (Parent) (Thread)

    (Deleted comment)

    From:hackjvc
    Date:February 9th, 2014 11:45 am (UTC)
    (Link)

    Ненавижу фотошоп!

    (Reply) (Thread)

    From:arsdesign
    Date:February 9th, 2014 11:46 am (UTC)

    color pasport

    (Link)

    Антон, я вот возможно незаметил… а вы пробовали делать свой профиль для АЦР с помощью цветной карты X-Rite ColorChecker Passport и подобных? Конечно это уже из разряда: заморочка и гемор;)Но результат того стоит, особено если по умолчанию ваш конвертер лайтрум/фотошоп. Я как-то сделал для 4-х камер и очень доволен, адоб и рядом не стоит, в очень редких случаях адобовцы выигрывают. Правда, сразу делал для разных условий освещения (3-5 профилей: тень, солнце, смесь солнце/тень, студия, закат и т.д.), чтобы цвета максимально без крутилок соответствовали реальности.

    Edited at 2014-02-09 11:46 am (UTC)

    (Reply) (Thread)

    From:podakuni
    Date:February 9th, 2014 11:48 am (UTC)
    (Link)

    Вот тут очень важный момент: «чтобы цвета максимально без крутилок соответствовали реальности» Надо будет написать про это отдельно. =: ) Если кратко — то это принципиально не нужно. =: )

    (Reply) (Parent) (Thread) (Expand)

    (Deleted comment)

    (Deleted comment)

    From:hackjvc
    Date:February 9th, 2014 11:50 am (UTC)
    (Link)

    А какой вы используете монитор для просмотра фот?
    Это самая первая засада. Непросто найти моник с нормальной цветопередачей.

    (Reply) (Thread)

    From:podakuni
    Date:February 9th, 2014 11:55 am (UTC)
    (Link)

    У меня Apple Cinema 30″ (калиброванный, разумеется).

    (Reply) (Parent) (Thread) (Expand)

    From:hackjvc
    Date:February 9th, 2014 11:57 am (UTC)
    (Link)

    Постящий советует FUJIFILM, в комментах налегают на Олимпус. Если это не одно и тоже.
    Вот ведь:
    «Fujifilm, Olympus and Panasonic are doomed, according to Credit Suisse analyst»

    (Reply) (Thread)

    From:podakuni
    Date:February 9th, 2014 12:15 pm (UTC)
    (Link)

    Я ничего не советую. С чего вы такой вывод сделали? =: )

    (Reply) (Parent) (Thread) (Expand)

    From:misha_jagger
    Date:February 9th, 2014 12:12 pm (UTC)
    (Link)

    Несмотря на абсурдность вопроса про цветопередачу, ответ существует. Это Sigma с матрицами Foveon )

    (Reply) (Thread)

    From:podakuni
    Date:February 9th, 2014 12:15 pm (UTC)
    (Link)

    Ох, ну нет. Тоже тема для отдельного разговора, но это, по ходу, тупиковая ветвь.

    (Reply) (Parent) (Thread) (Expand)

    From:haramu_kenig
    Date:February 9th, 2014 12:16 pm (UTC)
    (Link)

    Хм, для меня вопрос цветопередачи камер заключается в том — насколько нудно и долго потом придется «точить» заготовки, особенно это касается цвета кожи в портретах.

    (Reply) (Thread)

    From:podakuni
    Date:February 9th, 2014 12:19 pm (UTC)
    (Link)

    Вооот. Уже ближе. Вы заговорили про портреты — и тут уже можно вести разговор. Но остаётся ещё куча нюансов: свет (искусственный, естественный), условия съёмки, предпочтения людей (азиаты, европейцы, негры) и так далее, и тому подобное. =: )

    (Reply) (Parent) (Thread) (Expand)

    From:live13
    Date:February 9th, 2014 12:24 pm (UTC)
    (Link)

    Весело конечно написано. Но ведь в реальности цвета действительно зависят скажем на одну треть от матрицы и интерпретации считываемых с нее (даже в RAW) данных. Гораздо больше влияния на цвет, контрастность и другие характеристики картинки оказывает объектив. Особенно когда пытаешься потом что либо с этой картинкой сделать. Так что если сравнивать линейки камер от разных производителей с фирменной оптикой — то разница естественно будет.
    А еще интереснее становится если сравнивать камеры с неродными или старыми стеками. Потому что каждый производитель камер настраивает их таким образом чтобы они наилучшим образом работали с фирменной же оптикой. И что случится с картинкой, снятой на неродную оптику — каждый раз сюрприз.
    И дело тут не в «правильности» цветов, а в том насколько для ваших нужд такая цветопередача подходит.
    А специально для новичков хочу добавить — не заморачивайтесь всем этим. Скорее всего когда вы купите свой первый фотоаппарат, вы несколько первых лет будете считать и убеждать других что именно его цвета являются самыми правильными. Это нормально. Потом это пройдет и вы тоже будете спокойнее относиться ко всяким холиварам и наконец поймете в чем таки заклчючается разница в цветопередаче и нужно ли вам вообще что либо предпринимать по этому поводу.

    (Reply) (Thread)

    From:grivd
    Date:February 9th, 2014 01:16 pm (UTC)
    (Link)

    оооо, старые добрые споры о цвете 🙂

    Есть разница, есть: сам долго был сторонником «разницы нет, снимайте в raw, все у всех ок».
    Антон, прямой вопрос: тип матрицы (как минимум) влияет на цвет картинки? 🙂

    Про свой опыт скажу: с nikon d300 приходилось править цвет в 9 из 10 случаев. С fuji s5 pro — наоборот.
    Вот бы сделали никон д300 с матрицей от фуджии с5 — тут же купил бы 🙂

    (Reply) (Thread)

    From:podakuni
    Date:February 9th, 2014 01:20 pm (UTC)
    (Link)

    Тип матрицы воияет на цвет, но гораздо в меньшей степени, нежели работа невидимых ниндзя из отдела софта в японских фирмах. =: )

    (Reply) (Parent) (Thread) (Expand)

    From:timon_timonich
    Date:February 9th, 2014 01:23 pm (UTC)
    (Link)

    Спасибо еще за одну ссылку куда я буду отправлять народ, который меня мучает подобными вопросами 🙂

    (Reply) (Thread)

    Объясните, в чём принципиальная разница фотографий, сделанных на телефон и на профессиональную камеру?

    Елена!

    График продаж смартфонов, «мыльниц», зеркалок и беззеркалок, 1933⁠—2016.
    Если коротко — смартфоны победили «мыльницы», а зеркалки и беззеркалки уверенно держат свою нишу

    Камеры телефонов действительно проделали огромный путь от полумегапиксельных недоразумений до полноценных конкурентов «мыльниц», практически полностью вытеснив их с рынка. А за последние 8 лет активно лезут на территорию зеркалок и беззеркалок по качеству фотографий и возможностям съёмки.

    График продаж смартфонов, «мыльниц», зеркалок и беззеркалок, 1933⁠—2016.
    Если коротко — смартфоны победили «мыльницы», а зеркалки и беззеркалки уверенно держат свою нишу

    Однако, профессиональные камеры тоже не стояли на месте и развивались, хоть и не такими ощутимыми скачками. Зеркальный фотоаппарат пятилетней давности с неплохим объективом пока ещё в силах одолеть самую топовую телефонную камеру 2020 года.

    Безусловно, крутые фотографы сделают крутые фото хоть на коробку из под обуви. Например, Эпл для демонстрации крутости камер Айфонов зовёт именитых фотографов, которые делают фантастические снимки:

    Сентябрьская конференция Эпла, 2021

    Несмотря на это, есть главная причина, из‑за которой фотографы выбирают профессиональные камеры. Всё дело в размере сенсора (матрицы): на телефонах он маленький, а в зеркалках — большой.

    Наглядное сравнение размеров сенсоров — от среднеформатного до мобильного. Блог Генри

    Каждый сенсор состоит из маленьких светочувствительных ячеек. Чем больше сенсор, тем больше ячеек помещается на нём и тем крупнее сами ячейки. Большой сенсор зеркалок захватывает больше света и деталей, в отличие от маленького телефонного.

    Ради компактности в телефоны ставят маленькие сенсоры с маленькими ячейками. Недостаток света и детализации приходится компенсировать сложной системой стабилизации и продвинутыми алгоритмами. Это приводит к тому, что на фото возникают сильные шумы, алгоритмы давят эти шумы и додумывают изображение. В результате телефонная фотография сильно теряет в детализации, текстурах, цвете и контрасте.

    Полный кадр (англ. full frame) — сенсор 36×24 мм, соответствует размерам стандартного плёночного кадра 35 мм

    Зеркалки не особо ограниченны в размерах сенсора. Большинство задач профессиональных фотографов покрывают полнокадровые сенсоры. При желании производители могут поставить в камеру огромную матрицу как в Хасселбладе. Именно из‑за размеров сенсора на зеркалку можно снимать в гораздо более сложных условиях и получать технически более качественные снимки, с высокой детализацией и глубиной цвета.

    Полный кадр (англ. full frame) — сенсор 36×24 мм, соответствует размерам стандартного плёночного кадра 35 мм

    Чтобы не быть голословным, покажу несколько примеров, сравнив фотографии, сделанные на полупрофессиональную зеркалку Никон Д7000 и Айфон 12 Про в одинаковых условиях:

    Никон Д7000, f4, 1/200 с, фокусное расстояние 17 мм, 3264×4928

    Айфон 12 Про, f1,6, 1/121 с, основная камера, 3024×4032

    На первый взгляд, фотография с Айфона сочнее и детальнее, но при этом стала плоской и хуже по цветовому диапазону и балансу белого. Давайте сильно приблизимся и взглянем на детали:

    Даже несмотря на зум, фотография с зеркалки похожа на фотографию: машины хоть и потеряли в резкости, но детали различимы и цвета естественные. Фотография с телефона стала похожа на масляную картину: смешались полутона, пропала текстура, усилился микроконтраст — объекты стали мозаичными.

    Предыдущее фото я снял на основную широкоугольную камеру Айфона. Но фотографы часто используют портретные объективы — для съёмки людей, предметов или обычного зума в пейзаже. Сравним изображения на портретные объективы — как они справляются с деталями, цветом и текстурой:

    Никон Д7000, f4, 1/100 с, 50 мм, 4928×3264

    Айфон 12 Про, f2, 1/60 с, портретная камера, 4032×3024

    Разница стала заметнее: портретная камера телефона хуже передаёт текстуру — мелкие детали слипаются, а из‑за сильного равномерного микроконтраста пропадает глубина и тональная перспектива. Если приблизить, изображение с телефона превращается в фарш:

    Наконец, давайте посмотрим, как на зеркалку и телефон получится близкая съёмка объектов при обычном комнатном освещении:

    Никон Д7000, f4, 1/100 с, 50 мм, 4928×3264

    Айфон 12 Про, f2, 1/60 с, основная камера, 4032×3024

    Фотография с телефона явно контрастнее и как‑будто резче и чётче. Но какая фотография более приятна глазу по ощущениям?

    Хочется верить, что однажды телефоны полноценно заменят тяжеловесные полнокадровые зеркалки и беззеркалки, но пока телефоны им не конкуренты :‑)

    Для более полного погружения в тему советую почитать статью, в которой автор очень подробно и в деталях исследует вопрос «Телефон против зеркалки»:

    • Smartphones vs Cameras: Closing the gap on image quality

    P. S. Это был субботний совет о фотосъёмке. Присылайте вопросы и подписывайтесь на книгу «Фотосъёмка автомобилей»

    Фотосъёмка

    Отправить

    Поделиться

    Поделиться

    Запинить

    Твитнуть

    Свежак

    Можете ли вы найти разницу между этими фотографиями, снятыми тремя совершенно разными камерами? (ВИДЕО)

    ВОЙТИ | ПРИСОЕДИНЯЙТЕСЬ

    Форма поиска

    Поиск

    Можете ли вы найти разницу между этими фотографиями, снятыми тремя совершенно разными камерами? (ВИДЕО)

    Рон Лич | 12 октября 2017 г.

    Трудно представить себе три цифровые камеры, более отличающиеся друг от друга, чем Canon EOS M5, Fujifilm GFX 50S и Canon EOS 5D Mark IV. Первая — это доступная компактная беззеркальная камера, вторая — беззеркальная модель среднего формата с разрешением 50 МП, а третья — большая и мощная профессиональная зеркальная камера.

    В несоответствующем и чрезвычайно интересном видео ниже вы увидите результаты реального сравнения этих трех камер, которые были разработаны для очень разных пользователей и целей. Идея состоит в том, чтобы увидеть, как изображения складываются бок о бок на экране компьютера, именно так просматривается подавляющее большинство фотографий.

    Томас Хитон — широко известный фотограф-пейзажист, так что это не одна из тех перестрелок, сделанных в домашней студии, а скорее внимательное рассмотрение изображения, которое он снял каждой камерой в полевых условиях. Итак, вот что мы хотим, чтобы вы сделали: перед просмотром видео взгляните на три фотографии выше и запишите, какое изображение, по вашему мнению, было сделано какой камерой.

    Сделав свой выбор, посмотрите видео, выслушайте оценку Хитона и проверьте, правильно ли вы угадали. Это упражнение явно было бы более значимым, если бы изображения были крупнее или вы просматривали отпечатки с высоким разрешением, но настоящая точка зрения Хитона заключается в том, что для создания отличных фотографий требуется гораздо больше, чем оборудование в вашей сумке.

    Другие видео Хитона можно найти на его канале YouTube. И обязательно посмотрите еще одну перестрелку между полнокадровыми и кроп-камерами, которую мы опубликовали.

    ВИДЕО

    Сегодняшнее фото — «Братская любовь», Брюс Тернбулл0025 1 Click Lightroom Trick для получения лучших портретных фото (ВИДЕО)

  • 15 ПОТРЯСАЮЩИХ советов и рекомендаций по работе с камерой iPhone (ВИДЕО)
  • Электронный затвор по первой шторке: зачем, когда и как его использовать (ВИДЕО)
  • Ваши фотографии МЯГКИЕ? Объяснение «плоскости фокуса» (ВИДЕО)
  • сравнивать изображения с разных камер — рискованно? — Опытный фотограф Deep Sky

    #1 Шираз

    Опубликовано 29 апреля 2017 г. — 02:34 — затем проведите параллельную оценку.

     

    предполагается, что процесс повторной выборки просто перестраивает сигнал и шум с одной камеры, чтобы можно было напрямую сравнивать изображения с двух камер (одну исходную и одну передискретизированную). не верное предположение.

     

    Ключевой бит — это то, что делают алгоритмы передискретизации? Быстро протестировал некоторые алгоритмы в PI, взяв одно входное изображение и передискретизировав его в 0,5 раза с использованием каждого из 6 алгоритмов. Результаты показаны на прилагаемом составном изображении (применено увеличенное 2x-STF растяжение) вместе с числами, представляющими измеренный шум в каждом передискретизированном линейном изображении. Алгоритмы, очевидно, производят сильно различающиеся уровни шума, а также очевидные различия в разрешении — все из одного и того же исходного изображения.

     

    Это может стать настоящей проблемой при сравнении камер с разными размерами пикселей. например. Если бы мы использовали кубический B-сплайн для передискретизации одного из тестовых пар изображений, мы могли бы сделать вывод по очень гладкому передискретизированному изображению, что рассматриваемая камера имеет очень низкий уровень шума. Но если бы мы использовали Lanczos-3, мы могли бы сделать вывод из шумного передискретизированного изображения, что камера была очень шумной — одна и та же камера могла быть видна в совершенно другом свете, в зависимости от того, какой алгоритм использовался для передискретизации ее изображения.

     

    Конечно же, должен быть метод передискретизации, который делает это «правильно»! Я не знаю — даже не уверен, как определить, что означает «правильно». Существующие алгоритмы, кажется, делают все возможное, чтобы оценить/угадать, как должно выглядеть изображение в новом масштабе и при некоторых предварительных ограничениях на то, что » «правильно». Некоторые из них, кажется, также делают изображения приятными, но в их действиях нет особой последовательности.

     

    повторная выборка изображения с одной камеры в том же масштабе, что и изображение с другой, с последующим сравнением полученных изображений один к одному даст почти бессмысленные результаты.Было бы здорово, если бы другие могли попытаться повторить тесты или прокомментировать Представленные идеи — я еще мало знаю о передискретизации С уважением, Рэй

     

    Отредактировал Шираз, 29 апреля 2017 г. — 16:55.

    • Наверх

    #2 Freestar8n

    Размещено 29 апреля 2017 г. — 03:48

    С точки зрения общепринятой научной практики группирование и агрегирование — это прекрасно и четко определено, но любая интерполяция запрещена, потому что она направлена ​​на выявление измерений, которые в действительности никогда не проводились. Когда вы бин, вы говорите, что это значение является суммой измерений под ним — и это правда. Когда вы интерполируете, вы говорите: «Я посмотрел на значения вокруг этого места и думаю, что это то, что является основным значением», и это предположение.

    Таким образом, при сравнении камер вы можете разделить один маленький пиксель на один большой — и это нормально. Но не следует сглаживать результат или интерполировать его.

    И не стоит брать большой пиксель и интерполировать его до мелкопиксельного.

    Так что я бы не стал делать никаких манипуляций с пикселями, кроме биннинга.

    Если вы разрешаете любые манипуляции, то данные вам вообще не нужны. Художник мог просто нарисовать сцену. Это может показаться чрезмерным, но есть четкие утверждения, которые можно сделать, имея дело только с *изображениями*, которые представляют собой точно снятые и откалиброванные измерения неба. Можно также применить глобальное нелинейное преобразование к результату, если оно выполняется одинаковым образом для всех изображений.

    Фрэнк

    • Наверх

    #3 Шираз

    Опубликовано 29 апреля 2017 г. — 06:23

    спасибо Фрэнк.

     

    в значительной степени пришли к выводу, что биннинг является единственным надежным методом повторной выборки — спасибо за подтверждение. Исходя из этого, кажется, что идея о том, что не существует прямого визуального способа сравнения датчиков с разными размерами пикселей, верна — передискретизация одного изображения с последующим сравнением один к одному не будет надежной, если нет целочисленного коэффициента масштабирования и возможен биннинг. повторная выборка, безусловно, не дает ничего похожего на биннинг при дробных коэффициентах масштабирования.

     

    Другим местом, где мы используем эти алгоритмы интерполяции, является выравнивание/стек. Мы начали несколько тестов, чтобы увидеть, какое влияние выбор алгоритма оказывает на эту арену.

     

    Я был немного поражен тем, насколько по-разному работают алгоритмы на типичном астроизображении.

     

    Рэй

    Отредактировал Шираз, 29 апреля 2017 г. — 17:26.

    • Наверх

    #4 Джон Риста

    Размещено 29 апреля 2017 г. — 10:02

    Несколько хороших замечаний, Рэй. Я должен подумать о том, как я это сделаю. Обычно я использую «авто» выборку PI… честно говоря, не уверен, что это такое.

     

    Интересно, сможем ли мы аппроксимировать бинирование, используя пиксельную математику, чтобы выполнить масштабирование таким образом, чтобы максимально точно имитировать бинирование. Просто усредните матрицы 2×2 или 3×3 пикселей вместе и не выполняйте какую-либо пространственную фильтрацию или повышение резкости, чтобы все оставалось как можно более «яблоками к яблокам». По своей сути биннинг просто суммирует значения каждого пикселя вместе… Я не думаю, что мы могли бы просто сделать это с PM, так как это, скорее всего, вырезало бы… но усреднение затем просто делит сумму на количество, которое по-прежнему не требует какой-либо фильтрации / повышения резкости, как это делает алгоритм выборки.


    • Наверх

    #5 jhayes_tucson

    Опубликовано 29 апреля 2017 г. — 10:56

    Это должно было случиться! Я согласен на 100% с Фрэнком.

     

    Джон


    • Наверх

    #6 Шираз

    Размещено 29 апреля 2017 г. — 17:25

    Несколько хороших замечаний, Рэй. Я должен подумать о том, как я это сделаю. Обычно я использую «авто» выборку PI… честно говоря, не уверен, что это такое.

     

    Интересно, сможем ли мы аппроксимировать бинирование, используя пиксельную математику, чтобы выполнить масштабирование таким образом, чтобы максимально точно имитировать бинирование. Просто усредните матрицы 2×2 или 3×3 пикселей вместе и не выполняйте какую-либо пространственную фильтрацию или повышение резкости, чтобы все оставалось как можно более «яблоками к яблокам». По своей сути биннинг просто суммирует значения каждого пикселя вместе… Я не думаю, что мы могли бы просто сделать это с PM, так как это, скорее всего, вырезало бы… но усреднение затем просто делит сумму на количество, которое по-прежнему не требует какой-либо фильтрации / повышения резкости, как это делает алгоритм выборки.

    очень интересно посмотреть, что вы можете придумать с Джоном — похоже, нам определенно нужно что-то более надежное, чем существующие инструменты передискретизации изображения, если мы хотим сравнить камеры с пикселями разного размера.

     

    Рэй

    Отредактировал Шираз, 29 апреля 2017 г. — 17:48.

    • Наверх

    #7 Джон Риста

    Размещено 29 апреля 2017 г. — 19:00

     

    Несколько хороших замечаний, Рэй. Я должен подумать о том, как я это сделаю. Обычно я использую «авто» выборку PI… честно говоря, не уверен, что это такое.

     

    Интересно, сможем ли мы аппроксимировать бинирование, используя пиксельную математику, чтобы выполнить масштабирование таким образом, чтобы максимально точно имитировать бинирование. Просто усредните матрицы 2×2 или 3×3 пикселей вместе и не выполняйте какую-либо пространственную фильтрацию или повышение резкости, чтобы все оставалось как можно более «яблоками к яблокам». По своей сути биннинг просто суммирует значения каждого пикселя вместе… Я не думаю, что мы могли бы просто сделать это с PM, так как это, скорее всего, вырезало бы… но усреднение затем просто делит сумму на количество, которое по-прежнему не требует какой-либо фильтрации / повышения резкости, как это делает алгоритм выборки.

    очень интересно посмотреть, что вы можете придумать с Джоном — похоже, нам определенно нужно что-то более надежное, чем существующие инструменты передискретизации изображения, если мы хотим сравнить камеры с пикселями разного размера.

     

    Рэй

     

    Я не знаю, если/когда я доберусь до этого. Сегодня меня завалило футом снега, и я должен работать все выходные.

     

    Я немного подумал об этом, и вот некоторые из моих мыслей.

     

    Я думаю, это также зависит от того, как вы планируете обрабатывать данные, является ли субдискретизация «несправедливой» или нет. Подумайте, если ваша цель с современной CMOS-камерой состоит в том, чтобы собрать, но объединение не вариант. Единственный вариант, который у вас есть, это понизить дискретизацию. Теперь, действительно ли «несправедливо» понижать дискретизацию, используя, скажем, Mit-Net, чтобы получить хорошие результаты, и сравнивать их с другой камерой без бинов, если вы на самом деле собираетесь делать субдискретизацию с помощью Mit-Net?

     

    Если мне не удается получить достаточное время безоблачного неба, я обычно уменьшаю разрешение изображений ASI1600. До размера 75% или 50%, в зависимости от того, сколько данных я получил. Я обычно использую автоматический режим PI… но это то, что я делаю. Однако, если я сравнил свое изображение с другим изображением, полученным, скажем, с помощью KAF-8300 в масштабе 1×1, что примерно соответствует моему 75-процентному изображению… действительно ли это некорректное сравнение? Похоже, что драйвер ASCOM для моей камеры на самом деле не предоставляет параметры объединения. Я думал, что это так, но на самом деле я получаю параметры бининга в SharpCap только с родным драйвером. Я не знаю, что SGP делает для бинирования, но похоже, что он использует аппаратное обеспечение, которое снижает разрядность до 10. Так что, если я хочу бинировать, мой единственный реальный вариант — понизить дискретизацию.

     

    Это то, что я делаю… это то, что я на самом деле делаю в реальном мире с моими фактическими данными, если мне не удалось собрать достаточно данных и я хочу что-то представить (обычно промежуточную версию) . Итак, я не думаю, что понятие «справедливого» сравнения — это просто простая вещь. Я понимаю цели сохранения «истинности» и «чистоты»… но «реальность» также является фактором. У наших CMOS-изображений нет аппаратного биннинга. У нас высокий коэффициент усиления, низкий уровень шума и даунсемплинг.

    Отредактировал Джон Риста, 29 апреля 2017 г. – 19:02.

    • Наверх

    #8 Шираз

    Размещено 30 апреля 2017 г. — 00:38

    Конечно, дело не в справедливости, Джон, а в общей полезности для тех, кто не делает то же, что и ты.

     

    Я был обеспокоен тем, как данные о возможностях различных камер в настоящее время представляются в визуальной форме для тех людей, которые (вполне разумно) не интересуются шумом чтения, КС, теорией обнаружения и т. д. Самый распространенный способ показать Относительное достоинство двух камер заключается в представлении изображений с обеих камер в форме, в которой параллельное сравнение (надеюсь) дает что-то достоверное о базовой сенсорной технологии. Ранее в ветке было показано, что обычные методы передискретизации не позволяют этого сделать, если размеры пикселей различаются — передискретизация будет отдавать предпочтение той или иной камере в зависимости от алгоритма.

     

    Однако только что нашел алгоритм, который, похоже, отвечает всем требованиям нейтральной к шуму передискретизации. В Nebulosity это называется «Коробка», и хотя объяснение не так уж ясно, подозреваю, что это может быть алгоритм суперсэмплирования https://software.int…es/topic/310600

     

    1. Разделить прямоугольную ROI исходного изображения (или все изображение, если нет ROI) на равные прямоугольники, каждый прямоугольник соответствует некоторому пикселю в целевом изображении. Обратите внимание, что каждый исходный пиксель представлен квадратом 1×1.

    2. Вычислить взвешенную сумму значений исходных пикселей для всех пикселей, которые содержатся в прямоугольнике или имеют ненулевое пересечение с прямоугольником. Если исходный пиксель полностью содержится в прямоугольнике, значение этого пикселя берется с весом 1. Если прямоугольник и квадрат исходного пикселя имеют площадь пересечения a < 1, значение этого пикселя берется с весом a. Для каждого исходного пикселя, пересекающегося с прямоугольником, на рис. B-3 показано соответствующее значение веса.

    3. Чтобы вычислить значение пикселя в целевом изображении, разделите эту взвешенную сумму на отношение площадей исходного и целевого прямоугольников. передискретизация основана на целых числах, алгоритм идентичен программному биннингу (т.е. он работает предсказуемо).

    — для масштабирования между шагами биннинга (например, 0,64 x 0,64) создается дисперсия шума, которая зависит от эффективной площади пикселя (что кажется разумным).

     

    Я не думаю, что он будет идеальным в других отношениях (потеря разрешения, алиасинг и т. д.), но он выглядит приемлемым для единственной задачи уменьшения изображения на произвольную величину, чтобы обеспечить надежное визуальное сравнение SNR. между изображениями с камер с разным размером пикселей. К сожалению, в PI нет реализации этого алгоритма — Nebulosity — единственный пакет, который у меня есть, который включает его.

     

    еще раз, буду признательна за любые комментарии — опыта в этой области не много.

     

    Рэй

    Отредактировал Shiraz, 30 апреля 2017 г., 01:30.

    • Наверх

    #9 Джон Риста

    Опубликовано 30 апреля 2017 г. — 00:46

    Должна быть возможность написать сценарий для PI для такого масштабирования. Кстати, предоставленная ссылка не работает. Получил 404.


    • Наверх

    #10 Шираз

    Опубликовано 30 апреля 2017 г. — 00:51

    Ой, у меня тоже ссылка не работала — удалил, пока не найду. редактировать: надеюсь исправлено.

    Отредактировано Shiraz, 30 апреля 2017 г., 00:58.

    • Наверх

    #11 Freestar8n

    Опубликовано 30 апреля 2017 г. — 01:52

    Боюсь, что я работал с подобными вещами, и, как обычно, есть сюрпризы.

    Два эксперимента, которые я рекомендую:

    1) Возьмите любое немного зашумленное изображение и передискретизируйте его, сдвинув его на 1/2 пикселя вверх и вправо, но передискретизируйте его до того же размера в пикселях. Это то, что эффективно происходит при выравнивании и укладке. Что происходит с шумом и «SNR» изображения?

    2) Возьмите немного зашумленное изображение и передискретизируйте его, используя простой метод, описанный выше (коробка или что-то еще), но передискретизируйте его до размера, возможно, в 0,8 раза больше исходного размера пикселя. Убедитесь, что это зашумленное изображение, чтобы вы могли видеть шум. Что вы видите в результате?

    Так что я в основном рекомендую бинировать по целым числам, и если они не совпадают, вам просто нужно визуально компенсировать.

    Здесь также имеет значение угол обзора — и есть несколько категорий. Один из них — вид издалека, поэтому вы вообще не можете видеть пиксели. В этом случае программное обеспечение для просмотра — или веб-браузер, или что-то еще — выполняет для вас своего рода повторную выборку — и полезно знать, что это такое. Следующий — когда пиксели точно совпадают с экраном — но и тут зависит от dpi экрана — и 4к против 1080р. После этого пиксели становятся очень большими и видимыми — и отображаются как отдельные пиксели. Это менее двусмысленно, как равный способ сравнения двух изображений, но тогда трудно увидеть общую информацию об изображении.

    Главное, что я рекомендую, это просто бинировать и показывать в нескольких разных масштабах. И описать, что было сделано.

    Фрэнк

    • Наверх

    #12 Шираз

    Опубликовано 30 апреля 2017 г. — 02:58

    Боюсь, что я работал с подобными вещами и, как обычно, есть сюрпризы.

    Два эксперимента, которые я рекомендую:

    1) Возьмите любое несколько зашумленное изображение и передискретизируйте его, сдвинув его на 1/2 пикселя вверх и вправо, но передискретизируйте его до того же размера в пикселях. Это то, что эффективно происходит при выравнивании и укладке. Что происходит с шумом и «SNR» изображения?

    2) Возьмите несколько зашумленное изображение и передискретизируйте его, используя простой метод, описанный выше (коробка или что-то еще), но передискретизируйте его до чего-то, что имеет, возможно, 0,8-кратный размер исходного пикселя. Убедитесь, что это зашумленное изображение, чтобы вы могли видеть шум. Что вы видите в результате?

    Так что я в основном рекомендую бинировать по целым числам, и если они не совпадают точно, вам просто нужно компенсировать визуально.

    Здесь также имеет значение угол обзора — и есть несколько категорий. Один из них — вид издалека, поэтому вы вообще не можете видеть пиксели. В этом случае программное обеспечение для просмотра — или веб-браузер, или что-то еще — выполняет для вас своего рода повторную выборку — и полезно знать, что это такое. Следующий — когда пиксели точно совпадают с экраном — но и тут зависит от dpi экрана — и 4к против 1080р. После этого пиксели становятся очень большими и видимыми — и отображаются как отдельные пиксели. Это менее двусмысленно, как равный способ сравнения двух изображений, но тогда трудно увидеть общую информацию об изображении.

    Главное, что я рекомендую, это просто бинировать и показывать в нескольких разных масштабах. И описать, что было сделано.

    Фрэнк

    сделал все, что Фрэнк — наткнулся на сюрпризы.

     

    Но алгоритм Box уникален — кажется, что он не выполняет лишнего сглаживания и ведет себя так, как если бы выполнял дробное бинирование.

     

    На прилагаемом составном изображении показан переход от 100 % к 40 % с помощью алгоритма передискретизации Box. Также включено (усредненное) изображение размером 2×2. Изображения 50% box и 2×2 идентичны. В этот момент я начал немного воодушевляться потенциалом алгоритма.

     

    Изображения на дисплее увеличиваются в масштабе 2:1, а JPEG немного мешает. Измерения шума показывают точно такой же шум при bin2x2 = 50%box и bin3x3 = 33%box.

     

    Я согласен с тем, что биннинг является наиболее надежной передискретизацией, но если люди будут настаивать на оценке камер, помещая масштабированные изображения рядом друг с другом, то алгоритм блочной передискретизации будет гораздо менее обманчивым, чем что-либо другое, что они могли бы использовать.

    Рэй

     

    Отредактировано Shiraz, 30 апреля 2017 г., 06:49.

    • Наверх

    №13 Freestar8n

    Размещено 30 апреля 2017 г. — 03:20

    Привет — спасибо за это.

    Вещи, которые я ожидаю увидеть:

    1) Сдвиг изображения на один и тот же размер пикселя будет иметь эффект сглаживания, который значительно увеличит «snr», потому что внезапно информация из одного пикселя распространяется на 4. Это просто компромисс разрешения в исходном изображении с более гладким изображением с половинным разрешением в результате.

    2) При передискретизации зашумленного изображения во что-то другое, не являющееся точным кратным — будут заметные глазу периодические модуляции шума. Это эффект сглаживания, и это ожидаемо.

    Если вы не видите эти вещи с «коробкой», я посмотрю на это. Из того, что вы описали, я не думал, что это позволит избежать этих проблем, но, возможно, это так. Конечно, другие подходы к повторной выборке будут иметь эти артефакты, и они, вероятно, будут сюрпризом.

    Фрэнк

    • Наверх

    №14 Шираз

    Размещено 30 апреля 2017 г.

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *