09 February, 2014
RAW и только RAW и чуточку свободного времени 🙂 (Reply) (Thread)
И много-много места на жёстком диске компьютера. (Reply) (Parent) (Thread) (Expand)
(Reply) (Thread)
Я вот сейчас обрабатываю RAW-ы с E-M1 — вот где ужас, летящий на крыльях ночи! Особенно в зелёном канале. Но для большинства людей — травка и травка, чё такого? =: ) (Reply) (Parent) (Thread) (Expand)
Кроме, да-да, не смейтесь — FUJIFILM. Не смейтесь. Ради этого предложения весь пост и задуман. 😀 Впрочем, критерий, по которому можно выбирать камеры, имхо, высказан: Некоторые достаточно лишь ошкурить «нулёвочкой» и всё готово. А с другими нужно брать рашпиль и долго-долго вдумчиво точить. (Reply) (Thread)
Везде наши люди видят рекламу, патологическая юоязнь, что их обманут. =: ) Про критерий — всё, в принципе верно. Но проблема в том, что для разных жанров точить надо часто в разную сторону. Поэтому только «нулёвочкой» ну нигде не обойтись! =: ) (Reply) (Parent) (Thread) (Expand)
У меня, ещё с плёночных времён, была необходимость снимать вместе с объектом цветовую шкалу. Их у меня было даже для микросъёмки. Сейчас есть чудные X-Rite’овские шкалы, есть «Макбет» даже старая кодаковская 13-я мишень. Всё это сводит разговоры о том «какая цветопередача лучше» к бессмысленности. Это в технической и научной фотографии. Ну и предметной. А в художественной, я вообще не понимаю, о какой цветопередаче речь? Какая нужно — такую и накрутим! (Reply) (Thread)
я всем любителям советую выбирать в первую очередь лучшие по ИСО. Единственный критерий, недостаток которого трудней всего компенсировать обработкой. (Reply) (Thread) (Deleted comment)
Давай я тебе покажу это на пальцах в следующий раз в «Долькабаре»? =: ) (Reply) (Parent) (Thread) (Deleted comment)
Ненавижу фотошоп! (Reply) (Thread)
Антон, я вот возможно незаметил… а вы пробовали делать свой профиль для АЦР с помощью цветной карты X-Rite ColorChecker Passport и подобных? Конечно это уже из разряда: заморочка и гемор;)Но результат того стоит, особено если по умолчанию ваш конвертер лайтрум/фотошоп. Я как-то сделал для 4-х камер и очень доволен, адоб и рядом не стоит, в очень редких случаях адобовцы выигрывают. Правда, сразу делал для разных условий освещения (3-5 профилей: тень, солнце, смесь солнце/тень, студия, закат и т.д.), чтобы цвета максимально без крутилок соответствовали реальности. Edited at 2014-02-09 11:46 am (UTC) (Reply) (Thread)
Вот тут очень важный момент: «чтобы цвета максимально без крутилок соответствовали реальности» Надо будет написать про это отдельно. =: ) Если кратко — то это принципиально не нужно. =: ) (Reply) (Parent) (Thread) (Expand) (Deleted comment) (Deleted comment)
А какой вы используете монитор для просмотра фот? (Reply) (Thread)
У меня Apple Cinema 30″ (калиброванный, разумеется). (Reply) (Parent) (Thread) (Expand)
Постящий советует FUJIFILM, в комментах налегают на Олимпус. Если это не одно и тоже. (Reply) (Thread)
Я ничего не советую. С чего вы такой вывод сделали? =: ) (Reply) (Parent) (Thread) (Expand)
Несмотря на абсурдность вопроса про цветопередачу, ответ существует. Это Sigma с матрицами Foveon ) (Reply) (Thread)
Ох, ну нет. Тоже тема для отдельного разговора, но это, по ходу, тупиковая ветвь. (Reply) (Parent) (Thread) (Expand)
Хм, для меня вопрос цветопередачи камер заключается в том — насколько нудно и долго потом придется «точить» заготовки, особенно это касается цвета кожи в портретах. (Reply) (Thread)
Вооот. Уже ближе. Вы заговорили про портреты — и тут уже можно вести разговор. Но остаётся ещё куча нюансов: свет (искусственный, естественный), условия съёмки, предпочтения людей (азиаты, европейцы, негры) и так далее, и тому подобное. =: ) (Reply) (Parent) (Thread) (Expand)
Весело конечно написано. Но ведь в реальности цвета действительно зависят скажем на одну треть от матрицы и интерпретации считываемых с нее (даже в RAW) данных. Гораздо больше влияния на цвет, контрастность и другие характеристики картинки оказывает объектив. Особенно когда пытаешься потом что либо с этой картинкой сделать. Так что если сравнивать линейки камер от разных производителей с фирменной оптикой — то разница естественно будет. (Reply) (Thread)
оооо, старые добрые споры о цвете 🙂 Есть разница, есть: сам долго был сторонником «разницы нет, снимайте в raw, все у всех ок». Про свой опыт скажу: с nikon d300 приходилось править цвет в 9 из 10 случаев. С fuji s5 pro — наоборот. (Reply) (Thread)
Тип матрицы воияет на цвет, но гораздо в меньшей степени, нежели работа невидимых ниндзя из отдела софта в японских фирмах. =: ) (Reply) (Parent) (Thread) (Expand)
Спасибо еще за одну ссылку куда я буду отправлять народ, который меня мучает подобными вопросами 🙂 (Reply) (Thread) |
Объясните, в чём принципиальная разница фотографий, сделанных на телефон и на профессиональную камеру?
Елена!
График продаж смартфонов, «мыльниц», зеркалок и беззеркалок, 1933—2016.
Если коротко — смартфоны победили «мыльницы», а зеркалки и беззеркалки уверенно держат свою нишу
Камеры телефонов действительно проделали огромный путь от полумегапиксельных недоразумений до полноценных конкурентов «мыльниц», практически полностью вытеснив их с рынка. А за последние 8 лет активно лезут на территорию зеркалок и беззеркалок по качеству фотографий и возможностям съёмки.
График продаж смартфонов, «мыльниц», зеркалок и беззеркалок, 1933—2016.
Если коротко — смартфоны победили «мыльницы», а зеркалки и беззеркалки уверенно держат свою нишу
Однако, профессиональные камеры тоже не стояли на месте и развивались, хоть и не такими ощутимыми скачками. Зеркальный фотоаппарат пятилетней давности с неплохим объективом пока ещё в силах одолеть самую топовую телефонную камеру 2020 года.
Безусловно, крутые фотографы сделают крутые фото хоть на коробку из под обуви. Например, Эпл для демонстрации крутости камер Айфонов зовёт именитых фотографов, которые делают фантастические снимки:
Сентябрьская конференция Эпла, 2021
Несмотря на это, есть главная причина, из‑за которой фотографы выбирают профессиональные камеры. Всё дело в размере сенсора (матрицы): на телефонах он маленький, а в зеркалках — большой.
Наглядное сравнение размеров сенсоров — от среднеформатного до мобильного. Блог Генри
Каждый сенсор состоит из маленьких светочувствительных ячеек. Чем больше сенсор, тем больше ячеек помещается на нём и тем крупнее сами ячейки. Большой сенсор зеркалок захватывает больше света и деталей, в отличие от маленького телефонного.
Ради компактности в телефоны ставят маленькие сенсоры с маленькими ячейками. Недостаток света и детализации приходится компенсировать сложной системой стабилизации и продвинутыми алгоритмами. Это приводит к тому, что на фото возникают сильные шумы, алгоритмы давят эти шумы и додумывают изображение. В результате телефонная фотография сильно теряет в детализации, текстурах, цвете и контрасте.
Полный кадр (англ. full frame) — сенсор 36×24 мм, соответствует размерам стандартного плёночного кадра 35 мм
Зеркалки не особо ограниченны в размерах сенсора. Большинство задач профессиональных фотографов покрывают полнокадровые сенсоры. При желании производители могут поставить в камеру огромную матрицу как в Хасселбладе. Именно из‑за размеров сенсора на зеркалку можно снимать в гораздо более сложных условиях и получать технически более качественные снимки, с высокой детализацией и глубиной цвета.
Полный кадр (англ. full frame) — сенсор 36×24 мм, соответствует размерам стандартного плёночного кадра 35 мм
Чтобы не быть голословным, покажу несколько примеров, сравнив фотографии, сделанные на полупрофессиональную зеркалку Никон Д7000 и Айфон 12 Про в одинаковых условиях:
Никон Д7000, f4, 1/200 с, фокусное расстояние 17 мм, 3264×4928
Айфон 12 Про, f1,6, 1/121 с, основная камера, 3024×4032
На первый взгляд, фотография с Айфона сочнее и детальнее, но при этом стала плоской и хуже по цветовому диапазону и балансу белого. Давайте сильно приблизимся и взглянем на детали:
Даже несмотря на зум, фотография с зеркалки похожа на фотографию: машины хоть и потеряли в резкости, но детали различимы и цвета естественные. Фотография с телефона стала похожа на масляную картину: смешались полутона, пропала текстура, усилился микроконтраст — объекты стали мозаичными.
Предыдущее фото я снял на основную широкоугольную камеру Айфона. Но фотографы часто используют портретные объективы — для съёмки людей, предметов или обычного зума в пейзаже. Сравним изображения на портретные объективы — как они справляются с деталями, цветом и текстурой:
Никон Д7000, f4, 1/100 с, 50 мм, 4928×3264
Айфон 12 Про, f2, 1/60 с, портретная камера, 4032×3024
Разница стала заметнее: портретная камера телефона хуже передаёт текстуру — мелкие детали слипаются, а из‑за сильного равномерного микроконтраста пропадает глубина и тональная перспектива. Если приблизить, изображение с телефона превращается в фарш:
Наконец, давайте посмотрим, как на зеркалку и телефон получится близкая съёмка объектов при обычном комнатном освещении:
Никон Д7000, f4, 1/100 с, 50 мм, 4928×3264
Айфон 12 Про, f2, 1/60 с, основная камера, 4032×3024
Фотография с телефона явно контрастнее и как‑будто резче и чётче. Но какая фотография более приятна глазу по ощущениям?
Хочется верить, что однажды телефоны полноценно заменят тяжеловесные полнокадровые зеркалки и беззеркалки, но пока телефоны им не конкуренты :‑)
Для более полного погружения в тему советую почитать статью, в которой автор очень подробно и в деталях исследует вопрос «Телефон против зеркалки»:
Smartphones vs Cameras: Closing the gap on image quality
P. S. Это был субботний совет о фотосъёмке. Присылайте вопросы и подписывайтесь на книгу «Фотосъёмка автомобилей»
Фотосъёмка
Отправить
Поделиться
Поделиться
Запинить
Твитнуть
Свежак
Можете ли вы найти разницу между этими фотографиями, снятыми тремя совершенно разными камерами? (ВИДЕО)
ВОЙТИ | ПРИСОЕДИНЯЙТЕСЬ |
Форма поиска
Поиск
Можете ли вы найти разницу между этими фотографиями, снятыми тремя совершенно разными камерами? (ВИДЕО)
Рон Лич | 12 октября 2017 г.
Трудно представить себе три цифровые камеры, более отличающиеся друг от друга, чем Canon EOS M5, Fujifilm GFX 50S и Canon EOS 5D Mark IV. Первая — это доступная компактная беззеркальная камера, вторая — беззеркальная модель среднего формата с разрешением 50 МП, а третья — большая и мощная профессиональная зеркальная камера.
В несоответствующем и чрезвычайно интересном видео ниже вы увидите результаты реального сравнения этих трех камер, которые были разработаны для очень разных пользователей и целей. Идея состоит в том, чтобы увидеть, как изображения складываются бок о бок на экране компьютера, именно так просматривается подавляющее большинство фотографий.
Томас Хитон — широко известный фотограф-пейзажист, так что это не одна из тех перестрелок, сделанных в домашней студии, а скорее внимательное рассмотрение изображения, которое он снял каждой камерой в полевых условиях. Итак, вот что мы хотим, чтобы вы сделали: перед просмотром видео взгляните на три фотографии выше и запишите, какое изображение, по вашему мнению, было сделано какой камерой.
Сделав свой выбор, посмотрите видео, выслушайте оценку Хитона и проверьте, правильно ли вы угадали. Это упражнение явно было бы более значимым, если бы изображения были крупнее или вы просматривали отпечатки с высоким разрешением, но настоящая точка зрения Хитона заключается в том, что для создания отличных фотографий требуется гораздо больше, чем оборудование в вашей сумке.
Другие видео Хитона можно найти на его канале YouTube. И обязательно посмотрите еще одну перестрелку между полнокадровыми и кроп-камерами, которую мы опубликовали.
ВИДЕО
Сегодняшнее фото — «Братская любовь», Брюс Тернбулл0025 1 Click Lightroom Trick для получения лучших портретных фото (ВИДЕО)
сравнивать изображения с разных камер — рискованно? — Опытный фотограф Deep Sky
#1 Шираз
Опубликовано 29 апреля 2017 г. — 02:34 — затем проведите параллельную оценку.
предполагается, что процесс повторной выборки просто перестраивает сигнал и шум с одной камеры, чтобы можно было напрямую сравнивать изображения с двух камер (одну исходную и одну передискретизированную). не верное предположение.
Ключевой бит — это то, что делают алгоритмы передискретизации? Быстро протестировал некоторые алгоритмы в PI, взяв одно входное изображение и передискретизировав его в 0,5 раза с использованием каждого из 6 алгоритмов. Результаты показаны на прилагаемом составном изображении (применено увеличенное 2x-STF растяжение) вместе с числами, представляющими измеренный шум в каждом передискретизированном линейном изображении. Алгоритмы, очевидно, производят сильно различающиеся уровни шума, а также очевидные различия в разрешении — все из одного и того же исходного изображения.
Это может стать настоящей проблемой при сравнении камер с разными размерами пикселей. например. Если бы мы использовали кубический B-сплайн для передискретизации одного из тестовых пар изображений, мы могли бы сделать вывод по очень гладкому передискретизированному изображению, что рассматриваемая камера имеет очень низкий уровень шума. Но если бы мы использовали Lanczos-3, мы могли бы сделать вывод из шумного передискретизированного изображения, что камера была очень шумной — одна и та же камера могла быть видна в совершенно другом свете, в зависимости от того, какой алгоритм использовался для передискретизации ее изображения.
Конечно же, должен быть метод передискретизации, который делает это «правильно»! Я не знаю — даже не уверен, как определить, что означает «правильно». Существующие алгоритмы, кажется, делают все возможное, чтобы оценить/угадать, как должно выглядеть изображение в новом масштабе и при некоторых предварительных ограничениях на то, что » «правильно». Некоторые из них, кажется, также делают изображения приятными, но в их действиях нет особой последовательности.
повторная выборка изображения с одной камеры в том же масштабе, что и изображение с другой, с последующим сравнением полученных изображений один к одному даст почти бессмысленные результаты.Было бы здорово, если бы другие могли попытаться повторить тесты или прокомментировать Представленные идеи — я еще мало знаю о передискретизации С уважением, Рэй
Отредактировал Шираз, 29 апреля 2017 г. — 16:55.
- Наверх
#2 Freestar8n
Размещено 29 апреля 2017 г. — 03:48
С точки зрения общепринятой научной практики группирование и агрегирование — это прекрасно и четко определено, но любая интерполяция запрещена, потому что она направлена на выявление измерений, которые в действительности никогда не проводились. Когда вы бин, вы говорите, что это значение является суммой измерений под ним — и это правда. Когда вы интерполируете, вы говорите: «Я посмотрел на значения вокруг этого места и думаю, что это то, что является основным значением», и это предположение.
Таким образом, при сравнении камер вы можете разделить один маленький пиксель на один большой — и это нормально. Но не следует сглаживать результат или интерполировать его.
И не стоит брать большой пиксель и интерполировать его до мелкопиксельного.
Так что я бы не стал делать никаких манипуляций с пикселями, кроме биннинга.
Если вы разрешаете любые манипуляции, то данные вам вообще не нужны. Художник мог просто нарисовать сцену. Это может показаться чрезмерным, но есть четкие утверждения, которые можно сделать, имея дело только с *изображениями*, которые представляют собой точно снятые и откалиброванные измерения неба. Можно также применить глобальное нелинейное преобразование к результату, если оно выполняется одинаковым образом для всех изображений.
Фрэнк
- Наверх
#3 Шираз
Опубликовано 29 апреля 2017 г. — 06:23
спасибо Фрэнк.
в значительной степени пришли к выводу, что биннинг является единственным надежным методом повторной выборки — спасибо за подтверждение. Исходя из этого, кажется, что идея о том, что не существует прямого визуального способа сравнения датчиков с разными размерами пикселей, верна — передискретизация одного изображения с последующим сравнением один к одному не будет надежной, если нет целочисленного коэффициента масштабирования и возможен биннинг. повторная выборка, безусловно, не дает ничего похожего на биннинг при дробных коэффициентах масштабирования.
Другим местом, где мы используем эти алгоритмы интерполяции, является выравнивание/стек. Мы начали несколько тестов, чтобы увидеть, какое влияние выбор алгоритма оказывает на эту арену.
Я был немного поражен тем, насколько по-разному работают алгоритмы на типичном астроизображении.
Рэй
Отредактировал Шираз, 29 апреля 2017 г. — 17:26.
- Наверх
#4 Джон Риста
Размещено 29 апреля 2017 г. — 10:02
Несколько хороших замечаний, Рэй. Я должен подумать о том, как я это сделаю. Обычно я использую «авто» выборку PI… честно говоря, не уверен, что это такое.
Интересно, сможем ли мы аппроксимировать бинирование, используя пиксельную математику, чтобы выполнить масштабирование таким образом, чтобы максимально точно имитировать бинирование. Просто усредните матрицы 2×2 или 3×3 пикселей вместе и не выполняйте какую-либо пространственную фильтрацию или повышение резкости, чтобы все оставалось как можно более «яблоками к яблокам». По своей сути биннинг просто суммирует значения каждого пикселя вместе… Я не думаю, что мы могли бы просто сделать это с PM, так как это, скорее всего, вырезало бы… но усреднение затем просто делит сумму на количество, которое по-прежнему не требует какой-либо фильтрации / повышения резкости, как это делает алгоритм выборки.
- Наверх
#5 jhayes_tucson
Опубликовано 29 апреля 2017 г. — 10:56
Это должно было случиться! Я согласен на 100% с Фрэнком.
Джон
- Наверх
#6 Шираз
Размещено 29 апреля 2017 г. — 17:25
Несколько хороших замечаний, Рэй. Я должен подумать о том, как я это сделаю. Обычно я использую «авто» выборку PI… честно говоря, не уверен, что это такое.
Интересно, сможем ли мы аппроксимировать бинирование, используя пиксельную математику, чтобы выполнить масштабирование таким образом, чтобы максимально точно имитировать бинирование. Просто усредните матрицы 2×2 или 3×3 пикселей вместе и не выполняйте какую-либо пространственную фильтрацию или повышение резкости, чтобы все оставалось как можно более «яблоками к яблокам». По своей сути биннинг просто суммирует значения каждого пикселя вместе… Я не думаю, что мы могли бы просто сделать это с PM, так как это, скорее всего, вырезало бы… но усреднение затем просто делит сумму на количество, которое по-прежнему не требует какой-либо фильтрации / повышения резкости, как это делает алгоритм выборки.
очень интересно посмотреть, что вы можете придумать с Джоном — похоже, нам определенно нужно что-то более надежное, чем существующие инструменты передискретизации изображения, если мы хотим сравнить камеры с пикселями разного размера.
Рэй
Отредактировал Шираз, 29 апреля 2017 г. — 17:48.
- Наверх
#7 Джон Риста
Размещено 29 апреля 2017 г. — 19:00
Несколько хороших замечаний, Рэй. Я должен подумать о том, как я это сделаю. Обычно я использую «авто» выборку PI… честно говоря, не уверен, что это такое.
Интересно, сможем ли мы аппроксимировать бинирование, используя пиксельную математику, чтобы выполнить масштабирование таким образом, чтобы максимально точно имитировать бинирование. Просто усредните матрицы 2×2 или 3×3 пикселей вместе и не выполняйте какую-либо пространственную фильтрацию или повышение резкости, чтобы все оставалось как можно более «яблоками к яблокам». По своей сути биннинг просто суммирует значения каждого пикселя вместе… Я не думаю, что мы могли бы просто сделать это с PM, так как это, скорее всего, вырезало бы… но усреднение затем просто делит сумму на количество, которое по-прежнему не требует какой-либо фильтрации / повышения резкости, как это делает алгоритм выборки.
очень интересно посмотреть, что вы можете придумать с Джоном — похоже, нам определенно нужно что-то более надежное, чем существующие инструменты передискретизации изображения, если мы хотим сравнить камеры с пикселями разного размера.
Рэй
Я не знаю, если/когда я доберусь до этого. Сегодня меня завалило футом снега, и я должен работать все выходные.
Я немного подумал об этом, и вот некоторые из моих мыслей.
Я думаю, это также зависит от того, как вы планируете обрабатывать данные, является ли субдискретизация «несправедливой» или нет. Подумайте, если ваша цель с современной CMOS-камерой состоит в том, чтобы собрать, но объединение не вариант. Единственный вариант, который у вас есть, это понизить дискретизацию. Теперь, действительно ли «несправедливо» понижать дискретизацию, используя, скажем, Mit-Net, чтобы получить хорошие результаты, и сравнивать их с другой камерой без бинов, если вы на самом деле собираетесь делать субдискретизацию с помощью Mit-Net?
Если мне не удается получить достаточное время безоблачного неба, я обычно уменьшаю разрешение изображений ASI1600. До размера 75% или 50%, в зависимости от того, сколько данных я получил. Я обычно использую автоматический режим PI… но это то, что я делаю. Однако, если я сравнил свое изображение с другим изображением, полученным, скажем, с помощью KAF-8300 в масштабе 1×1, что примерно соответствует моему 75-процентному изображению… действительно ли это некорректное сравнение? Похоже, что драйвер ASCOM для моей камеры на самом деле не предоставляет параметры объединения. Я думал, что это так, но на самом деле я получаю параметры бининга в SharpCap только с родным драйвером. Я не знаю, что SGP делает для бинирования, но похоже, что он использует аппаратное обеспечение, которое снижает разрядность до 10. Так что, если я хочу бинировать, мой единственный реальный вариант — понизить дискретизацию.
Это то, что я делаю… это то, что я на самом деле делаю в реальном мире с моими фактическими данными, если мне не удалось собрать достаточно данных и я хочу что-то представить (обычно промежуточную версию) . Итак, я не думаю, что понятие «справедливого» сравнения — это просто простая вещь. Я понимаю цели сохранения «истинности» и «чистоты»… но «реальность» также является фактором. У наших CMOS-изображений нет аппаратного биннинга. У нас высокий коэффициент усиления, низкий уровень шума и даунсемплинг.
Отредактировал Джон Риста, 29 апреля 2017 г. – 19:02.
- Наверх
#8 Шираз
Размещено 30 апреля 2017 г. — 00:38
Конечно, дело не в справедливости, Джон, а в общей полезности для тех, кто не делает то же, что и ты.
Я был обеспокоен тем, как данные о возможностях различных камер в настоящее время представляются в визуальной форме для тех людей, которые (вполне разумно) не интересуются шумом чтения, КС, теорией обнаружения и т. д. Самый распространенный способ показать Относительное достоинство двух камер заключается в представлении изображений с обеих камер в форме, в которой параллельное сравнение (надеюсь) дает что-то достоверное о базовой сенсорной технологии. Ранее в ветке было показано, что обычные методы передискретизации не позволяют этого сделать, если размеры пикселей различаются — передискретизация будет отдавать предпочтение той или иной камере в зависимости от алгоритма.
Однако только что нашел алгоритм, который, похоже, отвечает всем требованиям нейтральной к шуму передискретизации. В Nebulosity это называется «Коробка», и хотя объяснение не так уж ясно, подозреваю, что это может быть алгоритм суперсэмплирования https://software.int…es/topic/310600
1. Разделить прямоугольную ROI исходного изображения (или все изображение, если нет ROI) на равные прямоугольники, каждый прямоугольник соответствует некоторому пикселю в целевом изображении. Обратите внимание, что каждый исходный пиксель представлен квадратом 1×1.
2. Вычислить взвешенную сумму значений исходных пикселей для всех пикселей, которые содержатся в прямоугольнике или имеют ненулевое пересечение с прямоугольником. Если исходный пиксель полностью содержится в прямоугольнике, значение этого пикселя берется с весом 1. Если прямоугольник и квадрат исходного пикселя имеют площадь пересечения a < 1, значение этого пикселя берется с весом a. Для каждого исходного пикселя, пересекающегося с прямоугольником, на рис. B-3 показано соответствующее значение веса.
3. Чтобы вычислить значение пикселя в целевом изображении, разделите эту взвешенную сумму на отношение площадей исходного и целевого прямоугольников. передискретизация основана на целых числах, алгоритм идентичен программному биннингу (т.е. он работает предсказуемо).
— для масштабирования между шагами биннинга (например, 0,64 x 0,64) создается дисперсия шума, которая зависит от эффективной площади пикселя (что кажется разумным).
Я не думаю, что он будет идеальным в других отношениях (потеря разрешения, алиасинг и т. д.), но он выглядит приемлемым для единственной задачи уменьшения изображения на произвольную величину, чтобы обеспечить надежное визуальное сравнение SNR. между изображениями с камер с разным размером пикселей. К сожалению, в PI нет реализации этого алгоритма — Nebulosity — единственный пакет, который у меня есть, который включает его.
еще раз, буду признательна за любые комментарии — опыта в этой области не много.
Рэй
Отредактировал Shiraz, 30 апреля 2017 г., 01:30.
- Наверх
#9 Джон Риста
Опубликовано 30 апреля 2017 г. — 00:46
Должна быть возможность написать сценарий для PI для такого масштабирования. Кстати, предоставленная ссылка не работает. Получил 404.
- Наверх
#10 Шираз
Опубликовано 30 апреля 2017 г. — 00:51
Ой, у меня тоже ссылка не работала — удалил, пока не найду. редактировать: надеюсь исправлено.
Отредактировано Shiraz, 30 апреля 2017 г., 00:58.
- Наверх
#11 Freestar8n
Опубликовано 30 апреля 2017 г. — 01:52
Боюсь, что я работал с подобными вещами, и, как обычно, есть сюрпризы.
Два эксперимента, которые я рекомендую:
1) Возьмите любое немного зашумленное изображение и передискретизируйте его, сдвинув его на 1/2 пикселя вверх и вправо, но передискретизируйте его до того же размера в пикселях. Это то, что эффективно происходит при выравнивании и укладке. Что происходит с шумом и «SNR» изображения?
2) Возьмите немного зашумленное изображение и передискретизируйте его, используя простой метод, описанный выше (коробка или что-то еще), но передискретизируйте его до размера, возможно, в 0,8 раза больше исходного размера пикселя. Убедитесь, что это зашумленное изображение, чтобы вы могли видеть шум. Что вы видите в результате?
Так что я в основном рекомендую бинировать по целым числам, и если они не совпадают, вам просто нужно визуально компенсировать.
Здесь также имеет значение угол обзора — и есть несколько категорий. Один из них — вид издалека, поэтому вы вообще не можете видеть пиксели. В этом случае программное обеспечение для просмотра — или веб-браузер, или что-то еще — выполняет для вас своего рода повторную выборку — и полезно знать, что это такое. Следующий — когда пиксели точно совпадают с экраном — но и тут зависит от dpi экрана — и 4к против 1080р. После этого пиксели становятся очень большими и видимыми — и отображаются как отдельные пиксели. Это менее двусмысленно, как равный способ сравнения двух изображений, но тогда трудно увидеть общую информацию об изображении.
Главное, что я рекомендую, это просто бинировать и показывать в нескольких разных масштабах. И описать, что было сделано.
Фрэнк
- Наверх
#12 Шираз
Опубликовано 30 апреля 2017 г. — 02:58
Боюсь, что я работал с подобными вещами и, как обычно, есть сюрпризы.
Два эксперимента, которые я рекомендую:
1) Возьмите любое несколько зашумленное изображение и передискретизируйте его, сдвинув его на 1/2 пикселя вверх и вправо, но передискретизируйте его до того же размера в пикселях. Это то, что эффективно происходит при выравнивании и укладке. Что происходит с шумом и «SNR» изображения?
2) Возьмите несколько зашумленное изображение и передискретизируйте его, используя простой метод, описанный выше (коробка или что-то еще), но передискретизируйте его до чего-то, что имеет, возможно, 0,8-кратный размер исходного пикселя. Убедитесь, что это зашумленное изображение, чтобы вы могли видеть шум. Что вы видите в результате?
Так что я в основном рекомендую бинировать по целым числам, и если они не совпадают точно, вам просто нужно компенсировать визуально.
Здесь также имеет значение угол обзора — и есть несколько категорий. Один из них — вид издалека, поэтому вы вообще не можете видеть пиксели. В этом случае программное обеспечение для просмотра — или веб-браузер, или что-то еще — выполняет для вас своего рода повторную выборку — и полезно знать, что это такое. Следующий — когда пиксели точно совпадают с экраном — но и тут зависит от dpi экрана — и 4к против 1080р. После этого пиксели становятся очень большими и видимыми — и отображаются как отдельные пиксели. Это менее двусмысленно, как равный способ сравнения двух изображений, но тогда трудно увидеть общую информацию об изображении.
Главное, что я рекомендую, это просто бинировать и показывать в нескольких разных масштабах. И описать, что было сделано.
Фрэнк
сделал все, что Фрэнк — наткнулся на сюрпризы.
Но алгоритм Box уникален — кажется, что он не выполняет лишнего сглаживания и ведет себя так, как если бы выполнял дробное бинирование.
На прилагаемом составном изображении показан переход от 100 % к 40 % с помощью алгоритма передискретизации Box. Также включено (усредненное) изображение размером 2×2. Изображения 50% box и 2×2 идентичны. В этот момент я начал немного воодушевляться потенциалом алгоритма.
Изображения на дисплее увеличиваются в масштабе 2:1, а JPEG немного мешает. Измерения шума показывают точно такой же шум при bin2x2 = 50%box и bin3x3 = 33%box.
Я согласен с тем, что биннинг является наиболее надежной передискретизацией, но если люди будут настаивать на оценке камер, помещая масштабированные изображения рядом друг с другом, то алгоритм блочной передискретизации будет гораздо менее обманчивым, чем что-либо другое, что они могли бы использовать.
Рэй
Отредактировано Shiraz, 30 апреля 2017 г., 06:49.
- Наверх
№13 Freestar8n
Размещено 30 апреля 2017 г. — 03:20
Привет — спасибо за это.
Вещи, которые я ожидаю увидеть:
1) Сдвиг изображения на один и тот же размер пикселя будет иметь эффект сглаживания, который значительно увеличит «snr», потому что внезапно информация из одного пикселя распространяется на 4. Это просто компромисс разрешения в исходном изображении с более гладким изображением с половинным разрешением в результате.
2) При передискретизации зашумленного изображения во что-то другое, не являющееся точным кратным — будут заметные глазу периодические модуляции шума. Это эффект сглаживания, и это ожидаемо.
Если вы не видите эти вещи с «коробкой», я посмотрю на это. Из того, что вы описали, я не думал, что это позволит избежать этих проблем, но, возможно, это так. Конечно, другие подходы к повторной выборке будут иметь эти артефакты, и они, вероятно, будут сюрпризом.
Фрэнк
- Наверх
№14 Шираз
Размещено 30 апреля 2017 г.