только 3% россиян имеют глубокие знания о фондовом рынке / Национальный Банковский Журнал
Снижение процентной ставки по вкладам и кажущиеся простота и доступность инструментов инвестирования привели многих россиян к идее попробовать себя в роли инвестора. Почти четверть (24%) проявляют интерес к этой сфере, а 9% россиян имеют опыт инвестирования. При этом большинство «новых инвесторов» не имеют практических навыков и достаточных финансовых знаний для работы на фондовом рынке. Таковы результаты исследования Аналитического центра НАФИ.
Типичный портрет «нового инвестора» – мужчина, в молодом возрасте, с высшим образованием и проживающий в крупном городе. Наибольший интерес к инвестициям проявляет молодежь в возрасте от 18 до 24 лет: среди них 38% интересуются этой темой, и с возрастом интерес снижается (30% в группе от 25 до 34 лет, 25% – в группе 35-44 и только 12% в группе старше 55 лет – см. таблицу 4). Жители сел интересуются инвестициями реже жителей городов (18% против 24%).
Большинство россиян не имеют знаний в сфере инвестиций. Только 3% отметили, что много знают об операциях на фондовом рынке, а 29% указали, что имеют поверхностные знания.
При этом среди тех, кто интересуется инвестициями, только каждый пятый (19%) имеет глубокие знания в этой сфере. Большинство (60%) имеют лишь поверхностные знания и разбираются в теме в общих чертах, а 21% совсем не разбираются в инвестициях.
«Молодежь, которая выходит сегодня на инвестиционный рынок, часто не имеет должной подготовки и не проводит оценку рисков. Высокий уровень цифровых компетенций, который позволяет “новым инвесторам” использовать цифровые решения для удаленного управления инвестициями, сочетаются с невысокой инвестиционной грамотностью. Часто имеет место ошибочная уверенность в сохранности инвестиций по аналогии с банковскими вкладами, защищенными системой государственного страхования, – рассказывает Гузелия Имаева, генеральный директор Аналитического центра НАФИ.
– Из-за непонимания специфики фондового рынка инвесторы-любители могут вкладывать в акции свою финансовую «подушку безопасности», а кто-то – свои последние деньги. Потеря этих денег на бирже может стать фактором социальной напряженности. Тема “новых инвесторов” требует особого внимания как со стороны регулятора, так и со стороны инвестиционных компаний: необходимо соблюдать баланс между активным маркетингом инвестиционных инструментов и всесторонним информированием неподготовленных новых инвесторов, которые выходят на рынок. Привлечение этой категории граждан «обещаниями высокой доходности» может нести риски как для самих клиентов, так и для репутации финансового сектора, привести к снижению доверия финансовой отрасли».
портрет в градациях серого, женщина, составить, серый, масштабное фото, глубокий круглый вырез, Топ, женский пол
портрет в градациях серого, женщина, составить, серый, масштабное фото, глубокий круглый вырез, Топ, женский пол, портрет, модель, лицо, молодой человек, выстрел в голову, один человек, красота, женщины, красивая женщина, молодая женщина, студийный снимок, для взрослых, передний план, в помещении, смотрит на камеру, крупный план, часть человеческого тела, часть тела, волосы, прическа, человеческое лицо, мода, созерцание, рука, 5KPublic Domain
Ключевые слова фото
- портрет в градациях серого
- женщина
- составить
- серый
- масштабное фото
- глубокий круглый вырез
- Топ
- женский пол
- портрет
- модель
- лицо
- молодой человек
- выстрел в голову
- один человек
- красота
- женщины
- красивая женщина
- молодая женщина
- студийный снимок
- для взрослых
- в помещении
- смотрит на камеру
- крупный план
- часть человеческого тела
- часть тела
- волосы
- прическа
- человеческое лицо
- мода
- созерцание
- рука
Изменить размер и скачать это фото
PC & Laptop(720P, 1080P, 2K, 4K):
- 1366×768
- 1920×1080
- 1440×900
- 1600×900
- 1280×800
- 1024×768
- 1280×1024
- 1536×864
- 1680×1050
- 1280×720
- 1360×768
- 360×640
- 2560×1440
- 2560×1080
1920×1200- 1280×768
- 1024×600
- 800×600
- 1364×768
- 320×570
- 3840×2160
iMac:
iMac 21.
5″ LED-backlit:1920×1080
iMac 21.5″ Retina 4K:
4096×2304
iMac 27″ Retina 5K:
5120×2880
MacBook:
MacBook Air 11.6″:
1366×768
MacBook Air 13″, MacBook Pro 15.4″:
1440×900
MacBook Pro 13.3″:
1280×800
MacBook Pro 15.4″ Retina:
2880×1800
MacBook Pro 17″:
1920×1200
MacBook Pro 13.3″ Retina, MacBook Air 13″ Retina:
2560×1600
iPhone:
iPhone 2G, iPhone 3G, iPhone 3GS:
320×480
iPhone 4, iPhone 4s:
640×960
iPhone 5, iPhone 5s, iPhone 5c, iPhone SE:
640×1136
iPhone 6, iPhone 6s, iPhone 7, iPhone 8:
750×1334
iPhone 6 plus, iPhone 6s plus, iPhone 7 plus, iPhone 8 plus:
1242×2208
iPhone X, iPhone Xs:
1125×2436
iPhone Xs Max:
1242×2688
iPhone Xr:
828×1792
Android phone:
- 720×1280
- 1080×1920
- 480×854
- 480×800
- 540×960
- 600×1024
- 800×1280
- 1440×2560
- 320×480
- 1080×1812
- 1080×1800
- 720×1208
- 375×667
- 320×568
iPad:
iPad, iPad 2, iPad Mini:
768×1024
iPad 3, iPad 4, iPad Air, iPad Air 2, 2017 iPad, iPad Mini 2, iPad Mini 3, iPad Mini 4, 9.
7″ iPad Pro:2048×1536
10.5″ iPad Pro:
2224×1668
11″ iPad Pro:
2388×1668
12.9″ iPad Pro:
2732×2048
Surface & Android tablets:
- 2736×1824
- 2048×1536
- 1024×600
- 1600×1200
- 2160×1440
Custom изменить размер этого фото
Фото информация
Связаться с нами
Фотографии по теме
Глубокий портрет Восхищение | SpringerLink
Абдал, Р., Чжу, П., Митра, Н.Дж., Вонка, П.: Styleflow: исследование изображений, созданных с помощью stylegan, с учетом атрибутов с использованием условных непрерывных нормализующих потоков. АКМ транс. Графика (TOG) 40 (3), 1–21 (2021)
CrossRef Google Scholar
«>Беверидж, Дж. Р., Болме, Д. С., Дрейпер, Б. А., Гивенс, Г. Х., Луи, Ю. М., Филлипс, П. Дж.: Количественная оценка того, как освещение и фокус влияют на эффективность распознавания лиц. В: Конференция компьютерного общества IEEE 2010 г. по компьютерному зрению и распознаванию образов — семинары, стр. 74–81. IEEE (2010)
Google Scholar
Бланц В., Веттер Т.: трансформируемая модель для синтеза трехмерных граней. В: Материалы 26-й ежегодной конференции по компьютерной графике и интерактивным методам, стр. 187–19.4 (1999)
Google Scholar
«>Чен, Британская Колумбия, Чен, К.С., Хсу, У.Х.: Распознавание и поиск лиц с использованием кросс-возрастного эталонного кодирования с набором данных о знаменитостях разных возрастов. IEEE транс. Мультимедиа 17 (6), 804–815 (2015)
CrossRef Google Scholar
Chen, X., Wu, H., Jin, X., Zhao, Q.: Управление освещением лица с использованием одного эталонного изображения путем декомпозиции адаптивного слоя. IEEE транс. Процесс изображения. 22 (11), 4249–4259 (2013)
CrossRef MathSciNet Google Scholar
«>Дэн Дж., Донг В., Сочер Р., Ли Л.Дж., Ли К., Фей-Фей Л.: Imagenet: крупномасштабная иерархическая база данных изображений. В: Конференция IEEE 2009 г. по компьютерному зрению и распознаванию образов, стр. 248–255. IEEE (2009)
Google Scholar
Дэн, Ю., Ян, Дж., Чен, Д., Вен, Ф., Тонг, X.: Генерация распутанного и управляемого изображения лица с помощью трехмерного имитационно-контрастного обучения. В: Материалы конференции IEEE/CVF по компьютерному зрению и распознаванию образов, стр. 5154–5163 (2020)
Google Scholar
«>Фахми Г., Эль-Шербини А., Мандала С., Абдель-Мотталеб М., Аммар Х.: Влияние направления/условия освещения на эффективность алгоритмов распознавания лиц. В: Биометрическая технология для идентификации человека III, том. 6202, с. 62020Дж. Международное общество оптики и фотоники (2006 г.)
Google Scholar
Георгиадес, А.С., Бельюмер, П.Н., Кригман, Д.Дж.: От нескольких к многим: модели конуса освещения для распознавания лиц при переменном освещении и позе. IEEE транс. Анальный узор. Мах. Интел. 23 (6), 643–660 (2001)
CrossRef Google Scholar
Гросс Р. , Мэтьюз И., Кон Дж., Канаде Т., Бейкер С.: Multi-pie. Компьютерное зрение изображения. 28 (5), 807–813 (2010)
CrossRef Google Scholar
Хан, X., Ян, Х., Син, Г., Лю, Ю.: Асимметричные суставные гантели для нормализации освещения лица на одном изображении. IEEE транс. Мультимедиа 22 (6), 1619–1633 (2019)
CrossRef Google Scholar
He, K., Sun, J., Tang, X.: Управляемая фильтрация изображений. IEEE транс. Анальный узор. Мах. Интел. 35 (6), 1397–1409 (2012)
CrossRef Google Scholar
Хе, К., Чжан, X., Рен, С., Сунь, Дж.: Углубление в выпрямители: превосходство на уровне человека по классификации imagenet. В: Труды Международной конференции IEEE по компьютерному зрению, стр. 1026–1034 (2015)
. Google Scholar
«>Хоу, А., Чжан, З., Саркис, М., Би, Н., Тонг, Ю., Лю, X.: На пути к высококачественному повторному освещению лица с реалистичными тенями. В: Труды конференции IEEE/CVF по компьютерному зрению и распознаванию образов, стр. 14719–14728 (2021)
. Google Scholar
Джонсон, Дж., Алахи, А., Фей-Фей, Л.: Потери восприятия при передаче в режиме реального времени и сверхвысоком разрешении. В: Лейбе, Б., Матас, Дж., Себе, Н., Веллинг, М. (ред.) ECCV 2016. LNCS, vol. 9906, стр. 694–711. Спрингер, Чам (2016). https://doi.org/10.1007/978-3-319-46475-6_43
CrossRef Google Scholar
Канамори, Ю., Эндо, Ю.: Повторное освещение людей: обратный рендеринг с учетом окклюзии для изображений человека в полный рост. АКМ транс. График (TOG) 37 (6), 1–11 (2018)
CrossRef Google Scholar
Кингма, Д.П., Ба, Дж.: Адам: метод стохастической оптимизации. Препринт arXiv arXiv: 1412.6980 (2014)
Lagunas, M., et al.: Повторное освещение человеческого тела одним изображением (2021)
Google Scholar
Lee, CH, Liu, Z., Wu, L., Luo, P.: Maskgan: к разнообразным и интерактивным манипуляциям с изображениями лица. В: Конференция IEEE по компьютерному зрению и распознаванию образов (CVPR) (2020)
Google Scholar
Ли, К., Хо, Дж., Кригман, Д.: Получение линейных подпространств для распознавания лиц при переменном освещении. IEEE транс. Анальный узор. Мах. Интеллект 27 (5), 684–698 (2005)
CrossRef Google Scholar
«>Малликардьюн Б. и др.: Photoapp: фотореалистичное редактирование портретов головы. АКМ транс. График 40 (4), 1–16 (2021)
Google Scholar
Мао, Х., Ли, К., Се, Х., Лау, Р.Ю., Ван, З., Пол Смолли, С.: Генерационные состязательные сети методом наименьших квадратов. В: Труды Международной конференции IEEE по компьютерному зрению, стр. 2794–2802 (2017)
. Google Scholar
Martin-Brualla, R., et al.: Lookingood: улучшение захвата производительности с нейронным повторным рендерингом в реальном времени. Препринт arXiv arXiv: 1811.05029(2018)
«>Нестмейер, Т., Лалонд, Дж. Ф., Мэтьюз, И., Лерманн, А.: Обучение повторному освещению лица под руководством физики при направленном свете. В: Труды конференции IEEE/CVF по компьютерному зрению и распознаванию образов, стр. 5124–5133 (2020)
. Google Scholar
Панди Р. и др.: Тотальное повторное освещение: обучение переосвещению портретов для замены фона. АКМ транс. График (TOG) 40 (4), 1–21 (2021)
CrossRef Google Scholar
Пашке А. и др.: Pytorch: императивный стиль, высокопроизводительная библиотека глубокого обучения. Доп. Нейронный. Инф. Процесс. Сист. 32 , 8026–8037 (2019)
Google Scholar
«>Роннебергер О., Фишер П., Брокс Т.: U-Net: сверточные сети для сегментации биомедицинских изображений. В: Наваб, Н., Хорнеггер, Дж., Уэллс, В.М., Франги, А.Ф. (ред.) MICCAI 2015. LNCS, vol. 9351, стр. 234–241. Спрингер, Чам (2015). https://doi.org/10.1007/978-3-319-24574-4_28
Google Scholar
Сенгупта, С., Канадзава, А., Кастильо, К.Д., Джейкобс, Д.В.: Sfsnet: изучение формы, отражения и освещенности лиц в дикой природе». В: Материалы конференции IEEE по компьютерному зрению и распознаванию образов, стр. 6296–6305 (2018 г.)
. Google Scholar
Шу, З., Юмер, Э., Хадап, С., Сункавалли, К. , Шехтман, Э., Самарас, Д.: Нейронное редактирование лица с распутыванием внутреннего изображения. В: Материалы конференции IEEE по компьютерному зрению и распознаванию образов, стр. 5541–5550 (2017)
Google Scholar
Сим, Т., Бейкер, С., Бсат, М.: База данных CMU позы, освещения и выражения (круговая). В: Труды Пятой международной конференции IEEE по автоматическому распознаванию жестов лица, стр. 53–58. IEEE (2002)
Google Scholar
Симонян К., Зиссерман А.: Очень глубокие сверточные сети для крупномасштабного распознавания изображений. Препринт arXiv arXiv: 1409.1556 (2014)
Сонг, Г., Чам, Т.Дж., Цай, Дж., Чжэн, Дж.: Повторное освещение портрета половины тела с чрезмерно полным представлением освещения. В: Форум компьютерной графики. Интернет-библиотека Wiley (2021)
Google Scholar
«>Ульянов Д., Ведальди А., Лемпицкий В.: Нормализация экземпляра: недостающий ингредиент для быстрой стилизации. Препринт arXiv arXiv:1607.08022 (2016)
Ван Ю. и др.: Повторное освещение лица на одном изображении в произвольно неизвестных условиях освещения. IEEE транс. Анальный узор. Мах. Интел. 31 (11), 1968–1984 (2008)
CrossRef Google Scholar
Wang, Z., Yu, X., Lu, M., Wang, Q., Qian, C., Xu, F.: Повторное освещение портрета одного изображения с помощью явного моделирования канала множественного отражения. АКМ транс. График (ТОГ) 39 (6), 1–13 (2020)
Google Scholar
«>Ся В., Чжан Ю., Ян Ю., Сюэ Дж. Х., Чжоу Б., Ян М. Х.: инверсия Ган: обзор. Препринт arXiv arXiv: 2101.05278 (2021)
Ю, К., Ван, Дж., Пэн, К., Гао, К., Ю, Г., Санг, Н.: Bisenet: двусторонняя сеть сегментации для семантической сегментации в реальном времени (2018)
Google Scholar
Чжан, Л., Чжан, К., Ву, М., Ю, Дж., Сюй, Л.: Нейронное повторное освещение видеопортрета в реальном времени посредством моделирования согласованности. Препринт arXiv arXiv:2104.00484 (2021)
Чжан, Р., Изола, П., Эфрос, А.А., Шехтман, Э., Ван, О. : Необоснованная эффективность глубоких черт как метрики восприятия. В: Труды конференции IEEE по компьютерному зрению и распознаванию образов, стр. 586–59.5 (2018)
Google Scholar
Zhang, X., et al.: Работа с тенями в портрете. АКМ транс. График (TOG) 39 (4), 1–78 (2020)
CrossRef Google Scholar
Чжоу, Х., Хадап, С., Сункавалли, К., Джейкобс, Д.В.: Глубокое повторное освещение портрета одиночного изображения. В: Труды Международной конференции IEEE/CVF по компьютерному зрению, стр. 7194–7202 (2019 г.).)
Google Scholar
Ахмед, А., Фараг, А.: Новая статистическая модель, сочетающая освещение формы и сферических гармоник для реконструкции лица. В: Bebis, G., et al. (ред.) ISVC 2007. LNCS, vol. 4841, стр. 531–541. Спрингер, Гейдельберг (2007). https://doi.org/10.1007/978-3-540-76858-6_52
Google Scholar
Капече Н., Бантерле Ф., Чиньони П., Гановелли Ф., Скопиньо Р., Эрра У.: Deepflash: превращение селфи со вспышкой в студийный портрет. Сигнальные процессы. Изображение Комм. 77 , 28–39 (2019)
CrossRef Google Scholar
Дебевек П., Хокинс Т., Чу К., Дукер Х. П., Сарокин В., Сагар М.: Получение поля отражения человеческого лица. В: Материалы 27-й ежегодной конференции по компьютерной графике и интерактивным методам, стр. 145–156 (2000)
Google Scholar
Эггер, Б. и др.: 3D-моделей лиц с трансформируемыми лицами — прошлое, настоящее и будущее. АКМ транс. График (TOG) 39 (5), 1–38 (2020)
CrossRef Google Scholar
Helou, M.E., Zhou, R., Barthas, J., Süsstrunk, S.: Vidit: набор данных виртуального изображения для передачи освещения. Препринт arXiv arXiv: 2005.05460 (2020)
Линг С., Линь Ю., Фу К., Ю Д., Ченг П.: высокопроизводительный метод обработки освещения лица с помощью многоэтапных карт признаков. Датчики 20 (17), 4869 (2020)
Google Scholar
Нагано К. и др.: Глубокая нормализация лица. АКМ транс. График (TOG) 38 (6), 1–16 (2019)
CrossRef Google Scholar
Qiu, Y., Xiong, Z., Han, K., Wang, Z., Xiong, Z., Han, X.: Обучение обратному рендерингу лиц из видео реального мира (2020)
Google Scholar
Сан, Т. и др.: Повторное освещение портрета одиночного изображения. АКМ транс. График 38 (4), 1–79 (2019)
CrossRef Google Scholar
Ван, З., Бовик, А.С., Шейх, Х.Р., Симончелли, Е.П.: Оценка качества изображения: от видимости ошибок до структурного сходства. IEEE транс. Процесс изображения. 13 (4), 600–612 (2004)
CrossRef Google Scholar
Ссылки на скачивание
Deep Video Portraits | Christian Richardt
Hyeongwoo Kim 1 Pablo Garrido 2 Ayush Tewari 1 Weipeng Xu 1 Justus Thies 3
Matthias Nießner 3 Patrick Pérez 2 Christian Richardt 4 Michael Zollhöfer 5 Кристиан Теобальт 1
1 MPI Informatik 2 Technicolor 3 TU Munich 4 Университет Бата 5 Стэнфордский университет
900084343.
Мы представляем новый подход, позволяющий фотореалистично реанимировать портретные видео, используя только входное видео. В отличие от существующих подходов, которые ограничиваются манипулированием только выражением лица, мы первыми передаем полное трехмерное положение головы, вращение головы, выражение лица, взгляд и моргание глаз от исходного актера к портретному видео цели. актер. В основе нашего подхода лежит генеративная нейронная сеть с новой пространственно-временной архитектурой. Сеть принимает на вход синтетические рендеры параметрической модели лица, на основе которых предсказывает фотореалистичные видеокадры для заданного целевого актера. Реализм в этой передаче рендеринга в видео достигается за счет тщательного противоборствующего обучения, и в результате мы можем создавать модифицированные целевые видео, которые имитируют поведение синтетически созданного ввода. Чтобы включить повторную анимацию видео от источника к цели, мы визуализируем синтетическое целевое видео с реконструированными параметрами анимации головы из исходного видео и передаем его в обученную сеть, таким образом получая полный контроль над целью. Благодаря возможности свободно рекомбинировать исходные и целевые параметры мы можем продемонстрировать большое разнообразие приложений для перезаписи видео без явного моделирования волос, тела или фона. Например, мы можем воспроизвести всю голову, используя интерактивное редактирование, управляемое пользователем, и реализовать высококачественный визуальный дубляж. Чтобы продемонстрировать высокое качество нашей продукции, мы проводим обширную серию экспериментов и оценок, где, например, исследование пользователей показывает, что наши видеоредактирования трудно обнаружить.
Загрузки
- Бумажный препринт (PDF, 5 МБ)
- Пресс-релиз (Университет Бата, 17 августа 2018 г.)
- Дополнительное видео (MP4, 228 МБ)
- Слайды презентации (PowerPoint, 382 МБ)
- Эта статья на arXiv (arXiv:1805.11714)
- Сайт проекта ГВВ (доп. информация)
Copyright
© Copyrights by the Authors, 2018. Это авторская версия работы. Он размещен здесь для вашего личного использования. Не для перераспределения. Окончательная версия будет опубликована в ACM Transactions on Graphics.
Обратите внимание — Важная информация о нашей работе
Цель:
В этом проекте наша цель — продемонстрировать возможности современных технологий компьютерного зрения и компьютерной графики, основанных на передовых методах реконструкции сцен и синтеза изображений, и передать их в доступной и увлекательной форме. Мы также обсудим, как они служат строительным блоком для творческих приложений, например, при создании контента для визуальных эффектов, видеопроизводства и постобработки или телеприсутствия и виртуальной и дополненной реальности.
Контекст:
Мы хотим подчеркнуть, что компьютерные видеоролики уже более 30 лет являются неотъемлемой частью художественных фильмов. Практически каждый высококачественный фильм содержит значительный процент компьютерных изображений, или CGI, от «Властелина колец» до Бенджамина Баттона. Эти результаты трудно отличить от реальности, и часто остается незамеченным, что это содержание не является реальным. Таким образом, синтетическая модификация видеофрагментов уже давно была возможна, но процесс был трудоемким и требовал специалистов в данной области. Производство даже короткого синтетического видеоклипа стоит миллионы в бюджете и несколько месяцев работы даже для профессионально подготовленных художников, поскольку им приходится вручную создавать и анимировать огромное количество 3D-контента.
Прогресс:
За последние несколько лет были разработаны подходы, которые позволяют создавать реалистичный синтетический контент на основе гораздо меньшего количества входных данных, например, на основе одного видео человека или коллекции фотографий. При таких подходах требуется гораздо меньше работы для синтетического создания или изменения видеоклипа. Это делает эти подходы доступными для более широкой неспециалистной аудитории.
Приложения:
Эти новые и более эффективные способы редактирования видео открывают множество интересных приложений в области компьютерной графики или даже виртуальной и дополненной реальности. Есть много возможных и творческих вариантов использования нашей технологии, что является для нас мотивацией для ее разработки.
Одним из важных вариантов использования являются системы постпродакшна в киноиндустрии, где очень часто приходится редактировать сцены после того, как они были сняты. При таком подходе, как тот, который мы представляем, можно отредактировать даже положение головы актера и выражение его лица, чтобы оно лучше соответствовало предполагаемому кадрированию сцены. Многое из этого уже сделано сегодня, но с гораздо большими, часто ручными, необходимыми усилиями. Это очень сложная задача — отредактировать позу динамического объекта в сцене так, чтобы она была правдоподобной, модификация была пространственно-временной когерентной для всех видеокадров, а перекрывающее/раскрывающее содержимое сцены было правильно заполнено или удалено.
Производство видео сильно отличается от фотографии и во многих отношениях намного сложнее, чем фотография. Например, требуется правильное планирование времени, положения актера или ориентации головы в сцене, чтобы создать правильные кадры и ракурсы сцен, таких как сцены разговоров, и чтобы рассказать историю наиболее убедительно. Алгоритм, подобный нашему, позволил бы исправить ошибки композиции сцены в уже отснятом видеоматериале и, следовательно, упростить постобработку.
Другой вариант использования — перезапись. Дубляж — это этап постпродакшна, используемый в кинопроизводстве для замены голоса оригинального актера голосом дублирующего актера, говорящего на другом языке. Дублирование на производственном уровне требует хорошо обученных дублеров и интенсивного ручного взаимодействия. Хорошая временная синхронизация аудио и видео обязательна, так как зрители очень чувствительны к расхождениям между слуховым и визуальным каналом. К сожалению, несмотря на наилучшую возможную синхронизацию дублированного голоса с видео, всегда будет тревожное несоответствие между актером и новым голосом. При существующих методах дубляжа это принципиальное несоответствие не может быть разрешено. Подходы, подобные нашему, позволяют напрямую адаптировать визуальный канал и мимику актера к новой звуковой дорожке, что может помочь уменьшить эти несоответствия. Мы считаем, что наша техника может также проложить путь к живому переводу и дублированию в сценарии телеконференций.
Это всего лишь несколько примеров творческих вариантов использования нашей технологии. Другими возможными приложениями являются видеоконференции, где эта техника может корректировать взгляд и положение головы, так что человек действительно смотрит в глаза человеку на другом конце, глядя на свой экран (помните, что камеры и экраны обычно в разных местах, что и вызывает эту проблему). Наш подход можно было бы далее использовать в контексте виртуального зеркала (виртуальный макияж/прическа). Кроме того, его можно использовать в контексте удаления алгоритмического головного дисплея (HMD) для телеконференций виртуальной реальности, где HMD можно отредактировать, чтобы обеспечить естественную связь без устройства отображения на пути. Многие из этих творческих вариантов использования уже были показаны в некоторых из наших предыдущих исследований, которые мы проводили с нашими международными исследовательскими партнерами, например, см. Страницы проектов HeadOn, FaceVR и VDub.
Неправильное использование:
К сожалению, помимо многих положительных и творческих вариантов использования, такая технология также может быть использована не по назначению. Например, видео могут быть изменены со злым умыслом, например, неуважительно по отношению к человеку в видео. В настоящее время модифицированные видео по-прежнему содержат много артефактов, что позволяет легко обнаружить большинство подделок. Трудно предсказать, в какой момент времени такие модифицированные видео будут неотличимы от реального контента для нашего человеческого глаза. Однако, как мы обсудим ниже, даже в этом случае модификации все еще могут быть обнаружены алгоритмами.
Значение:
Наша обязанность как исследователей состоит в том, чтобы показать и обсудить как большой прикладной потенциал, так и потенциальное неправильное использование новой технологии. Мы считаем, что все аспекты возможностей современных подходов к модификации видео должны обсуждаться открыто. Мы надеемся, что многочисленные демонстрации нашего подхода также вдохновят людей более критически относиться к видеоконтенту, который они потребляют каждый день, особенно если нет доказательств происхождения. Мы считаем, что область цифровой криминалистики должна и будет получать гораздо больше внимания в будущем для разработки подходов, которые могут автоматически подтверждать подлинность видеоклипа. Это приведет к еще более совершенным подходам, которые смогут обнаруживать такие модификации, даже если мы, люди, не сможем заметить их своими глазами (см. комментарии ниже).
Обнаружение:
Недавно представленные системы демонстрируют необходимость постоянного улучшения алгоритмов обнаружения мошенничества и водяных знаков. Мы считаем, что области цифровой криминалистики будет уделяться большое внимание в будущем. Следовательно, важно отметить, что детальное исследование и понимание алгоритмов и принципов, лежащих в основе современных инструментов редактирования видео, которые мы проводим, также является ключом к разработке технологий, позволяющих обнаруживать их использование. Этот вопрос также представляет для нас большой интерес. Методы обнаружения манипуляций с видео и методы редактирования видео основаны на очень похожих принципах. На самом деле алгоритм обнаружения модификации Deep Video Portraits в каком-то смысле разработан как часть алгоритма Deep Video Portraits. Наш подход основан на условной генеративно-состязательной сети (cGAN), состоящей из двух подсетей: генератора и дискриминатора. Эти две сети совместно обучаются на основе противоположных целей. Цель генератора — создавать видео, неотличимые от реальных изображений. С другой стороны, цель дискриминатора состоит в том, чтобы обнаружить синтетически сгенерированное видео. Во время обучения цель состоит в том, чтобы поддерживать равновесие между обеими сетями, т. Е. Дискриминатор должен быть в состоянии выиграть только в половине случаев. Основываясь на естественной конкуренции между двумя сетями и их тесном взаимодействии, обе сети становятся более изощренными в своей задаче.
Обратите внимание, что обнаружение (двоичная классификация) в целом является более простой задачей, чем создание изображения, а это означает, что всегда будет возможно обучить высокоточный детектор при любом конкретном подходе к подделке изображения. Мы провели несколько экспериментов в этом направлении, которые показывают — несмотря на то, что видеомодификации становятся все более незаметными для человеческого глаза — мы всегда можем обучить очень эффективные дискриминаторы для обнаружения таких модификаций. Ниже приведен пример такой сети, которая способна четко обнаруживать модификации Deep Video Portraits в этой видеопоследовательности. Сеть может даже информировать пользователя, куда он «смотрит», чтобы принять решение (известная как «карта внимания»), например, для следующих трех измененных кадров:
Наши первые результаты также подтверждаются более масштабным недавним исследованием обнаружения подделок.
Уже существует множество методов, необходимых для обеспечения подлинности видео и четкой маркировки видео с изменениями; другие должны постоянно совершенствоваться вместе с новыми инструментами для редактирования видео. Мы считаем, что в будущем исследования многих творческих применений редактирования видео могут и должны сопровождаться постоянно совершенствующимися методами обнаружения подделок — в идеале в тандеме. Исследования, подобные нашему, создают методическую основу для обоих. Компании-разработчики программного обеспечения, намеревающиеся предоставлять расширенные возможности редактирования видео на коммерческой основе, могли бы четко помечать водяными знаками каждое отредактированное видео и даже четко обозначать — как часть этого водяного знака — какая часть и элемент сцены были изменены. Ни один творческий пользователь таких методов не будет возражать против такого водяного знака.
Благодаря нашим фундаментальным исследованиям мы в будущем будем вносить дополнительный вклад как в творческие приложения, так и в предотвращение злонамеренного использования таких технологий. В другом направлении нашего исследования мы также изучаем вопросы личной конфиденциальности в коллекциях изображений сообщества и показываем, что инструменты редактирования изображений могут использоваться для повышения конфиденциальности людей на фотоплатформах сообщества.
Резюме:
Подводя итог, можно сказать, что новые методы редактирования видео в будущем позволят создать новые великолепные творческие и интерактивные приложения, которыми смогут наслаждаться обычные пользователи.