Среда , Июнь 3 2020
Домой / Android / Deepfake

Deepfake

Twitter

Google+

Стрессовый мир будущего, мир интеграции реального и
виртуального миров.

Deepfake

Во второй половине прошлого века вышел в свет замечательный советский телесериал «ТАСС уполномочен заявить…», повествующий о противостоянии разведок лидеров двухполярного мира. Оружие, наркотики, скрытые убийства, девушки и юноши с низкой социальной ответственностью — все то это советские люди уже видели, но одна сцена из фильма делает его особенным. Возможно, сценариста Юлиана Семенова вдохновила французская картина «Фантомас», возможно, и нет, но, пожалуй, впервые был показан процесс перевоплощения одного человека в совершенно другого. Да, без спецэффектов не обошлось, но эта яркая сцена заставляла задумываться о зыбкости мира, о том, что то, что мы видим, совсем не обязательно является тем, о чем мы думаем. Фильм настолько впечатлил руководство страны, что в 1984 году был удостоен премии КГБ СССР.


Та самая сцена

Современное бытие уже в значительной степени вошло в виртуальное пространство,
которое конечный пользователь контролирует в очень ограниченном режиме. Весь
контроль можно описать процессом включения и выключения, мы либо соглашаемся с
навязываемыми правилами игры, либо нет. В сферу получения виртуальных услуг можно
включить различные видеоконференции формата «продавец — покупатель», «государство
— гражданин», «юр. лицо – физ. лицо» и т.д. Любая область взаимоотношений, где
средством коммуникации выступает сеть Интернет или даже телефонный кабель, является крайне ненадежной. До
сих пор существует способ мошеннического отъема денег, когда родителям звонят
от имени их ребенка и просят «прислать денег», указывая различные бытовые ситуации
как аргумент. Со временем большинство из нас научились не верить таким звонкам,
но что делать, если это будет видеозвонок через надежный мессенджер и мы не сможем отличить живого человека
от его виртуальной проекции? Вот еще несколько примеров того, где встречаются
случаи подмены человека его копией:

Образование

Дистанционное обучение всегда было подвержено легкому обману со стороны учащихся, и главной причиной выступает то, что преподаватель может ни разу не видеть своего ученика до момента сдачи экзамена или защиты диссертации. Наверняка все слышали истории о том, как предприимчивые студенты посылали вместо себя «на сдачу» подкупленных специалистов или аспирантов. Некую гарантию давало применение в процессе обучения видеосвязи (по «Скайпу» и его аналогам), но при развитии инструментов для создания электронных клонов обычной станет ситуация, когда за личиной прыщавого юнца-студента будет скрываться заслуженный профессор. Успеет ли перестроиться система образования? Сколько бездарей и ленивых двоечников успеет проскочить в лазейку? Лазейку, которая всегда образуется при скачке технологий и традиционно заторможенной реакции законодателей.

Deepfake

Тем же, кто считает проблему высосанной из пальца, советую почитать данный материал, опубликованный на сайте Московского государственного университета имени М. В. Ломоносова, который говорит о том, что спрос на студенческое клонирование стабильно высокий.

Криминал

Помимо многочисленных случаев мошенничества на доверии,
нельзя пройти мимо прикладного значения такого понятия, как алиби. Уже сейчас в
ходе подготовки преступления возможно подготовить алиби с применением
технических средств и качества,
достаточного, чтобы смутить судью и присяжных (но не экспертов). В день
совершения преступления в абсолютно
другом месте на фоне ориентиров, недвусмысленно указывающих дату и время, человек,
очень похожий фигурой на исполнителя преступления, фиксируется на видеокамеру.
А теперь представьте себе, что на голову двойника надет зеленый надувной шарик,
дающий удобный фон для наложения портрета настоящего исполнителя, который в это
время совершает преступление в другой локации. Хлопотно? Да. И дорого тоже, но
технически возможно. По сути, мы говорим о замене привычного актерского грима
на грим электронный, который в случае развития технологии AR (дополненная реальность) до режима «в
реальном времени» сделает работу полиции еще сложнее.

Обман «во
благо»

Еще одним применением технологии создания виртуальной ситуации
с участием (или неучастием) заинтересованного человека является такая
приземленная вещь, как обман
себе во благо. Обман
жен и начальников, заимодавцев и клиентов. Услуги такого рода в наши дни
настолько распространены, что соответствующие агентства успешно трудятся,
открыто и с рекламой. Зайдем на сайт типичного агентства и посмотрим на современный
арсенал и услуги как бы «благодетелей», действующих как бы «во благо»:

  • Предварительная
    консультация
  • Разработка сценария алиби
  • Услуги актеров
  • Предоставление необходимых
    документальных подтверждений алиби (при необходимости)
  • Фото и видеомонтаж (при
    необходимости)
  • Проведение анонимных покупок
  • Подготовка документальных
    свидетельств (чеки, билеты, брони отеля)

Средний ценник на подобные услуги начинается от 10 000 рублей,
а от аргументов компаний «за» использование их услуг шершавит совесть:

Clubtrade: Наши специалисты спасли уже не одну сотню семейных отношений, помогли не потерять дружбу, отвести все необоснованные обвинения и подозрения от многих людей, которые к нам обращаются. Мы разработаем целый стратегический план, способный обмануть во благо, ради сохранения счастья и взаимопонимания в доме, даже самого несговорчивого и недоверчивого человека.

Расскажите, считаете ли вы такой подход морально приемлимым, или вы сторонники классического выражения «Ад полон добрыми намерениями и желаниями» (из книги Джорджа Герберта Jacula prudentium).

В свете эволюции технологии AR+ и её частного случая в виде клонирования людей и событий такие агентства
и услуги станут еще достовернее, и ревнивым
домохозяйкам, суровым начальникам и прочим вопрошателям «ты где был?» станет еще
сложнее отделить правду от лжи.

Развлечения
и улучшение внешности

Изменение собственной физиономии ради развлечения или ее улучшения
– это, пожалуй, единственный легальный способ применения AR-технологии в отношении индивида. Встроенную
AR-функцию можно
встретить как в продукции А-брендов, так и в продуктах попроще, а возможность «увеличения
глаз» и замазывания «бдыщиков» является реальным драйвером продаж для женской половины
потребителей.

Deepfake

DeepfakeБольшинство женщин юго-восточной Азии мечтают отбелить кожу до уровня «Белоснежка», и, наверное, это единственное место на Земле, где еще можно зарабатывать на позиции «оператор Adobe Photoshop». Сколько им осталось? Год? Два?

А ведь все начиналось с безобидных объектов, которые можно было
добавлять на готовую фотографию, таких как текст и простенькие аппликации. Но угроза
кроется не в обработке статичного изображения, не в этих бантиках и шляпках, а
в синхронизации виртуальных изменений с временем реального мира.

Политика

В связи с бурной политической жизнью многие забыли, как это
ни странно, что же это такое. Это совсем не ругательное слово, не грех будет
напомнить его академическое значение:

Политика (др.-греч. πολιτική «государственная деятельность») — деятельность органов государственной власти и их должностных лиц; а также вопросы и события общественной жизни, связанные с функционированием государства. Научное изучение политики ведётся в рамках политологии.

Как видно из определения, этот нескончаемый процесс влияет
на жизнь всех и каждого, а любознательные могли заметить, что приемы и способы
управления государством не менялись со времен раннего неолита, с первобытнообщинного
строя, что менялись и расширялись (в понятийном смысле) только названия и
определения, но не сама суть. Штраф заменил удар дубиной по лбу, парламент
заменил совет старейшин, президент заменил военного вождя, а по-настоящему правит
тот, кто контролирует появление и распространение старушечьих сплетен, так
называемую «народную молву», СМИ по-современному. Умный вождь перед каждым радикальным
изменением устоев распускает нужные слухи, готовит благоприятные условия,
способствующие принятию изменений в обществе. Касается это не только
внутренней, но и внешней политики, ведь мир неоднократно был перекроен
благодаря публично заявленной лжи. За примерами далеко ходить не надо,
достаточно вспомнить события вокруг Югославии, Ирака и Ливии, миллионы убитых обязаны
своей смертью лжи, произнесенной политиком с высокой трибуны. Как жаль, что это
не реклама стирального порошка, как метко подметил один из комментаторов под
этим видео.


Колин Пауэлл в роли бабки-сплетницы.

Насколько легче станет управлять общественным мнением, если нужные
новости с любым сюжетом можно будет делать, не выходя из комнаты? С любым
количеством персонажей, в любой локации, с любыми спецэффектами? От этого
становится страшно, ведь тогда не получится снять на видео и поделиться в соц.
сетях процессом изготовления «фейкового сюжета», как это произошло с CNN в
Лондоне, к примеру. Потенциально огромный ущерб и полное отсутствие контроля со
стороны адресата — вот что такое Deepfake на высоком технологическом
уровне.

На каком
этапе технология сейчас?

Нарисовать или снять любой сюжет можно уже сейчас, это только
вопрос денег и времени, но первые ласточки «в реальном времени» уже защебетали.

Прошлым летом на Android и iOS вышло действительно хорошо работающее приложение для создания интересных «гифок» с лицом пользователя Morphin.

Приложение оказалось весьма популярным, а некоторые пошли
еще дальше и стали создавать целые ролики с использованием чужих лиц (не своих)
при помощи Morphin и Adobe.

В сентябре 2019 года появился и просуществовал пару дней сервис
ZAO в
рамках ресурса WeChat.
Сервис предлагал наложение лица пользователя на любое видео с последующей публикацией
в WeChat, возможностью «расшаривания»
ссылки на получившееся видео и приглашения новых пользователей. Юридические вопросы к политике
безопасности пользовательских данных и ощущение общей опасности такого подхода поставили
временный запрет на ZAO,
но в сети накопилось достаточно удачных примеров Deepfake:

В 2015 году прогремел украинский стартап Looksery, созданный одесситами и потом
проданный Snapchat. Чуть позже один из основателей Looksery Виктор
Шабуров создал и продал в конце 2019 года той же Snapchat компанию AI Factory. В обоих случаях мы
имеем дело со сканированием (компьютерное зрение) лица и наложением одного
изображения на другое в режиме
реального времени, учитывающим
перспективу, фокус и т.д. Если вы пользуетесь Snapchat, то уже сейчас можете открыть
функцию Cameos и приделать свое лицо к любому видеоролику, на который Snapchat обладает
эксклюзивными правами.


Looksery 2015 год


Cameos конец 2019 года

В сети ходят слухи о разработке функции Deepfake популярной
среди школьников соцсетью TikTok,
но пока ничего конкретного найти не удалось.

Как
противостоять? (вместо выводов)

Писатели фантасты, как всегда, опередили свою эпоху, и все, что они предрекали, сбывается в самом худшем из
вариантов. Тут и Пелевин с его «Поколением П», и Джордж Оруэлл с его «1984», и
Энтони Берджесс с  его «Заводным апельсином»,
и бесконечная череда классиков до них. Процесс начался, и появление неотличимых
от реальности пакетов информации Deepfake не за горами. С одной стороны
стоят те, кто может и хочет виртуализировать наше информационное пространство,
а с другой стороны находится человек, от одного лишь здравого ума которого зависит, верить или нет.
Именно верить, потому что проверить полученную информацию он не в состоянии в отсутствие
технических средств.


Нейронная сеть Vera Voice готова к массовому внедрению. А мы готовы к этому внедрению?

И все-таки есть кое-что, какие-то слабые наметки, которые
дают призрачный шанс на появление таких инструментов. Одним из них может стать антиплагиаторский
ресурс, подобный Advego.com или
Text.ru, сопряженный с распознаванием текста
из голосового сообщения. В обратном режиме работы при сравнении речи виртуального оратора с его речью, записанной
ранее, мы сможем с большой долей вероятности отличить оригинал от подделки.
Ведь словарный запас и манера общения у взрослого человека меняются ох как нечасто.

Друзья, готовы к виртуальному миру будущего?

источник

Проверьте также

ИИ против ИИ

Twitter Google+ Волна искусственного интеллекта прошла по всей планете и сделала умнее не умные ранее ...

Добавить комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте как обрабатываются ваши данные комментариев.