Очередной конфликт Саудовской Аравии и Ирана усугубляется и так наличием массы проблем на Ближнем Востоке.…
Очень многие люди взволнованы возможностью конкуренции с синтетическим умом за рабочие места, однако едва ли им предоставлялась возможность представить такой план: Федеральное бюро расследований известило о ряде всевозможных случаев, когда дипфейки применялись для прохождения видеособеседования при устройстве на работу.
Выяснилось легко как распознать дипфейк, однако конфликт снова распалил обсуждение вопроса об опасности фейк-контента. Раньше Европол высказал сомнение, что дипфейки могут стать «основным инвентарем созданной преступности».
Утешает только то, что совместно с формированием дипфейков улучшаются и механизмы их обнаружения. На что смотреть, чтобы распознать фальшивку, и имеется ли место дипфейк-мошенничеству в РФ — разбирались «Известия».
Мошенники стали применять дипфейки на онлайн-собеседованиях при устройстве на работу. О волне подобных случаев известил Центр претензий на интернет-преступления Федеральное бюро расследований.
По докладу, в ход идут не только лишь голосовые, но также и видеоподделки, представляющие некоего человека в фальшивом свете. Также, мошенники используют другие имена, адреса и другую собственную информацию, которую удалось получить в итоге взлома или утечек данных.
В то же время разработанные дипфейки были неидеальны. Федеральное бюро расследований подчеркивает, что движения губ «соискателя» не сходились с роняемой им докладом. Также, определенные звуки, такие как кашель и чихание, также не отвечали действиям «кандидата».
Закрываясь дипфейками, злоумышленники выбирали должности, сопряженные с справочными технологиями и ПО. Интересно, что определенные посты включают доступ к индивидуальным данным клиентов и коллективным ИТ-базам. В общем изображенный способ вполне может быть результативен в силу собственной свежести.
Люди пристрастились верить тому, что они видят собственными глазами. Однако надо осознавать, что есть ограничения, касающиеся «естественности». Можно вспомнить такие же «роботизированные» звонки: сначала люди практически с первых сек различали «автомата» от человека. Но сегодня определенные начинают всовываться и входят в разговор с автомашиной, будучи убежденными, что беседуют с оператором, — говорит специалист.
Из-за существующих недостатков дипфейк-технология пока не дает возможность качественно вести онлайн-встречи в течение долгого времени, подчеркивает управляющий центра экспертизы компании R-Vision Георгий Ревенко. Согласно его заявлению, часть искажений мошенник может нивелировать «плохим» качеством иллюстрации, однако ненормальность чувств такое изображение скрыть не может.
Схожая ситуация с аудиодипфейками — голосовыми имитациями и имитациями. Со слов Алексея Дрозда, пока нет инструментов, которые в режиме настоящего времени позволили бы злодею свободно говорить клонированным голосом точного человека — люди используют остановки во время диалога, слова-паразиты, у определенных есть специальные речевые браки и т. д. Но некоторые конфликты все-таки встречаются.
Наверное, наиболее ослепительная история случилась несколько лет назад, когда дипфейк-мошенники позаимствовали у генерального директора английской энергетической компании $243 млн., подделав голос и акцент руководителя германского офиса, — привел пример Георгий Ревенко.
Дипфейки и до того применялись в умышленных задачах. Первоначально технология использовалась для создания порнухи. Осенью 2017 года на Reddit возникли видеоролики, в которых лица порноактрис были изменены на лица знаменитых женщин. Неизвестный клиент с ником deepfake вывел свежую технологию в мейнстрим. Спустя несколько лет порнодипфейки составили 96% от всех поддельных видео в сети-интернет, необходимо из доклада за 2019 год под наименованием «Состояние дипфейков».
В будущем клиенты могли смотреть манипуляции на иные темы — «зеленый» парламентарий фон Нотц полагает «климатическую истерию» преувеличением, а спикер конгресса США Нэнси Пелоси едва-едва управляется с выговариванием слов.
Помимо смуты и неразберихи в сообществе, фальшивые видеоролики готовы нанести ущерб целым корпорациям. Ученые нашли, что биометрические испытания, применяемые банками и криптобиржами для проверки клиентов, можно перехитрить с помощью дипфейков. 9 из 10 ведущих поставщиков KYC (сервисов идентификации клиентов) были чувствительны для таких атак. И более того, Европол высказал сомнение, что дипфейки могут стать «основным инвентарем созданной преступности».
В КНР видеоподделки были также востребованы: мошенники одурачили госсистему на $76 млрд. Они создавали от лица ненатуральных людей компании-пустышки и вручали фальшивые налоговые затратные.
В РФ пока нет подобных технологий, позволяющие бы что-нибудь оформить дистанционно, моргнув в камеру. Если же нет вариантов для монетизации, то и не надо ставить модель на платные рельсы, — заметил Алексей Дрозд из «СерчИнформ».
По статистике, самое большое число дипфейков приходится на районы, где присутствует перебор свободных вычисляемых мощностей, говорит генеральный директор по формированию направления «Киберграмотность населения» компании «РТК-Солар» Олег Седов.
До последних дней в этом плане побеждала Юго-Восточная Азия, однако я думаю, что в скором времени можно ждать всплеска дипфейков в Африканском районе, — предсказывает он. — У дипфейк-технологий есть большой «потенциал». Вспомните, насколько часто мы слышим об утечках информации, взломах аккаунтов в соцсетях. Цифровые копии могут доказать собственную личность украденными профилями, а скомпрометирован будет человек по данную сторону экрана.
Злоумышленники на самом деле используют дипфейки, однако сейчас это не глобальная история, полагает ведущий специалист данных «Лаборатории Касперского» Вячеслав Тушканов.
Согласно его заявлению, установлены некоторые ситуации, когда мошенники заимствовали виды распространенных бизнесменов в целях позаимствовать денежные средства клиентов. К примеру, персонажем дипфейка, привлекающего на жульнический сайт, не так давно стал Илон Маск — миллионер сам направил на это внимание.
Неудача в том, что не любая манипуляция различима на глаз. И более того, люди предрасположены доверять фейковым лицам больше, чем настоящим. Вчерашний опыт, проводимый учеными из Англии и Соединенные Штаты, установил для членов следующие требование: 223 человека должны были оценить фото разных людей по «шкале надежности» — кому они доверяют больше, а кому меньше.
В нарезку заходили как настоящие портреты, так и синтетические, сгенерированные ИИ, о чем испытуемым не передавалось. В конечном итоге люди рассматривали поддельные лица как немного более достойные доверия, чем истинные.
По словам специалистов, это происходит потому, что сгенерированные портреты представляют из себя комбинацию «обычного лица». Надо сказать, в другой части опыта новым участникам надо было отличить настоящее лицо от поддельного — пунктуальность составила 48,2%.
Невзирая на внутреннюю вескость, дипфейки достаточно просто отличить от настоящих видео, если знать, на что смотреть.