Помню, в том году по интернету вирусилось шоу каких-то комедиантов, где они делали себе чужое лицо и голос, а потом звонили разным политикам, актёрам, певцам и «разводили» их на странные ответы, задавая странные вопросы.
Народ хохотал, злорадствовал и выкрикивал фразочки типа «вот умора», «глядите-ка, они поверили».
На деле же за всей этой фантасмагорией скрывается серьёзная проблема. И завтра обманутому обывателю, которого развели на деньги мошенники, используя лицо и голос любимого человека, уже не будет так смешно.
Представьте себе картину: утро понедельника, вы, как обычно, проклинаете будильник и тянетесь за телефоном. А там – видеосообщение от вашего начальника. Он, с лицом человека, познавшего вселенскую скорбь (и слегка помятым после выходных), сообщает, что компания переходит на четырехдневку, зарплату всем повышают вдвое, а в офисе устанавливают бесплатный автомат с мороженым. Вы уже готовы плясать джигу на столе, как вдруг… вспоминаете, что ваш начальник – ярый трудоголик, слово «мороженое» считает ругательством, а последнюю премию выписывал еще при царе Горохе.
Что за зверь такой, этот ваш дипфейк?
Если по-простому, дипфейк (от "deep learning" – глубокое обучение, и "fake" – подделка) – это когда хитрый искусственный интеллект берет фото или видео одного человека и «натягивает» его, как маску, на другого. Или заставляет говорить то, чего тот отродясь не говорил, да еще и голосом, неотличимым от оригинала. Раньше для таких фокусов нужны были голливудские студии и бюджет маленькой африканской страны. Сегодня – достаточно мощного компьютера, прямых рук и некоторого количества этических… э-э-э… гибкостей.
Ну, или пиратские сайты, предоставляющие такие услуги, где уже есть готовые шаблоны почти всех знаменитостей:
Просто выбираете персонажа и записываете всё, что хотите его голосом и внешнем видом
Помните вирусные ролики, где Том Круз внезапно начинает вытворять странные вещи в TikTok, или где исторические личности оживают и читают рэп? Это цветочки. Ягодки начинаются там, где дипфейки выходят на тропу войны – информационной, политической, да и просто бытовой.
«Не верь глазам своим (и ушам тоже)!»
Сначала это казалось забавной игрушкой. Ну, подставили лицо Николаса Кейджа во все фильмы подряд – хихикнули и забыли. Но технология не стояла на месте. И вот уже появляются:
Политические «бомбы»: Представьте: накануне выборов всплывает видео, где кандидат X признается в любви к коррупции и тайком ест котят. Рейтинг – в труху, страна – в шоке. А потом выясняется, что это фейк. Но осадочек-то остался!
«Порноместь» нового уровня: К сожалению, одна из самых мерзких областей применения. Берется фото человека, и вот он уже звезда фильмов для взрослых. Докажи потом, что ты не верблюд.
Мошенничество класса «люкс»: Звонит вам «директор» и голосом, ну вылитый директор, просит срочно перевести кругленькую сумму на «очень важный счет». Некоторые уже повелись.
Дискредитация кого угодно: Не понравился вам сосед? Сделайте дипфейк, где он поет гимн Багамских островов нагишом на детской площадке. Шутка, конечно (надеюсь, у вас нет таких соседей!), но технически – возможно.
И вот тут мы подходим к главному вопросу: а когда же наступит тот момент, когда мы перестанем отличать правду от искусной подделки?
Есть подозрение, что для некоторых типов контента этот момент уже наступил. Если фейк сделан качественно, на его разоблачение уходят часы, дни, а то и недели экспертиз. А за это время он успевает наделать шуму, распространиться по соцсетям со скоростью лесного пожара и прочно засесть в головах.
«А был ли мальчик?» или Эрозия доверия
Самое паршивое в этой истории даже не сами фейки, а то, что они убивают доверие. К видео, к аудио, к фотографиям. Скоро мы будем смотреть на подлинную запись и думать:
«Хм, а не нейросеть ли это постаралась? Уж больно гладко говорит, и освещение какое-то подозрительное…»
Это явление уже получило название «дивиденд лжеца». Когда фейков становится так много, что даже реальные события можно списать на подделку. Любая публичная личность начнет пользовать отговоркой:
«Это всё дипфейк, вы ничего не докажете!» – и поди разберись.
Конечно, технологии обнаружения дипфейков тоже развиваются. Компании создают специальные алгоритмы, которые ищут микроскопические артефакты, несоответствия в освещении, странное моргание (ранние дипфейки этим грешили). Но это вечная гонка вооружений: создатели фейков тут же учат свои нейросети обходить эти защиты. Как тараканы и дихлофос. Тараканы всегда на шаг впереди.
Мы уже давно вошли в мир, где любая реальность может быть сфабрикована, – это, конечно, не самое уютное место. Но, с другой стороны, это отличный повод почаще включать мозги. И, возможно, чуть больше доверять живому общению. Хотя… кто знает, может, ваш собеседник уже давно голограмма с искусственным интеллектом, а вы и не заметили?
Ладно, это уже паранойя. Или будущее? Время покажет.
Мой телеграмм канал - нейросети и мракобесие в одном флаконе- Дмитрий Джулиус