Какие тренды смогут в большей степени продвинуть распространение технологий искусственного интеллекта? Одним из таких трендов вполне может стать изготовление глубоких фейков.
Глубокий фейк — это визуальное или аудиовизуальное сообщение, обладающее всеми признаками реального, но которое, однако, является ложью, искусной имитацией. Новейшие достижения нейросетей и машинного обучения позволяют редактировать аудио или видеозапись, полученную «естественным» путем, чтобы добиться нужного эффекта. Можно создать и полностью фейковое видео, хотя это потребует больше ресурсов — ведь так или иначе, данные нужно откуда-то брать.
Не так давно соцсети обошла подделка выступления действующего президента США, где он говорил абсурдные вещи, сопровождая свою речь гримасами и ужимками. Создавалось полное впечатление, что говорит именно Трамп — настолько искусно все было сделано. Но на самом деле это был «глубокий фейк» изготовленный при помощи нейросетей. Его создатели взяли запись американского актера Алека Болдуина, который превратил свое пародирование Трампа в профессию. Затем ИИ превратил лицо загримированного под Трампа актера в лицо «Трампа», и провел эту операцию через весь кусок записи. Таким образом, ужимки Болдуина стали «трамповскими». Что касается звука, то его просто подстроить под нужный тембр, тем более что у Болдуина и так неплохо получается. В итоге был готов кусок записи, который с виду не отличается от реального, будучи абсолютным фейком.
Как искусственный интеллект это делает? Начнем с того, что у нейросетей нет морали, во всяком случае, пока моральные характеристики в параметры нейроморфных чипов не включены. Да и есть ли принципиальная разница между кибернетической телеведущей и фейком Трампа? Первую изготовить сложнее, только и всего — но уже сейчас вполне можно изготовить Кибертрампа, который 24 часа в сутки 7 дней в неделю будет выдавать перлы на любом языке, бросая мысль на полпути и переключаясь на следующую, уходя в сторону рассказами о том, что сказал ему дядя тридцать пять лет назад, со всеми звуковыми эффектами коверного и неожиданными жестами, и зрители полюбят Кибертрампа не хуже оригинала, и никто не поверит в то, что это просто «душа», изготовленная по мерке, демон внутри алгоритма в коробочке с чипами, и, может быть, очень может быть, что люди уже и не захотят никакого оригинала.
Как мы читаем? Дети и неграмотные делают это сначала по буквам, потом по складам. Потом мы читаем скачками, предсказывая слова. Предсказания могут быть ошибочными, например, из-за неверных стереотипов, которые мы втемяшили себе в голову. Но мы можем продолжать обманывать себя. Вспомним парадокс Моравека и не станем удивляться тому, что проще всего обманывать себя идеями высокого уровня абстракции (такими как нация, государство, демократия, коммунизм, свобода слова, рыночная экономика и так далее).
Куда сложнее обманываться более простыми образами, такими как изображение на экране или надпись на уличном знаке. И если от абстрактных идей высокого уровня человек может отказаться — например, разочаровавшись в них, — то вряд ли вам удастся развидеть надпись на заборе. Хотя вы вполне можете сперва прочитать не то, что там написано, со второго раза и медленнее вы все прочтете правильно. Раньше фальсификации строились больше как раз на особенностях человеческого восприятия, на том, что человек принимает желаемое за действительное. ИИ очень искушен в обмане, который он умеет делать лучше правды. Подобные глубокие фейки станут частью нашей культуры и жизни, и, очень возможно, ИИ сумеет преподнести и идеи высокого уровня с убедительностью надписи на заборе — так, что мы потеряем способность отказаться даже от явных — в теории — заблуждений. Мы вроде бы понимаем, что человек в ракете стареет медленнее, но это чисто теоретическое знание. А вот кирпич, падающий нам на голову, вызывает острое желание увернуться. Так будет и с нашим восприятием правды и лжи. К правде мы будем относиться как к теории относительности, а ко лжи — как к закону тяготения.
Станет значительно легче манипулировать массами — и в этом видится еще одно, и весьма ближайшее применение нейросетей.
Собственно, фейковые данные уже сегодня вовсю используются в машинном обучении. Это делается, конечно, не с целью заморочить кому-то голову — во всяком случае, пока. Точнее, голову все-таки морочат — если так можно назвать нейросеть, которой для начала работы нужна уйма данных.
Сегодня в большом количестве выходят книжки о «больших данных», в которых каждому предприятию и организации, каждой компании рекомендуется завести своего Главного Офицера по Данным, своего Директора Данных, и срочно начинать собирать все возможные данные, на которые падет глаз. Какие-то данные можно использовать самим, какие-то лучше продать, но нам сказали, что данные — это новая нефть, поэтому давайте датаизировать всё. Есть уже и религия — датаизм, о которой которой много пишет Юваль Ной Харари. Говорят, что уже повсюду, от отделений Сбербанка до мусорных полигонов Челябинской области, тайно сооружаются небольшие храмчики датаизма, соединенные в сеть. Так или иначе, молох датаизма требует нести к нему на престол все новые и новые данные, причем размеченные.