Часть из них также исходила от алгоритмов Facebook. Как только Facebook узнал, что его "Группы, в которые вам стоит вступить" подпитывают немецкий экстремизм в 2016 году, платформа, как оказалось, необычайно любит рекомендовать QAnon.
Этот феномен не стал неожиданностью: рекомендательные системы, подобные той, что использует Facebook, неизбежно пытаются "завести" пользователей, и чем непонятнее их интересы, тем лучше. Знание о том, что кто-то увлекается греко-римской борьбой, помогает Facebook персонализировать его ленту больше, чем знание о том, что ему нравится футбол. Теории заговора, такие как QAnon, имеют именно такую узкую, но глубокую привлекательность.
Исследователи компании использовали несколько методов, чтобы продемонстрировать притяжение QAnon, но самое простое и наглядное доказательство было получено при создании тестового аккаунта и наблюдении за тем, куда его завели алгоритмы Facebook.
Создав фиктивный аккаунт для "Кэрол" - гипотетической сорокадвухлетней консервативной женщины из Уилмингтона, Северная Каролина, чьи интересы включали семью Трампа, Fox News, христианство и воспитание детей, - исследователь наблюдал, как Facebook направляет Кэрол от этих основных интересов к более темным местам.
Уже через день рекомендации Facebook "отклонились в сторону полярного контента". А через неделю Facebook стал продвигать "шквал экстремального, конспирологического и графического контента".
Проблема была не только в ленте новостей. Это были рекомендации страницы , предложения просмотреть "похожие посты" и даже уведомления. В статье исследователя содержался призыв к действию: если Facebook собирается так активно продвигать контент, компания должна быть более разборчивой в том, что она продвигает.
В более поздних записях будет признано, что эти предупреждения остались без внимания.
Можно с уверенностью сказать, что из миллионов пользователей Facebook, которые со временем вступили в группы, посвященные этому заговору, многие не были его реальными адептами. Но уже к осени 2019 года правоверные QAnon совершили несколько странных преступлений - заблокировали мост через дамбу Гувера, похитили людей, захватили цементный завод, а исследователи пользовательского опыта компании получили больше информации о странном заговоре, чем многие другие.
Один из директоров Facebook вспоминает встречу с пользователем в Лас-Вегасе - обычном месте для исследователей пользователей, пытающихся выбраться из культурного пузыря района залива, чтобы набрать испытуемых. Обстановка была ничем не примечательной: один из сотрудников директора опрашивал нескольких пользователей Facebook об их активности на платформе, а директор и его коллега сидели за односторонним зеркалом в арендованном офисном помещении для маркетинговых исследований. Объекты были намеренно разнообразными, а профессионально подготовленный сотрудник Facebook, проводивший интервью, задавал строго нейтральные вопросы. Но одна из участниц интервью, белая женщина средних лет, смотрела на происходящее иначе.
В ее постах, в основном повторных, было много "Сделаем Америку снова великой" и материалов QAnon, и она казалась подозрительной даже на самые простые вопросы о том, как она использует Facebook.
Женщина начала жестикулировать, а затем повысила голос. Поначалу режиссеру показалась забавной несговорчивость испытуемой. Но по мере того как интервьюер пытался успокоить женщину и не смог, он и его коллега начали обмениваться обеспокоенными взглядами.
Черт возьми, подумал режиссер. Она собирается пересечь стол.
За односторонним стеклом директор и его коллега поднялись со своих мест. Они остались стоять, пока интервьюер торопливо , готовый ворваться в комнату, если женщина набросится на нее.
"Мы это поняли", - сказал он. "Наши пользователи - сумасшедшие".
-
В преддверии выборов 2020 года, когда большая часть работы была завалена политическими и продуктовыми командами, Civic нужно было сделать что-то смелое. Поэтому она сделала слайд-колоду.
Вложенная в презентацию PowerPoint, которую Самидх Чакрабарти, Каушик Айер и другие создавали в конце лета, таблица с цветовыми кодами сопоставляла серьезность потенциальных кризисов с уровнем готовности Facebook к их преодолению. Когда документ начал собираться воедино, Чакрабарти поделился им с Кэти Харбат.