Выбрать главу

Алгоритмическая тревожность возникает из-за резко асимметричных отношений между пользователем и алгоритмом. Для отдельного пользователя пытаться предсказать или продиктовать результат работы алгоритма – все равно что пытаться управлять приливом. Продолжая эту метафору, можно сказать, что все, что может сделать пользователь, – оседлать уже образовавшуюся волну. У компаний нет особого стимула снижать эту тревожность, потому что замешательство пользователя может стать полезным для бизнеса. Когда продукт компании оказывается неэффективным или пользователь сталкивается с трудностями, в этом можно обвинить непрозрачную сущность “алгоритма”, который воспринимается как внешний объект относительно как пользователей, так и самой компании, поскольку уподобляется непрозрачным “черным ящикам”. Эксплуатация выдается за случайный сбой, а не за намеренную корпоративную политику. В действительности же такая компания, как Фейсбук, полностью контролирует свои алгоритмические системы и может менять их по своему усмотрению – или отключать.

Алгоритмическое беспокойство возлагает бремя действий на человека, а не на бизнес – именно пользователь должен изменить свое поведение, либо он рискует исчезнуть. Пользователи иногда жалуются на “теневую блокировку”, когда их посты или контент на платформе внезапно теряют прежний уровень интереса. Пользователи часто опасаются, что их аккаунт оказался заблокирован без предупреждения или обращения к какому-то лицу, принимающему решения; однако, возможно, просто без предупреждения изменились какие-то алгоритмические приоритеты, и нужный трафик больше не идет. Эффект возвращает нас к механическому турку: мы не всегда можем отличить работу технологии от иллюзии работы технологии, при этом восприятие может быть столь же убедительным, как и реальность.

В своей диссертации 2019 года под названием “Алгоритмическая тревожность в современном искусстве” Патрисия де Врис определила алгоритмическую тревожность как состояние, при котором “возможное «я» воспринимается ограниченным и управляемым алгоритмическими режимами”. Ее слова представляются потрясающе точными. Возможности, которые мы усматриваем для себя, – наши способы самовыражения и творчества – теперь существуют в рамках структур цифровых платформ. Последствия такого беспокойства – “алгоритмический детерминизм, фатализм, цинизм и нигилизм”, как пишет де Врис. Это приводит к ощущению того, что, поскольку мы, пользователи, не можем контролировать технологию, мы равным образом можем уступить ограничениям алгоритмической культуры и относиться к ней как к неизбежности. Многие пользователи, недовольные и неспособные представить себе альтернативу, уже впали в такое состояние отчаяния.

Де Врис стала наблюдать за этим культурным сдвигом еще в 2013 году, когда увидела несколько музейных выставок, где выставлялись работы художников, критически относящихся к автоматизированному надзору и сбору данных. Хотя алгоритмическая подача информации тогда только начала распространяться, алгоритмы попадали в заголовки новостей из-за таких событий, как резкий обвал индекса Доу Джонса 6 мая 2010 года, вызванный алгоритмической торговлей акциями, и из-за появления технологий наподобие распознавания лиц. Де Врис сказала мне, что к середине десятилетия, когда она приступала к своему исследованию, алгоритм стал “своего рода объектом нашего очарования”. Алгоритм оказался призраком, преследовавшим каждого, кто сталкивался с цифровыми платформами и их все более навязчивым присутствием в нашей жизни. Это не значит, что мы понимали, что именно делают алгоритмы: как заметила де Врис, “при страхе высоты дело не в высоте, и в алгоритмической тревожности дело не просто в алгоритмах”.

Чтобы двигаться дальше, мы должны отделить влияние алгоритмических рекомендаций как технологии от того, что мы привыкли принимать их в качестве основных контролеров нашего онлайн-общения. В конце концов, алгоритмы неотделимы от используемых ими данных, которые порождаются и постоянно обновляются людьми. Фактическое влияние сосуществует со страхом влияния, который в равной степени является манипулятивным. Алгоритмы вошли в нашу жизнь, обещая принимать за нас решения, предугадывать наши мысли и желания. Мир-фильтр представляет собой становление психического мира алгоритмов – не только то, как они работают, но и то, как мы, пользователи, полагаемся на них, позволив им вытеснить нашу собственную способность действовать – пусть даже мы начинаем возмущаться этой угрозой.