Поддержите The Moscow Times

Подписывайтесь на «The Moscow Times. Мнения» в Telegram

Подписаться

Позиция автора может не совпадать с позицией редакции The Moscow Times.

Пользователь в окружении: как социальные сети меняют политические ориентиры

Социальные сети перестали быть просто технической инфраструктурой общения. Сегодня они стали одной из главных сред, в которой люди получают новости, обсуждают политику и формируют представления о происходящем.
Нарочно попросили иллюстрировать эту статью искусственный интеллект, работающий на платформе X
Нарочно попросили иллюстрировать эту статью искусственный интеллект, работающий на платформе X Grok

Работа Екатерины Журавской, Жермена Готье, Роланда Ходлера и Филины Видмер

Поэтому меня давно интересует вопрос: являются ли социальные сети лишь зеркалом общества или все-таки рычагом, способным менять взгляды людей?

Алгоритмы вовлеченности

Этот вопрос особенно важен потому, что современные платформы уже давно не просто показывают нам сообщения в порядке времени публикации. На таких платформах, как X, Facebook, Instagram или LinkedIn, хронологическая лента — от самых новых сообщений к более старым — все чаще заменяется алгоритмической лентой рекомендаций. Это значит, что пользователь видит не просто посты тех аккаунтов, на которые подписан, а прежде всего те сообщения, которые система считает наиболее вероятными кандидатами на его внимание. Иначе говоря, алгоритм не просто сортирует информацию: он активно выстраивает порядок видимости, выдвигая одни сообщения на первый план и делая другие почти незаметными, даже если они опубликованы аккаунтами, на которые человек сознательно подписался.

Такие алгоритмы создаются не для того, чтобы обеспечить пользователю максимально сбалансированную или максимально полезную информационную среду. Их основная цель — вовлеченность. Они оптимизируют клики, лайки, ответы, репосты, время, проведенное на платформе, а иногда и покупки.

Именно поэтому есть все основания ожидать, что они могут иметь социальные и политические последствия. Если система устроена так, чтобы удерживать внимание, она вполне может систематически отдавать предпочтение более эмоциональному, конфликтному, провокационному или поляризующему контенту. А если пользователь изо дня в день чаще сталкивается с одними темами, одними интонациями и одними интерпретациями событий, чем с другими, было бы странно заранее предполагать, что это совсем никак не скажется на его восприятии политики.

Именно поэтому опасения по поводу рекомендательных алгоритмов никогда не казались мне надуманными. Они могут укреплять уже существующие убеждения, включая ложные представления, усиливать внимание к крайним позициям и формировать поляризованную информационную среду, которую часто описывают как «пузыри фильтров».

Но несмотря на эти вполне интуитивные опасения, предыдущие исследования показали, что отключение алгоритмов рекомендаций не влияет на политические убеждения. Это был важный, но в то же время не вполне понятный результат.

Гипотеза подтвердилась

Многие восприняли его как доказательство того, что тревоги по поводу политического влияния платформ преувеличены. В частности, из этого нередко делали более широкий вывод: если отключение алгоритмов ничего не меняет, значит, не стоит говорить, что Facebook мог сыграть существенную роль в избрании Дональда Трампа в 2016 году. Но такой вывод из результатов проведённого ранее исследования, которое опубликовано в журнале Science, на мой взгляд, был преждевременным. Если смотреть только на то, что происходит в момент отключения алгоритма, можно не заметить более медленный и более глубокий механизм его воздействия. Вполне возможно, что эффект проявляется не мгновенно и не исчезает сразу, а накапливается со временем — постепенно, через изменение самой информационной среды, в которой живет пользователь.

Именно эту гипотезу мы решили проверить в исследовании, которое я провела вместе с коллегами.

Мы изучали платформу X в США летом 2023 года — в тот момент пользователи могли выбирать между двумя типами ленты: хронологической лентой «Подписки» и алгоритмической лентой «Для вас». Это дало нам редкую возможность напрямую сравнить два способа организации одного и того же цифрового пространства. (С января этого года и «Подписки» тоже дают алгоритмическую ленту, если дополнительно не выбрать специальный хронологический режим в настройках.) Мы случайным образом распределили пользователей между этими двумя режимами и платили им за то, чтобы они сохраняли назначенную настройку в течение семи недель. Часть пользователей переходила с одной ленты на другую, часть сохраняла исходный режим. Благодаря этому мы могли отдельно наблюдать последствия как включения, так и отключения алгоритма — для потребляемого контента, вовлеченности, политических установок и выбора новых подписок.

Нас интересовало не только то, что именно люди видят в своей ленте, но и то, меняются ли под влиянием этого их взгляды. И результат оказался важным из точки зрения понимания влияния алгоритмов и с точки зрения интерпретации предыдущих исследований. Мы обнаружили, что переход на алгоритмическую ленту смещает некоторые политические установки в более консервативную сторону. Пользователи, которым показывали алгоритмически отобранный контент, начинали придавать большее значение темам, традиционно акцентируемым республиканцами, — таким как инфляция, иммиграция и преступность, — и меньшее значение вопросам, которые чаще подчеркивают демократы, например здравоохранению и образованию. Они также чаще занимали позиции, благоприятные Дональду Трампу, и были более склонны менее позитивно воспринимать поддержку Украины Соединенными Штатами Америки.

Уйти и не вернуться

Важно, однако, понимать, что речь не идет о грубой и прямолинейной пропаганде. Эффект алгоритма работает гораздо тоньше. Он не столько навязывает пользователю готовые убеждения, сколько систематически меняет его информационное окружение. Алгоритмическая лента X содержит более высокую долю политического контента, чем хронологическая лента. Более того, внутри политического контента она заметно чаще продвигает материалы правого толка. Она также показывает больше контента от политически ангажированных инфлюенсеров и активистов и меньше — от традиционных СМИ. Иными словами, алгоритм не просто делает ленту более «интересной» или более «живой». Он меняет структуру публичной видимости: какие темы кажутся срочными, какие интерпретации событий чаще повторяются, какие голоса звучат громче, а какие отступают на задний план.

Это важно еще и потому, что традиционные медиа в демократическом обществе выполняют особую функцию. Конечно, они не идеальны и не свободны от ошибок или предвзятости. Но именно они, как правило, обеспечивают более устойчивые профессиональные стандарты проверки фактов, разделения новостей и комментариев, ответственности за публикацию. Когда алгоритм систематически вытесняет такой контент и заменяет его эмоциональными, активистскими и конфликтными сообщениями, он меняет не только стиль ленты, но и качество информационной среды, в которой пользователь ориентируется в политике.

Но самый важный результат нашего исследования состоит в том, что алгоритм влияет не только на то, что человек видит сегодня, но и на то, как будет устроено его информационное окружение завтра. Пользователи, переведенные на алгоритмическую ленту, чаще начинали подписываться на новые аккаунты, в частности на аккаунты политических активистов, особенно правого толка. То есть алгоритм не просто временно подсовывает человеку тот или иной контент. Он подталкивает его к новым источникам информации и тем самым перестраивает его дальнейшую медиасреду. И когда алгоритм затем отключается, эта новая структура информационного пространства сохраняется. Люди не отписываются автоматически от новых источников, которые они начали читать под воздействием алгоритмической ленты. Поэтому мы и наблюдаем асимметрию: включение алгоритма меняет взгляды, а выключение почти не возвращает их назад.

Мина под демократию

Именно этот результат, на мой взгляд, помогает по-новому понять и более ранние исследования, в том числе исследование Meta, которое многие интерпретировали как доказательство того, что алгоритмы политически незначимы. Если алгоритм уже успел изменить круг источников, на которые ориентируется человек, то простое возвращение к хронологической ленте уже не устраняет последствия предыдущего воздействия. Алгоритм оставляет после себя след — не только в том, что человек видит, но и в том, на кого он подписан, кому он доверяет, какие темы считает важными и какие интерпретации ему кажутся привычными. Поэтому из факта, что отключение алгоритма не вызывает немедленного «обратного эффекта», совсем не следует, что сам алгоритм ничего не меняет.

Для меня ключевой вывод состоит в том, что алгоритмы не являются политически нейтральными архитектурами. Они формируют пространство внимания. Они решают, какие темы оказываются в центре общественного разговора, какие голоса звучат громче, а какие уходят на периферию. Они не диктуют пользователю, что думать, в лоб, но они существенно влияют на то, о чем он думает чаще, с какими аргументами сталкивается, какие эмоции переживает и какие источники постепенно начинают занимать центральное место в его информационном мире. А именно это и есть один из важнейших механизмов формирования политических установок.

Социальные сети стали ключевым источником информации для миллионов людей. И от того, по каким принципам работает алгоритм, зависит не только медиапотребление, но и политическая динамика в целом. Именно поэтому сегодня необходим серьезный разговор о прозрачности алгоритмов и о принципах их регулирования в демократических обществах.

Особенно тревожно то, что рекомендательные системы могут систематически оттеснять контент традиционных медиа, оставляя многих пользователей без надежных ориентиров в информационном потоке. Такой способ организации публичного пространства нельзя считать нейтральным техническим решением.

Это вопрос общественного устройства — и, в конечном счете, вопрос демократии.

читать еще

Подпишитесь на нашу рассылку