Социальные сети: зеркало или рычаг? Екатерина Журавская — о том, как алгоритм X необратимо сдвигает взгляды вправо
НАСТОЯЩИЙ МАТЕРИАЛ ПРОИЗВЕДЕН, РАСПРОСТРАНЕН И НАПРАВЛЕН ИНОСТРАННЫМ АГЕНТОМ T-INVARIANT, ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА T-INVARIANT. 18+
Ссылка для просмотра без VPN

Семь недель в алгоритмической ленте X (бывший Twitter) — и политические взгляды американских пользователей необратимо сдвинулись вправо: приоритеты сместились к инфляции, иммиграции и преступности, отношение к делам Трампа стало мягче, а позиция по войне в Украине — ближе к прокремлёвской. Отключение алгоритма почти ничего не вернуло назад. Таковы результаты независимого исследования, проведённого в 2023 году. Один из его авторов, профессор Парижской экономической школы Екатерина Журавская, недавно внесенная Минюстом в реестр «иностранных агентов», рассказала в интервью T-invariant, почему алгоритм оказался таким мощным инструментом формирования взглядов.

Эхо-камеры и храповик алгоритма

Социальные сети перестали быть просто техническим инструментом общения и источником развлекательного контента — они превратились в мощный канал формирования общественного мнения, политических предпочтений и электорального поведения. Существенная и постоянно увеличивающаяся часть населения земного шара получает новости о политике из социальных сетей. Если в XX веке массовое сознание формировали в основном газеты, радио и телевидение, то в XXI веке эту роль стали играть социальные сети. Какую информацию, в каком объеме и эмоциональном обрамлении увидит конкретный пользователь социальных сетей, определяют алгоритмы персонализации новостных лент платформ. При этом механизмы отбора остаются закрытыми и предельно непрозрачными, а их долгосрочные политические последствия до сих пор изучены недостаточно глубоко. 

Исследователи, регуляторы и гражданское общество всерьез обеспокоены: сегодня машины определяют, какие именно новости мы читаем. Обеспокоенность вызвана хорошо теоретически обоснованными гипотезами, что алгоритмическая персонификация новостных лент в социальных сетях может привести к созданию эхо-камер, информационных пузырей, алгоритмической поляризации и целенаправленного продвижения дезинформации. Особую тревогу вызывает вопрос: не превращаются ли социальные сети — вопреки своему изначальному демократическому потенциалу — в инфраструктуру систематического искажения информационной среды в пользу определенных идеологий, политических сил или даже внешних акторов? Фабрики ботов, фермы троллей, скоординированные кампании по «накачке» эмоционального контента уже много лет используются для создания ложного впечатления о настроениях большинства. Понимание того, как именно работают современные алгоритмы формирования новостной ленты и насколько они уязвимы перед такими манипуляциями, становится критически важным для оценки угроз демократическим институтам.

Главные новости о жизни учёных во время войны, видео и инфографика — в телеграм-канале T-invariant. Подпишитесь, чтобы не пропустить.

В этом контексте большой интерес представляет работа Екатерины Журавской и ее коллег из Италии, Швейцарии и Франции The political effects of X’s feed algorithm, опубликованная в журнале Nature. Это крупное независимое полевое экспериментальное исследование, которое позволило впервые надежно измерить причинно-следственное влияние алгоритма формирования ленты платформы X (бывший Twitter) на политические взгляды реальных пользователей.

Эксперимент проходил летом 2023 года — через полгода после того, как Илон Маск приобрел платформу, и примерно за год до его публичной поддержки Дональда Трампа на президентских выборах 2024 года. Ключевое обстоятельство: исследование проводилось независимо от компании X — без ее участия в дизайне, сборе данных и их анализе. Это было возможно благодаря тому, что в этой социальной сети пользователь сам мог выбрать, как формируется его лента: с помощью алгоритма (вкладка For you) или хронологически (вкладка Following). 

В эксперименте участвовали несколько тысяч активных американских пользователей. Из них три четверти изначально использовали алгоритмический порядок формирования ленты. а одна четверть — хронологическую ленту. Исследователи случайным образом приписали на семь недель каждому из этих пользователей новый порядок формирования ленты: либо алгоритмический, либо хронологический. Это позволило ответить на вопрос, как влияет включение алгоритма на пользователей, которые изначально его не использовали; и как влияет выключение алгоритма на тех, кто использовал его. Для ответа на первый вопрос было достаточно сравнить тех, кто постоянно использовал хронологическую ленту, с теми, кто изначально был на хронологической ленте, но во время эксперимента перешел на алгоритмическую. А для ответа на второй вопрос, нужно было сравнить тех, кто остался на алгоритмической ленте, с теми, кто перешел на хронологическую. 

Часть участников установила специальное браузерное расширение, которое фиксировало реальный контент ленты. Впоследствии это позволило исследователям классифицировать посты по идеологической направленности.

Результаты оказались неожиданно асимметричными:

  • Переход на алгоритмическую ленту значительно увеличил долю консервативного (правого) политического контента — даже в лентах пользователей, изначально ориентированных на демократов.
  • Включение алгоритма повлияло на политические предпочтения тех, кто раньше его не использовал. Алгоритм смещал политические установки в консервативную сторону по ряду конкретных вопросов: приоритетам политики (инфляция, иммиграция, преступность становились для пользователей более важными, в то время как образование, здравоохранение, климат — менее), оценке уголовных дел против Дональда Трампа (увеличилось число пользователей, которые считают их неприемлемыми), отношению к войне в Украине (в сторону прокремлевских позиций).
  • Эффект был наиболее выражен среди республиканцев и пользователей независимых взглядов; у убежденных демократов значимого сдвига взглядов не происходило, несмотря на рост экспозиции к правому контенту.
  • Самое важное: этот сдвиг оказался необратимым: политические взгляды не менялись при отключении алгоритма. 
  • Для объяснения асимметричности эффекта исследователи изучили поведение пользователей, а именно — на какие аккаунты они подписываются. Оказалось, что пользователи, которые раньше использовали хронологическую ленту и были переключены на алгоритм во время эксперимента, начали подписываться на аккаунты  консервативных активистов и продолжали видеть их контент даже после возврата к хронологическому порядку. Авторы обозначают это как эффект храповика (ratchet effect).
  • При этом ни включение, ни отключение алгоритма существенно не повлияло  на базовую партийную идентичность и уровень аффективной поляризации (эмоциональной враждебности между лагерями). 
  • Анализ контента показал, что алгоритм X резко снижал (на ~58 %) представленность в лентах пользователей традиционных новостных СМИ и одновременно повышал долю постов политических активистов (преимущественно правого толка), а также эмоционально заряженного контента. Именно эта замена источников — от институциональной журналистики к лидерам мнений и активистам — рассматривается как один из центральных механизмов наблюдаемого сдвига.

Примечательно, что до этого исследования был проведен эксперимент по выключению алгоритмической ленты на платформах Meta (Facebook и Instagram) в 2020 году. Этот эксперимент не выявил значимого политического эффекта от отключения алгоритма.  Многие интерпретировали этот результат как свидетельство того, что алгоритм не влияет на политические взгляды. Однако, исследование Журавской с коллегами показывает, что нельзя определить влияние алгоритма, если смотреть только на его отключение, — потому что это влияние может быть долгосрочным. Примечательно, что нулевые результаты отключения алгоритма на X и Meta совпадают — несмотря на информационную среду и приоритеты, заложенные в алгоритмы.

СПРАВКА T-INVARIANT

Екатерина Журавская — известный экономист, специалист по политической экономии, медиа, дезинформации и поведенческим эффектам цифровых платформ. Профессор Paris School of Economics и École des Hautes Études en Sciences Sociales. Много лет изучает, как информационные технологии влияют на политическое поведение и демократические процессы. Журавская редко соглашается на интервью, но в данном случае пошла на диалог, считая тему слишком важной для того, чтобы она оставалась лишь в академических кругах.

Преимущества независимости

T-invariant: Что побудило вас взяться за изучение алгоритма ленты X в 2023 году? Было ли это связано с приобретением платформы Илоном Маском, с публичными дискуссиями о ее изменениях? Или, может быть, с интересом, почему предыдущие исследования (например, платформ Meta) не выявили политических эффектов, которые, казалось бы, заметны невооруженным глазом?

Екатерина Журавская: Нас интересовал вопрос, который был недостаточно изучен: могут ли рекомендательные алгоритмы не просто менять то, что человек видит в ленте, но и влиять на его политические взгляды. Предыдущие крупные исследования, в частности на платформах Meta, не выявили эффектов от отключения алгоритма. Нам было важно понять, означает ли это, что алгоритмы в целом политически нейтральны, или же эффект долгосрочный, и его невозможно выявить, рассматривая только отключение алгоритма. X был особенно интересен, потому что в 2023 году там можно было достаточно чисто сравнить хронологическую и алгоритмическую ленты, а сама платформа уже играла заметную роль в политической дискуссии.

T-i: Ваш эксперимент — одно из немногих независимых (без сотрудничества с платформой) полевых исследований влияния алгоритмов формирования новостной ленты на политические установки. Насколько сильно это условие независимости ограничивает возможности исследователей? Много ли важного могут скрыть платформы от внимательного внешнего наблюдателя?

ЕЖ: С точки зрения бюджета — очень сильно ограничивает. Нам нужно было платить участникам, чтобы они использовали режим формирования ленты, определенный экспериментом. Кроме того, внешний исследователь не знает точных параметров ранжирования, не видит, как алгоритм меняется со временем, не наблюдает многие сигналы, на которых основана персонализация.

Но у независимого исследования есть и важное преимущество: оно не зависит от доброй или злой воли самой платформы. Можно предположить, что если платформа приглашает исследователей провести какой-то эксперимент, она уже представляет результаты и готовится интерпретировать их в свою пользу. В связи с этим возникают вопросы, почему платформа приглашает именно в конкретный период времени, а не ранее. Мы же смогли увидеть реальные последствия работы алгоритма «снаружи», хоть и не имели доступа к его внутреннему устройству.

T-i: Можно ли со стороны оценить степень ангажированности или «пропагандистской насыщенности» той или иной платформы или ее сегмента? Известны ли попытки введения таких метрик?

ЕЖ: Можно измерять идеологический состав контента, долю постов от традиционных медиа, активистов, партийных аккаунтов, а также смотреть, какие типы сообщений алгоритм систематически усиливает. Собственно, это мы и делаем. Но невозможно полностью разделить, является ли алгоритмическое изменение ленты результатом того, что алгоритм подкручен таким образом, чтобы давать приоритет определенному политическому направлению, или же алгоритм политически нейтрален, однако сообщения определенной политической направленности (в нашем случае — консервативные) заставляют больше времени пользователей проводить в сети. 

T-i: Вы проводили эксперимент летом 2023 года — через полгода после покупки платформы Маском и примерно за год до его публичной поддержки Трампа. Как вы оцениваете, в какой степени полученные результаты специфичны именно для того периода и той версии алгоритма, а в какой — отражают более общие закономерности работы рекомендательных систем?

ЕЖ: Разумеется, результаты зависят и от конкретной платформы, и от конкретного момента времени. Алгоритмы можно менять очень быстро, и их эффекты зависят от информационной среды. Но при этом сам механизм, который мы обнаружили, — что алгоритм влияет не только на текущую ленту, но и на будущий перечень подписок, а значит, оставляет более устойчивый след, — вероятно, имеет более общее значение и выходит за рамки именно этого конкретного периода и этой конкретной платформы. Именно это позволяет нам по-другому интерпретировать результаты исследования Meta.

«Убедить можно только сомневающихся»

T-i: Самый яркий результат исследования — асимметрия: включение алгоритма сдвигает взгляды в консервативную сторону (особенно у республиканцев и независимых), а отключение почти не возвращает их назад. Связан ли «эффект храповика» главным образом с изменением списка подписок или он глубже затрагивает убеждения пользователей?

ЕЖ: Наши данные убедительно показывают механизм через изменение поведения самих пользователей, прежде всего — через подписки. Под воздействием алгоритмической ленты участники чаще начинали подписываться на консервативных политических активистов, и после возврата к хронологической ленте эти подписки сохранялись.

Поэтому отключение алгоритма не возвращало людей автоматически в исходную точку: их информационная среда уже изменилась. Именно в этом смысле мы говорим об «эффекте храповика» — не о мгновенном воздействии, а о более устойчивом следе, который алгоритм оставляет через изменение структуры внимания и подписок.

T-i: Алгоритм заметно снижал в ленте долю традиционных СМИ и повышал долю активистов (в основном, правых). Считаете ли вы, что именно эта замена источников — от институциональной журналистики к эмоционально заряженным лидерам мнений — является главным механизмом наблюдаемого сдвига? Многие пользователи правых взглядов упрекают крупные медиа в левизне. Если взять два замеченных вами эффекта (поправение ленты и снижение представленности крупных СМИ) — что в большей мере выглядит причиной, а что следствием?

ЕЖ: Я бы не разделяла эти два явления. Снижение роли крупных СМИ и сдвиг вправо на практике происходят одновременно. Чтобы ответить на вопрос, что из этого важнее, нужен другой эксперимент, который затрагивал бы не алгоритмы, используемые социальной сетью, а некий искусственный алгоритм, созданный исследователями. Если алгоритм понижает институциональную журналистику и повышает более вовлекающий активистский контент, он одновременно меняет и идеологический баланс ленты.

T-i: Демократы в вашем эксперименте почти не меняли свои взгляды, несмотря на рост их экспозиции к консервативному контенту. Говорит ли это о том, что рекомендательные алгоритмы в соцсетях эффективнее в укреплении уже существующих взглядов, но не в переубеждении пользователей?

ЕЖ: В социальной психологии и в экономике медиа давно известно, что восприимчивость к сообщению зависит от того, насколько оно резонирует с уже существующими установками. Невозможно убедить человека в том, что он уверенно считает неправдой. Убедить можно только сомневающихся.

T-i: Можно ли ожидать, что через несколько месяцев или год после эксперимента консервативный уклон у части участников ослабнет, или «храповая» природа изменений делает их практически перманентными?

ЕЖ: Наш эксперимент не был рассчитан на то, чтобы измерять очень долгосрочные эффекты. Но в пределах наблюдаемого горизонта мы видим именно устойчивость: после выключения алгоритма изменения не исчезают автоматически, потому что уже изменилось поведение самих пользователей — прежде всего их подписки. Мы не можем утверждать, насколько эффект долгосрочный,  но можем уверенно сказать, что он не сводится к краткосрочному механическому воздействию.

Подписаться на нас в социальных сетях

Природа перекоса

T-i: В своей работе вы связываете наблюдаемый правый уклон алгоритма с «предпочтениями владельца платформы» и особенностями создаваемой им информационной среды. Какие именно данные эксперимента наиболее убедительно говорят против версии, что это просто естественное следствие популярности консервативного активистского контента среди пользователей X?

ЕЖ: Я уже сказала, что мы не можем разделить эти два эффекта в нашем эксперименте. Однако есть непрямые свидетельства того что правый контент действительно более привлекательный и заставляющий пользователей дольше времени оставаться в сети. Например, сообщения от левых активистов тоже приоритизируются алгоритмом, однако это не приводит к тому, что пользователи на них подписываются.

T-i: Вы отмечаете, что еще в 2016 году, задолго до Маска, алгоритм Twitter отдавал предпочтение правому контенту. Однако в хронологических лентах участников вашего эксперимента либеральный контент преобладал изначально. Как вы это объясняете? Не говорит ли это о том, что ваша выборка была смещена влево по сравнению со средней аудиторией X, и именно поэтому алгоритм «навязывал» ей больше правого контента, стремясь привести ее «в равновесие» с собственной средой?

ЕЖ: Алгоритм дает предпочтения правовому контенту по отношению к хронологической ленте, но это не означает, что большинство контента — правое. Это означает, что в алгоритмической ленте его больше. Здесь нет никакого противоречия, и выборка — не смещенная, что мы показываем, сравнивая ее с American National Election Studies.

T-i: Если предположить, что аудитория X исторически и устойчиво смещена вправо (а левым пользователям там просто некомфортно, и они чаще уходят), то переключение на алгоритмическую ленту естественным образом будет усиливать именно правый контент — потому что он получает больше вовлечения. Можно ли в таком случае говорить о преднамеренном вмешательстве владельцев? 

Актуальные видео о науке во время войны, интервью, подкасты и стримы со знаменитыми учёными — на YouTube-канале T-invariant. Станьте нашим подписчиком!

ЕЖ: Сейчас X-аудитория более правая, чем она была до Илона Маска, однако в числе пользователей по-прежнему много демократов. В любом случае алгоритм персонифицирует ленту для каждого индивидуально. И мы смотрим на эффекты и для демократов, и для республиканцев. Мы действительно находим результаты для республиканцев и независимых и не находим для демократов, но это не результат смещения композиции пользователей, это результат действий алгоритма. Наше исследование не позволяет надежно отделить намеренное вмешательство от максимизации вовлеченности. Однако это не означает, что мы не можем сделать вывод о том, что алгоритм имеет политическое влияние.

T-i: Где проходит грань между «предпочтениями владельца платформы» и «естественным отражением предпочтений большинства активных пользователей»? Следует ли владельцам социальных сетей искусственно поддерживать идеологический баланс, даже вопреки механике вовлечения?

ЕЖ: Эту грань как раз очень непросто провести, потому что в реальности здесь почти всегда взаимодействуют несколько факторов одновременно: структура пользовательской сети, логика вовлечения и дизайн самого алгоритма. Но для меня важный критерий начинается там, где алгоритм перестает быть просто зеркалом пользовательской активности и начинает систематически усиливать один тип контента по сравнению с другим. В нашем исследовании мы видим, что алгоритм X понижает долю постов от традиционных медиа и повышает долю политических активистов, особенно консервативных. Это уже не просто отражение спроса, а результат архитектуры ранжирования. При этом я не думаю, что ответ обязательно в ручном поддержании идеологического баланса. Гораздо важнее прозрачность критериев ранжирования, возможность внешнего аудита и реальный выбор пользователем режима ленты. Алгоритм скрывает все традиционные медиа — как либеральные, так и консервативные. Это оставляет пользователей в информационном пространстве, где все сводится к эмоциям, а не к фактам. В данном случае я не имею в виду идеологический баланс, а возможность пользователей получать проверенную информацию.

T-i: Кажется очень важным соотнести влияние владельцев (shareholders) и влияние самой пользовательской базы (stakeholders) соцсети. Позволяет ли ваше исследование отделить одно от другого? Можно ли придумать дизайн исследования, который не оставит сомнений по этому вопросу?

ЕЖ: Наше исследование не позволяет надежно отделить намеренное вмешательство владельца от алгоритмического усиления контента, который лучше удерживает внимание в уже сложившейся среде.

Это важное ограничение. Но оно не отменяет главного вывода: сам способ ранжирования на платформе имеет политические последствия. Мы показываем не просто то, что на X присутствует много правого контента, а то, что переход на алгоритмическую ленту причинно увеличивает экспозицию к консервативному контенту и сдвигает ряд политических установок в консервативную сторону. Вопрос о намерении требует уже других данных — например, внутренних логов изменений алгоритма или доступа к управленческим решениям платформы.

T-i: В дискуссиях постоянно говорят о ботах и троллях. Скоординированные интернет-кампании используют эмоциональный контент и алгоритмы вовлечения для искажения картины мира у людей (мы недавно писали о такой кампании в Буркина-Фасо, которая привела к срыву антималярийного проекта). А может ли рост правых (и прокремлевских) настроений быть не столько ответом на реальные социальные проблемы, сколько следствием продолжительного целенаправленного манипулирования общественным мнением через соцсети?

ЕЖ: Конечно, пропаганда имеет влияние. Однако, как мы уже обсуждали, она особенно эффективна, когда использует реальные социальные проблемы в своих целях.

ИИ: риски или контроль?

T-i: Если какая-то идеология начинает заметно преобладать, она получает преимущество в вовлечении новых пользователей в продвижении рекомендательным алгоритмом и тем самым может еще сильнее подавлять оппонентов (вплоть до канселинга). Существует ли естественный механизм самоограничения такого процесса, или без внешнего вмешательства (регуляторов, смены алгоритма, миграции пользователей) он может дойти до почти полного вытеснения альтернативных взглядов?

ЕЖ: В социальных сетях каждый может найти для себя эхо-комнату, в которой его никто не заканселит. В отличие от традиционных информационных пространств, в социальных сетях такой механизм гораздо менее силен — просто потому что можно всегда найти своих единомышленников. Неслучайно мы показываем, что в ленте демократов гораздо больше левого контента, чем в ленте республиканцев. То, что алгоритм сдвигает ленту вправо, не означает, что он делает ее правой, он делает ее просто немножко менее левой.

T-i: Насколько оправданы сравнения манипуляций через соцсети с централизованной пропагандой, которая использовалась большевиками, нацистами, путинским режимом? 

ЕЖ: Такие сравнения оправданны, но только с важными оговорками. Классическая пропаганда была централизованной и одинаковой для всех, а платформенная среда — персонализированная и на поверхности децентрализованная. В этом смысле современные платформы в чем-то даже мощнее: они не просто повторяют одно и то же сообщение, а подстраивают его под конкретного пользователя и усиливают через обратную связь. Но это не одно и то же явление, и исторические аналогии полезны лишь тогда, когда не стирают различий.

T-i: Какие угрозы демократическим институтам, исходящие из области, которую вы изучаете, кажутся вам наиболее серьезными?

ЕЖ: Я бы выделила три.

Во-первых, систематическое искажение картины мира — не обязательно через прямую ложь, а через отбор тем, источников и приоритетов. Во-вторых, закрепление этого искажения через изменение привычек и сетей внимания, что мы как раз и видим в механизме подписок. И, в-третьих, возможность влиять на конкретные политические позиции, не меняя при этом партийную идентичность человека. Наши результаты особенно наглядны именно здесь: партийная самоидентификация не меняется, а взгляды по важным вопросам — меняются.

T-i: Как вы оцениваете роль ИИ в будущих версиях алгоритмов? Сделает ли он манипуляции общественным мнением еще более тонкими и незаметными, или, наоборот, позволит быстро выявлять подобные манипуляции и получать предупреждения о попытках «хакнуть» твое мировоззрение и убеждения?

ЕЖ: ИИ почти наверняка сделает такие системы более адаптивными, более точными и, следовательно, потенциально более влиятельными. Это касается и вполне полезной персонализации, и политически чувствительного контента. Но те же технологии могут использоваться и для аудита — например, для выявления координированных кампаний, маркировки синтетического контента или обнаружения аномалий в рекомендациях. Поэтому ИИ — это не только источник новых рисков, но и возможный инструмент контроля.

T-i: В США до 1987 года действовала «Доктрина объективности» (Fairness Doctrine) для радио и ТВ: из-за ограниченности частот вещатели были обязаны представлять все значимые точки зрения сбалансированно. Хотя сейчас каждый может создать сайт или аккаунт, реальный доступ к массовой аудитории сосредоточен у нескольких платформ — де-факто монополия, аналогичная старым вещателям. Нет ли оснований думать, что без какого-то регуляторного аналога Fairness Doctrine (обязательства по балансу мнений или прозрачности алгоритмов) крупные платформы рискуют скатиться в состояние «Радио тысячи холмов» — когда доминирующая повестка подавляет все остальное?

ЕЖ: Я бы очень осторожно относилась к прямому переносу этой логики на современные платформы. Обязать алгоритм «симметрично» продвигать все позиции и технически сложно, и нормативно рискованно. Но из этого не следует, что регулирование не нужно. На мой взгляд, более реалистичны и важны требования к прозрачности, исследовательскому доступу к данным, независимому аудиту, понятному выбору режима ленты, раскрытию базовых принципов ранжирования. Ответственность платформ должна начинаться не с навязывания идеологического паритета, а с подотчетности за архитектуру внимания.

Поддержать работу T-invariant вы можете, подписавшись на наш Patreon и выбрав удобный размер донатов.

Ссылка для просмотра без VPN
Et Cetera