Ученые выяснили, что изменение алгоритмов соцсетей не влияет на политические взгляды. Так ли это?
Масштабное исследование американских ученых показало, что хронологическая лента соцсетей не влияет на политические взгляды пользователей. Но с выводами исследователей согласны не все.
Зачем Meta понадобились ученые?
Алгоритмы Meta часто обвиняют в распространении дезинформации и усилении политической поляризации. В 2020 году компания решила запустить несколько исследовательских проектов, которые должны были выявить влияние алгоритмов на пользовательский опыт. Для этого Meta привлекла ученых из Техасского и Нью-Йоркского университетов и дала им доступ к агрегированным данным о 208 миллионах американских пользователей Facebook и Instagram. Свои результаты исследователи опубликовали в журналах Nature и Science (1, 2, 3).
Ученые пытались выяснить, как алгоритмы соцсетей влияют на поведение избирателей и их отношение к кандидатам. Поскольку алгоритмы Facebook и других компаний, как правило, ранжируют контент, аналогичный тому, с чем человек взаимодействовал в прошлом, разумно предположить, что они могут влиять на пользователей и углублять их существующие политические убеждения. Также алгоритмы способны выделять ту информацию, которая может побудить людей больше участвовать в политических событиях.
Что они изучали?
В рамках четырех проектов исследователи изучили публикации пользователей, провели глубинные интервью и эксперименты. В одном случае они наблюдали за 7200 пользователями в Facebook и 8800 пользователями в Instagram, которые видели только хронологическую ленту приложений с сентября по декабрь 2020 года. В другом эксперименте 9 тысячам пользователей отключили функцию повторной публикации в Facebook, которая позволяет пользователям быстро делиться вирусными сообщениями.
2,8 миллиарда активных пользователей было у Facebook в декабре 2020 года. В 2023 году аудитория соцсети превысила 3 миллиарда пользователей.
Instagram отказался от хронологической ленты в 2016 году. Изменение объяснили тем, что хронологические ленты превращаются в «бесплодную пустыню», если пользователи не публикуют посты долгое время, или же наоборот лента становится безразмерной, когда пользователь подписан на множество аккаунтов. Переход на алгоритмическую ленту Instagram оправдывал статистикой: пользователи пропускают около 70% нового контента, а тот, что они видят, часто не интересен. Впрочем, соцсеть, как и Facebook, вернулись к хронологической ленте в прошлом году.
Какие были результаты?
- Алгоритмы влияют на пользовательский опыт. «Мы обнаружили, что алгоритмы чрезвычайно сильно влияют на взаимодействие людей с платформами, а в освещении политических новостей существует значительная идеологическая сегрегация», — сообщила Талия Джомини Страуд, директор Центра взаимодействия со СМИ Техасского университета, один из руководителей исследования.
- Пользователи все равно остаются при своем мнении. Изменение алгоритмов существенно не влияет на взгляды и поведение пользователей, а также не усиливает политическую поляризацию. В случае с «повторными публикациями» пользователи увидели значительно меньше новостей из ненадежных источников и меньше политических новостей в целом. Сокращение контента от аккаунтов с той же идеологической ориентацией не оказало значимого влияния на поляризацию, восприимчивость к дезинформации или экстремистским взглядам.
- Консерваторы и либералы по-своему потребляют контент. Консерваторы с большей вероятностью будут потреблять контент, который был помечен фактчекерами как дезинформация. Также у них большее разнообразие источников. Анализ показал, что среди ресурсов, которые используют в политических постах Facebook, гораздо больше внимания уделяется консерваторам, чем либералам.
- Пользователи не любят хронологические ленты. Они ищут контент, который соответствует их взглядам, при этом алгоритмы помогают это делать. Полное устранение алгоритмов резко сократило время, которое юзеры проводили в соцсетях. Пользователи Instagram в среднем тратили на восемь часов меньше на приложение и увеличили время на TikTok (на 36%), на Youtube (на 20%). Пользователи Facebook на ПК стали чаще переходить на Reddit.com (52%) и Youtube.com (21%). Также испытуемые видели меньше контента от друзей и реже лайкали и комментировали сообщения в ленте.
«Эти результаты бросают вызов популярным представлениям, обвиняющим эхо-камеры социальных сетей в проблемах современной американской демократии», — пишут авторы одной из статей. Исследователи указывают на расхожее представление об информационных пузырях, которые появляются в соцсетях, когда пользователи видят только контент, согласующийся с их мировоззрением.
Почему выводы критикуют остальные?
Ученые утверждают, что Meta не контролировала их выводы. Также исследователи намеренно отказались от вознаграждения компании, чтобы соблюсти этические стандарты. Однако они признают некоторые ограничения своей работы: исследование охватило лишь несколько месяцев во время выборов, поэтому невозможно оценить долгосрочное влияние, которое оказали алгоритмы.
Вокруг публикаций возникла дискуссия о корректности выводов ученых. С одной стороны, исследования показывают иную роль соцсетей в демократических процессах — и представители Meta поспешили заявить, что это влияние преувеличено. С другой, критики считают, что результаты не дают соцсетям право самоустраниться от борьбы с дезинформацией.
97% источников политических новостей в Facebook, которые распространяли дезинформацию, пользовались больше популярностью у консерваторов, чем у либералов.
«Исследования, которые поддерживает Meta и которые кажутся фрагментарными на небольших выборочных периодах, не должны служит оправданием для распространения лжи. Платформы социальных сетей должны быть более активными перед выборами, а не придумывать новые схемы, чтобы избежать ответственности», — прокомментировал публикации Нора Бенавидес, советник группы по защите прав человека в цифровом мире Free Press.
Бывшая сотрудница Facebook Фрэнсис Хауген, которая стала инициатором скандальных разоблачений платформы, критически отнеслась к выводам исследователей. По ее словам, анализ публикаций произошел после того, как Meta приняла более строгие меры по защите выборов для устранения дезинформации. Хауген заметила, что многие пользователи до начала исследования уже состояли в группах с сомнительным контентом.
Читать на dev.by