Тестировали работу алгоритмов TikTok - бот «подсел» на депрессивное видео
The Wall Street Journal провёл эксперимент, чтобы продемонстрировать принципы работы алгоритма рекомендаций TikTok. Результат — алгоритмы работают так, как ранее описывал процесс и принципы сам видеосервис. Любопытно, что один из созданных журналистами ботов попал в ловушку депрессивного контента, а другой — в бесконечную видеокарусель из роликов о теории заговора.
Журналисты создали учётные записи-боты, снабдив их определёнными интересами.
Боты «смотрели» подряд все видео в TikTok, которые соответствовали их интересам. Итоги теста команда WSJ изучила со специалистом по алгоритмам, ранее работавшим на YouTube, Гийомом Часло.
Как выяснилось, результаты эксперимента совпали с объяснениями TikTok о том, как работают её рекомендации. В расчёт берётся тип видео, с которыми вы взаимодействуете, и то, как вы с ними взаимодействуете. Также анализируется содержание самих роликов и настройки учётной записи, такие как язык и местоположение.
Несмотря на то, что у людей более разнообразные интересы, чем у ботов, эксперимент показал, как быстро пользователь может столкнуться с потенциально опасным контентом. По данным WSJ, TikTok идентифицировал интересы некоторых ботов всего за 40 минут.
В итоге один из ботов попал в замкнутый круг депрессивных роликов, другой — в ловушку из видео о предвыборных заговорах.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.