Исследование Tiktok, x ‘for you’ Feeds в Германии находит крайне правую политическую предвзятость перед федеральными выборами

Алгоритмы рекомендаций, управляемые гигантами социальных сетей Тикток и Х, показали доказательства существенного правого политического предвзятости в Германии в преддверии федеральных выборов, которые пройдут в воскресенье, согласно новым исследованиям, проведенным глобальным свидетелем.

Несобранная организация (НПО) провела анализ контента в социальных сетях, отображаемого новым пользователям, посредством алгоритмически отсортированных для вас,-обнаружив обе платформы, которые сильно ориентированы на усиливающий контент, который способствует далекой правой партии AFD в алгоритмически программированных кормах.

Тесты глобального свидетеля определили наиболее крайний предвзятость на Tiktok, где 78% политического контента, который был алгоритмически рекомендован для его тестовых счетов, и поступили из учетных записей, которые пользователи тестовых пользователей не следовали, поддерживали партию AFD. (Он отмечает, что эта цифра намного превышает уровень поддержки, которого партия достигает в текущем опросе, где она привлекает поддержку примерно от 20% немецких избирателей.)

На x глобальный свидетель обнаружил, что 64% ​​такого рекомендуемого политического содержания поддерживали AFD.

Тестирование на общие левые или правые политические предвзятости в алгоритмических рекомендациях платформ, его выводы показывают, что непартийные пользователи социальных сетей в Германии подвергаются правому контенту более чем в два раза больше, чем левый контент в Ведите к федеральным выборам страны.

Опять же, Tiktok показал величайший правый перекос, в соответствии с его выводами, показывая правое содержание в 74% случаев. Хотя X не отставал — на 72%.

Instagram Meta также был проверен и обнаружил, что он наклонился прямо над серией из трех тестов, которые проходила НПО. Но уровень политического предвзятости, который он продемонстрировал в тестах, был ниже, причем 59% политического содержания был правым.

Тестирование «для вас» на политическое предвзятость

Чтобы проверить, демонстрировали ли алгоритмические рекомендации платформ социальных сетей, исследователи неправительственных организаций установили по три аккаунта на Tiktok и X, а также еще три в Metaeded Instagram. Они хотели установить вкус контент-платформ, которые будут способствовать пользователям, которые выражали беспартийный интерес к потреблению политического контента.

Чтобы представить в качестве беспартийных пользователей, были созданы учетные записи тестов, чтобы следовать учетным записям четырех крупнейших политических партий в Германии (консервативная/правая ХДС; Центр-левый SPD; крайне правый; Счета их соответствующих лидеров (Фридрих Мерз, Олаф Шольц, Алиса Вейдель, Роберт Хабек).

Исследователи, управляющие тестовыми учетными записями, также гарантируют, что каждая учетная запись нажимала на пять лучших постов из каждой учетной записи, которую они следовали, и взаимодействовали с контентом — просмотр любых видеороликов не менее 30 секунд и прокрутка любых потоков, изображений и т. Д. Свидетель.

Затем они собрали вручную и проанализировали контент, на которой каждая платформа настаивала на тестовых учетных записях-обнаружив, что был существенный правый перекос в том, что алгоритмически подтолкнуло пользователям.

«Одна из наших основных проблем заключается в том, что мы не знаем, почему нас предложили конкретный контент, которым мы были», — сказала в интервью Эллен Джадсон, старший участник кампании, смотрящий на цифровые угрозы для глобального свидетеля. «Мы нашли это доказательство, которое предполагает предвзятость, но у платформ все еще отсутствует прозрачность о том, как работают их системы рекомендации».

«Мы знаем, что они используют много разных сигналов, но то, как именно эти сигналы взвешены, и то, как они оцениваются, если они могут увеличить определенные риски или увеличение предвзятости, не очень прозрачна», — добавил Джадсон.

«Мой лучший вывод заключается в том, что это своего рода непреднамеренный побочный эффект алгоритмов, основанных на вождении», — продолжила она. «И это то, что происходит, когда, по сути, то, что компании, предназначенные для максимизации вовлечения пользователей на своих платформах, в конечном итоге становятся этими пространствами для демократических дискуссий — существует конфликт между коммерческими императивами и общественными интересами и демократическими целями».

Полученные результаты, связанные с другими исследованиями в области исследований в социальных сетях, были предприняты вокруг недавних выборов в сша, Ирландии и Румынии. И, действительно, различные другие исследования в последние годы также обнаружили доказательства того, что алгоритмы социальных сетей наступают правильно, например, этот исследовательский проект в прошлом году, изучая YouTube.

Даже еще в 2021 году внутреннее исследование Twitter-как x называлось до того, как Элон Маск купил и переигрывал платформу-показало, что его алгоритмы способствуют более правому контенту, чем левша.

Тем не менее, социальные сети обычно пытаются танцевать от обвинений в алгоритмической предвзятости. И после того, как глобальный свидетель поделился своими выводами с Tiktok, платформа предположила, что методология исследователей была ошибочной — утверждая, что невозможно сделать выводы алгоритмической предвзятости из нескольких тестов. «Они сказали, что он не был представителем обычных пользователей, потому что это было всего лишь несколько тестовых учетных записей», — отметил Джадсон.

X не ответил на результаты глобального свидетеля. Но Маск рассказал о том, чтобы хотеть, чтобы платформа стала убежищем для свободы слова в целом. Хотя это может быть его кодом для продвижения правой повестки дня.

Конечно, примечательно, что владелец X использовал платформу для личной кампании за AFD, написав в Твиттере, чтобы призвать немцев проголосовать за далекую правую партию на предстоящих выборах и провести в прямом эфире интервью с Weidel перед опросом — событие, которое помогло. Чтобы поднять профиль партии. Маск имеет наиболее подходящий аккаунт на X.

На пути к алгоритмической прозрачности?

«Я думаю, что точка прозрачности действительно важна», — говорит Джадсон. «Мы видели, как Маск рассказывал об AFD и много помолвке на его собственных постах об AFD и в прямой трансляции [with Weidel] … [But] Мы не знаем, было ли на самом деле алгоритмическое изменение, которое отражает это ».

«Мы надеемся, что комиссия возьмет [our results] В качестве доказательства, чтобы выяснить, произошло ли что -то или почему может произойти предвзятость », — добавила она, подтверждая, что глобальный свидетель поделился своими выводами с должностными лицами ЕС, которые несут ответственность за обеспечение алгоритмических правил подотчетности блока на крупных платформах.

Изучение того, как проприетарная функция алгоритмов сортировки контента является сложной задачей, так как платформы обычно хранят такие детали под обертыванием-утверждая, что эти рецепты кода в качестве коммерческих секретов. Вот почему в последние годы Европейский Союз принял Закон о цифровых услугах (DSA) — его флагманский сборник правил управления онлайн — в стремлении улучшить эту ситуацию, предприняв шаги по расширению прав и возможностей общественных интересов в области демократических и других системных рисков на крупных платформах, включая Instagram , Tiktok и X.

DSA включает в себя меры по подталкиванию основных платформ быть более прозрачными в отношении того, как работают их алгоритмы формирования информации, и для реализации системных рисков, которые могут возникнуть на их платформах.

Но хотя в августе 2023 года режим начал три технологических гиганта, Джадсон отмечает, что некоторые его элементы еще не были полностью реализованы.

Примечательно, что статья 40 Регламента, предназначенная для проверки исследователей, чтобы получить доступ к непубличным данным платформы для изучения системных рисков, еще не вступил в силу, поскольку ЕС еще не принял необходимый делегированный акт для реализации этот немного закона.

Подход ЕС с аспектами DSA также опирается на риски самоотчеты платформ и исполнители, а затем получают и пересматривают свои отчеты. Таким образом, первая партия отчетов о рисках с платформ вполне может быть самой слабой с точки зрения раскрытия информации, по словам Джадсона, поскольку исполнителям потребуется время, чтобы проанализировать раскрытие информации и, если они чувствуют, что существуют недостатки, толкайте платформы для более полной отчетности.

На данный момент — без лучшего доступа к данным платформы — она ​​говорит, что исследователи общественного интереса до сих пор не могут знать, выпекаются ли в основных социальных сетях.

«Гражданское общество наблюдает, как ястреб, когда доступ к проверке исследователя становится доступным», — добавляет она, заявив, что они надеются, что этот кусок головоломки DSA общественных интересов в этом квартале будет на месте.

Регулирование не дало быстрых результатов, когда речь заходит о проблемах, связанных с социальными сетями и демократическими рисками. Подход ЕС также, в конечном счете, может показаться, что он слишком осторожен, чтобы перемещать иглу так быстро, как это нужно, чтобы не отставать от алгоритмически усиленных угроз. Но также ясно, что ЕС стремится избежать каких -либо рисков, когда его обвиняют в том, что он обжигал свободу выражения.

Комиссия проводит открытые расследования во всех трех фирмах социальных сетей, которые участвуют в исследовании глобальных свидетелей. Но до сих пор не было никакого правоприменения в этой области целостности выборов. Тем не менее, он недавно уступил тщательному изучению Tiktok — и открыл новое DSA, продолжающем его — после того, как платформа стала ключевым каналом для вмешательства в российские выборы на президентских выборах в Румынии.

«Мы просим комиссию расследовать, существует ли политическая предвзятость», — добавляет Джадсон. «[The platforms] Скажи, что нет. Мы нашли доказательства того, что могут быть. Поэтому мы надеемся, что Комиссия будет использовать свою повышенную информацию[-gathering] полномочия установить, так ли это так, и… обращайтесь к этому, если это так ».

Регламент PAN-EU дает правоохранительным силам взимать штрафы до 6% глобального годового оборота за нарушения и даже временно блокировать доступ к нарушению платформ, если они отказываются соблюдать.