Post sponsored by NewzEngine.com

MIL OSI Перевод. Анализ вечернего отчета – с английского на русский –

Источник: The Conversation (Австралия и Новая Зеландия). – Дэниел Уилан-Шами, старший научный сотрудник Технологического университета Квинсленда.

Шаттерсток

24 февраля, когда российские войска начали вторжение, появились истории о финансируемых США биолабораториях и исследованиях биологического оружия в Украине. начал распространяться в социальных сетях.

The ложные заявления распространились из правых кругов, но получили более широкое распространение и вскоре были подхвачены ведущим Fox News Такером Карлсоном. Вскоре российское правительство, которое распускают байки об украинских биолабораториях в прошлом, принял это повествование как запоздалое оправдание вторжения.

Мы изучили, как повествование о биолабораториях было усилено в Твиттере, и сделали тревожное (если не совсем удивительное) открытие. Большинство тех, кто разослал эту историю, пытались ее развенчать, но в итоге только дали ей больше кислорода.

Разоблачение пошло не так

Мы изначально намеревались искать скоординированные группы теоретиков заговора, продвигающие теорию биологического оружия.

Для этого мы искали аккаунты в Твиттере, которые ретвитили посты с упоминанием как Украины, так и биолабораторий. Затем, чтобы увидеть, как эти учетные записи связаны друг с другом, мы проверили, ретвитят ли какие-либо две учетные записи одно и то же в одно и то же время. Мы нашли 1 469 таких аккаунтов и 26 850 ссылок между ними.

В визуализации наших результатов ниже каждая точка — это аккаунт, который ретвитнул хотя бы один пост о биолабораториях Украины. Когда два аккаунта ретвитят одно и то же с разницей в минуту более одного раза, проводим линию между ними.

Теория заговора украинских биолабораторий была распространена группами аккаунтов, пытавшихся ее опровергнуть. Дэниел Уилан-Шами

Вы можете видеть, что учетные записи разделены на кластеры скоординированного поведения ретвитов. Мы нашли 50 таких кластеров, и 49 из них пытались опровергнуть теорию биологического оружия. Только одна небольшая группа (обведена синим) пыталась его распространить.

В других крупных кластерах этой сети мы видели твиты от учетных записей, работающих над развенчанием заговора о биологическом оружии, таких как пресс-секретарь Белого дома Джен Псаки, Пентагон, Kyiv Independent и Sky News.

Наш анализ заключает, что наиболее заметными в распространении нарратива были те, кто пытался его развенчать. Большинство кластеров ретвитили Псаки (правый пунктирный кружок).

Дезинформация для всех

Одно из мест, с которого можно начать понимать, что происходит, — это идея американского ученого Кейт Старберд о «совместная дезинформация».

Этот процесс часто начинается с широко известных пользователей (таких как политики, знаменитости или лидеры общественного мнения), которые распространяют новости среди своей онлайн-аудитории.

Однако для теории заговора биолабораторий повествование началось на платформе альтернативных технологий Gab и набрало обороты в Твиттере благодаря усилиям второстепенной учетной записи QAnon. Но по мере того, как в Твиттере разгоралась дискуссия, эту теорию подхватили министерства иностранных дел Китая и России, кульминацией чего стал фрагмент программы Fox News Tucker Carlson Tonight.

Подробнее:Российские правительственные аккаунты используют лазейку в Твиттере для распространения дезинформации

Так теория заговора становится «новостью». Аудитория фильтрует новости через свое собственное мировоззрение, на которое уже влияют средства массовой информации, с которыми они регулярно взаимодействуют. Аудитория выстраивает, изменяет и продвигает эти интерпретации в своих социальных сетях.

«Массовые» участники подхватывают дезинформацию, циркулирующую в их сообществах, дополняют и распространяют ее; процесс повторяется в самоусиливающейся петле обратной связи.

К тому времени, когда политические игроки, такие как Псаки или российские правительственные чиновники, пишут в Твиттере о теории заговора, не имеет значения, пытаются ли они развеять ее или поддержать: они только заканчивают давать ему кислород.

Новый заговор

Если работа по развенчанию ложных нарративов только продолжает цикл обратной связи, что еще можно сделать?

Циклы коллективной дезинформации помогли нам попасть в кризис о том, как мы, как социальные группы, понимаем мир.

Американские политологи Рассел Мюрхед и Нэнси Л. Розенблюм называют результат этого кризиса «новый заговор».

Там, где старомодное конспирологическое мышление полагалось на сложные теории для обоснования своих утверждений, для новых конспирологов идея может быть верной просто потому, что она привлекает много внимания.

Распространение нового заговора усилилось с подрыв доверия к традиционным институтам за последние десятилетия.

Дональд Трамп и другие политики по всему миру работали над ускорением этой эрозии, но это только часть проблемы.

Большая часть в том, что дезинформация приносит прибыль компаниям, работающим в социальных сетях, и социальные сети являются неотъемлемой частью того, как мы общаемся и формируем мнения.

Что может быть сделано?

Снова и снова мы становимся свидетелями того, как теории заговора распространяются в социальных сетях, способствуя политической поляризации и подрыву демократической власти.

Пришло время переосмыслить нашу медиа-экосистему и то, как мы ее регулируем, прежде чем доверие к демократическим институтам и принципам еще больше упадет.

Решение этой задачи — геркулесова задача, и странам недостаточно самостоятельно принимать законы и регулировать платформы. Это должны быть глобальные усилия. Финансовые санкции уже недостаточно — необходимы системные изменения, которые лишают платформы возможности получать прибыль от ложной и дезинформации.

Точно так же политики и пропагандисты, такие как Псаки, должны быть лучше информированы о том, что придание кислорода этим теориям заговора может иметь непреднамеренные последствия; попытки повысить осведомленность или опровергнуть их могут привести к распространению по всему миру.

Для постоянных пользователей социальных сетей совет, как всегда, дважды подумать, прежде чем делиться или ретвитить.

Когда часть контента вызывает сильную эмоциональную реакцию, это часто может быть признаком ложной информации. Если вы действительно хотите чем-то поделиться, скриншот контента предпочтительнее дальнейшего расширения источника, так как он вырубает дезинформатора из цепочки.

Подробнее:Фактчекинг действительно может подорвать доверие к СМИ: новое исследование

Тимоти Грэм получает финансирование от Австралийского исследовательского совета для своей премии «Открытие в начале карьеры исследователя» (DE220101435) «Борьба с скоординированным недостоверным поведением в социальных сетях». Он также получает финансирование от Министерства обороны Австралии.

Дэниел Уилан-Шами не работает, не консультирует, не владеет акциями и не получает финансирования от какой-либо компании или организации, которые могли бы извлечь выгоду из этой статьи, и не раскрыл никаких соответствующих связей, помимо своей академической должности.

– исх. «Украинские биолаборатории»: как попытки развенчать теорию заговора только способствовали ее распространению – https://theconversation.com/ukraine-biolabs-how-attempts-to-debunk-a-conspiracy-theory-only-helped-it-spread-180403

ПРИМЕЧАНИЕ РЕДАКТОРА: Эта статья является переводом. Приносим свои извинения, если грамматика и/или структура предложения не идеальны.

MIL OSI Europe News