web analytics

Эпидемия дезинформации повышает ставки для поиска решений

Дезинформация

Авторка: Бренда Патуан

Одним из первых шагов Илона Маска как владельца Twitter было ретвитить фальшивые новости, что вызвало тревогу у наблюдателей за дезинформацией. После того, как разоблачитель Facebook сообщил, что гигант социальных сетей при определении уникального содержания новостной ленты каждого человека придавал вес отрицательным реакциям в пять раз больше, чем положительным или нейтральным, — отдавая эмоциональным сообщениям особый приоритет, — эти шаги поднимают серьезные вопросы о том, как социальные сети разжигает разногласия во имя «помолвки».


Торговцы дезинформацией уже давно овладели искусством привлечения внимания с помощью сигналов, вызывающих сильные эмоции, используя наш эволюционный инстинкт реагировать на шок или возмущение. Что нового, так это вирусный потенциал, который добавляют социальные сети. Двойная инфодемия вокруг Covid-19 и честных выборов показала, насколько быстро может распространяться недостоверная информация и какие долгосрочные последствия она может иметь для таких социальных проблем, как общественное здравоохранение и демократические принципы.

Превращение информации в оружие подняло важные вопросы как для нейронауки, так и для общества. Предметом спора является вопрос о том, можно ли ожидать, что платформы социальных сетей будут самостоятельно контролировать новостные ленты, или их нужно заставить делать это посредством государственного регулирования, как это рассматривается в США и Европе. Каждый вариант несет в себе риски цензуры и авторитаризма.

Или отличить ложь от факта должен человек? Чего бы это стоило, учитывая разрывы концентрации внимания и шквал сбивающих с толку, а иногда и преднамеренно вводящих в заблуждение сообщений?

В то время как общество обсуждает первые вопросы, нейробиологи бьются над последними, тестируя несколько потенциальных стратегий, которые могут помочь вооружить обычных людей когнитивными инструментами для выявления и противодействия фальшивым новостям.

Прикосновение к гневу и возмущению

«Хотите сделать свой контент более запоминающимся и заразительным? Используйте эмоции высокого возбуждения. Злость. Трепет. Страх. похоть. Жадность… Вызов сильных эмоций может решить, станет ли контент вирусным. И все начинается со слов, которые вы используете».

Это была подача в недавнем посте на LinkedIn от самопровозглашенного «безумного контент-ученого», который пообещал научить подписчиков тому, как «провоцировать гнев и разочарование» в своих копирайтингах, чтобы их посты стали вирусными.

Немногие люди, использующие социальные сети, знают, как курируются их новостные ленты — что, например, нажатие на «сердитый» смайлик в сообщении Facebook немедленно запускает больше сообщений аналогичного характера. Но это делают контент-менеджеры всех мастей, и они открыто рекламируют это.

Крайне важно информировать людей о том, как алгоритмы могут нацеливаться на них, сказала Рене ДиРеста , руководитель исследований, изучающих современную дезинформацию в Стэнфордской интернет-обсерватории, на вебинаре , организованном Harvard Law в июне прошлого года. Часть проблемы заключается в прозрачности решений алгоритмов, как продемонстрировал разоблачитель Facebook. Пользователи не знают точно, какие данные о себе или своем поведении используют эти автоматизированные системы, чтобы решить, что им показать дальше. «У нас нет такого представления о том, как работают эти [алгоритмы], — сказала она. «То, что привлекает внимание людей, имеет основополагающее значение».

Бизнес-модель, созданная для дезинформации

Люди запрограммированы реагировать на сильно заряженные раздражители. Наша система внимания эволюционировала, чтобы сосредоточиться на сильных эмоциональных стимулах и удивлении. Нас затягивает все, что вызывает воспалительную реакцию — пресловутый шок и трепет. Фейковые новости используют это. Маркетологи тоже, в том числе сами социальные сети, чьи бизнес-модели основаны на привлечении нашего внимания и провоцировании реакции.

По мнению Стефана Левандовски, когнитивного ученого из Бристольского университета, Великобритания, изучающего дезинформацию и способы борьбы с ней, идея о том, что платформы социальных сетей самостоятельно контролируют свой контент на предмет точности, делает ее «подобной попытке заставить отрасль ископаемого топлива иметь дело с с изменением климата, когда их средства к существованию зависят от них».

«Социальные сети похожи в том смысле, что они зарабатывают деньги на бизнес-модели, в которой наше внимание — это продукт, который они продают рекламодателям. Коммерческий стимул для привлечения нашего внимания может сильно противоречить предоставлению нам точной информации, потому что человеческое внимание привлекает негатив», — говорит он. «В бизнес-модель заложен стимул поддерживать дезинформацию».

Это один из способов, которым алгоритмы социальных сетей «эксплуатируют когнитивные ограничения и уязвимости своих пользователей и подпитывают поляризацию», — утверждают Левандовски и Анастасия Козырева в эссе на эту тему.

Pre-Bunk, Debunk, Nudge, Repeat

Все больше данных свидетельствует о том, что дезинформация, которая таким образом захватывает наше внимание, может привести к длительным изменениям в мышлении, даже после того, как исправление было сделано и принято. Это явление, называемое «эффектом продолжающегося влияния», широко воспроизводилось в лабораторных экспериментах и ​​проявляется в исторических примерах, когда даже широко развенчанные мифы продолжают верить широким слоям населения. Классическим примером является сохранение веры в то, что ликвидация оружия массового уничтожения была причиной вторжения США в Ирак в 2003 году, несмотря на то, что доказательства никогда не появлялись.

Развенчание ложной информации посредством проверки фактов и исправления после разоблачения — одно из средств, которое использовалось в некоторых каналах социальных сетей, в том числе в Твиттере до появления Маска. Исследования показывают, что иногда это может быть полезно. Эффект продолжающегося влияния, кажется, сбивает с толку даже самые лучшие разоблачения. Практичность также является проблемой: ДиРеста сравнил проверку фактов с бесконечной игрой в «ударь крота».

Пример поста проверки фактов в Facebook: «Независимые проверяющие факты из Check Your Fact говорят, что этот пост содержит ложную информацию».  Чтобы помочь остановить распространение ложных новостей, к вашему сообщению будет добавлено уведомление, если вы решите поделиться этим.  В оригинальном посте говорится, что принц Гарри утверждает, что боулинг спас ему жизнь.
Опровержение: на Facebook сообщения могут быть помечены как ложные, что побуждает людей дважды подумать, прежде чем делиться ими.

Подталкивание к точности — сопоставление релевантной с контекстом информации рядом с сообщением, которое было помечено как вводящее в заблуждение, — это еще одна стратегия, которая показала некоторую пользу в предупреждении людей о дезинформации при определенных обстоятельствах. Идея состоит в том, чтобы сделать достаточно длинную паузу, чтобы можно было подумать, и иногда этого достаточно. Тем не менее, преимущества подталкивания к точности не были надежно воспроизведены в экспериментальных условиях, поэтому остаются открытыми вопросы о том, когда и как этот инструмент может быть лучше всего реализован.

твит с видео Марка Цукерберга из Facebook с примечанием, в котором говорится, что читатели добавили контекст, который, по их мнению, может быть интересен людям, это видео не было аутентифицировано и многое другое.  Примечание под этим текстом гласит, что Контекст написан людьми, которые используют Твиттер, и появляется, когда другие оценивают его как полезное.
Подталкивание: в Твиттере у читателей была возможность добавлять примечания к видео твитов, которые они считают вводящими в заблуждение.

«Предварительная маскировка» , основанная на концепции психологической прививки, стала перспективной стратегией. В отличие от проверки фактов или разоблачения, предварительное разоблачение направлено на то, чтобы упредить ложную информацию, предупреждая скроллеров об основных признаках дезинформации, чтобы они были лучше подготовлены для ее выявления. Джон Рузенбик, когнитивный психолог из Кембриджского университета, Великобритания, протестировал пре-букинг в исследовании , финансируемом Google и опубликованном в журнале Science Advances в августе.

«Вакцина» против фейковых новостей?

Предпосылкой для психологической прививки стали попытки Министерства обороны США в 1960-х годах помочь американским военнопленным противостоять «промыванию мозгов» Вьетконгом. Идея была проста, аналогична вакцине: предоставить людям ложную информацию в безопасном контексте, чтобы, когда они столкнутся с этой информацией позже, у них была некоторая когнитивная сила, чтобы противостоять психологическому захвату.

Проблема с применением этой итерации предварительной маскировки во вьетнамской эре заключается в том, что «очень трудно сделать прививку людям от каждого отдельного вида вводящих в заблуждение аргументов, с которыми они могут столкнуться в будущем», — говорит Розенбек. Список лжи, которую оппонент во время войны может сказать военнопленному, ограничен. Даже если бы можно было предсказать каждое заявление в социальных сетях, попытка предварительно опровергнуть каждое из них была бы чрезмерно громоздкой, как и проверка фактов и разоблачение.

Вместо этого Розенбек стремился привить людей от основных стратегий, которые используются для дезинформации и манипулирования, таких как эмоциональное возбуждение и логические ошибки, такие как ложные дихотомии. Он создал короткие образовательные видеоролики , которые были представлены на YouTube и просмотрены более миллиона раз, и обнаружил значительное, хотя и скромное улучшение способности распознавать ложные новости среди тех, кто их просматривал.

Основываясь на результатах, Google в настоящее время проводит одно из самых масштабных на сегодняшний день реальных испытаний предварительного размещения в Восточной Европе, пытаясь противостоять дезинформации об украинских беженцах после вторжения России в страну. ( см. больше видео с предварительным размещением)

Достаточно ли предварительной блокировки, чтобы отразить натиск ложной информации, поступающей на людей на социальных платформах? Маловероятно, говорит Розенбек. Его исследование показало примерно пятипроцентное улучшение различимости, и он открыто скептически относится к тому, можно ли доверить решение проблемы дезинфодемии Google и YouTube.

Когнитивная броня

Pre-bunking пытается обеспечить некоторую когнитивную защиту от дезинформации, снабжая людей инструментами, которые помогают стимулировать критическое мышление и отделять факты от вымысла. Образование в области медиаграмотности и научной грамотности стремится сделать то же самое, прививая фундаментальные принципы, такие как целостность источника и язык красных флагов. Изучается ряд подходов.

Джон Кук, когнитивист из Университета Монаш в Австралии, создал онлайн-игру под названием Cranky Uncle , которая учит критическому мышлению с помощью мультяшных персонажей. Независимая исследовательская группа, базирующаяся в Институте Макса Планка в Германии, называет свою версию обучения цифровой грамотности « наукой повышения », предлагая практические советы и стратегии, основанные на фактических данных, такие как боковое чтение для оценки точности источника. Проект News Literacy предоставляет учителям и общественности образовательные материалы, в том числе 60-минутный видеоинструмент , помогающий людям более критически относиться к новостям и информации. На его веб-сайте говорится, что его материалы использовали 16 000 учителей, чтобы охватить 2,4 миллиона учеников в прошлом году.

Формализация уроков медийной или научной грамотности в школьных программах идет медленно, и только в Иллинойсе это требуется. Без мандата учителя в значительной степени самостоятельно находят ресурсы, основанные на фактических данных, и включают их в занятия в классе.

Врачи против дезинформации

Частично движимые лавиной дезинформации о Covid, медицинские работники все чаще вступают в бой, чтобы установить рекорд в отношении медицинской дезинформации. Врачи-педагоги, такие как молекулярный биолог Рэйвен Бакстер, она же доктор Рэйвен, знаток науки, и переводчик общественного здравоохранения Кэтлин Джетелина, она же Ваш местный эпидемиолог , собрали огромное количество подписчиков в социальных сетях и регулярно берутся за медицинскую ложь, иногда неортодоксальными способами, как рэп Бакстера о вирусной вакцине .

В июне 2022 года Американская медицинская ассоциация приняла стратегию борьбы с дезинформацией , состоящую из 9 пунктов , которая включает в себя обучение медицинских работников и общественности тому, как распознавать дезинформацию, а также способы ее распространения, а также поощрение государственных и местных медицинских сообществ к участию в развенчании дезинформации в своей деятельности. юрисдикции.

В своем бюллетене от 2021 года главный хирург США Вивек Мерти назвал дезинформацию в области здравоохранения «серьезной угрозой для общественного здравоохранения», которая «может вызвать путаницу, посеять недоверие, нанести вред здоровью людей и подорвать усилия общественного здравоохранения». Он призвал к комплексным усилиям по борьбе с ним,

Следуя примеру Вивека, департамент здравоохранения Нью-Йорка создал специальное подразделение по реагированию на дезинформацию, которое работало в партнерстве с доверенными мессенджерами внутри сообществ — особенно маргинализированных и не говорящих по-английски — для выявления и опровержения дезинформации с первых дней пандемии. пандемия. В статье для NEJM Catalyst руководители программы заявили, что пандемия Covid 19 «ясно показала, что реагирование на дезинформацию является основной функцией общественного здравоохранения», и призвали к дополнительным исследованиям для определения передового опыта.

Шиха Джайн , медицинский онколог и активистка из Чикаго, использовала свои платформы социальных сетей для распространения надежной медицинской информации до того, как инфодемия Covid-19 охватила Интернет. Шквал дезинформации вокруг пандемии побудил Джайна и двух его коллег основать Impact , некоммерческую организацию, которая усиливает голоса работников здравоохранения, чтобы простым способом донести доказательную медицину и науку.

«Мы используем все, от постов в социальных сетях и инфографики до написания статей и писем в редакцию, телевизионных и новостных интервью, до написания заявлений и политических предложений».

Теперь она и ее коллеги передают полученные уроки следующему поколению медицинских работников с новым курсом в Медицинской школе Притцкера Чикагского университета. Это часть нескольких пилотных проектов , финансируемых Американской ассоциацией медицинских колледжей в пяти медицинских школах США, направленных на запуск учебных программ по дезинформации для студентов-медиков и смежных медицинских работников, проходящих обучение.

Андреа Андерсон, семейный врач и старший медицинский консультант AAMC, которая работает с получателями грантов над разработкой передового опыта, сказала, что потребность в этом как никогда велика. «Традиционно медицинские стажеры не были специально обучены тому, как вести пациентов, которые могут колебаться или могут владеть неточной информацией, псевдонаучными мифами или дезинформацией, которая может нанести вред этому пациенту».

«Врачи и другие поставщики медицинских услуг являются доверенными лицами в нашем обществе», — сказал Андерсон в интервью. «Это роль, которую мы даем клятву жить. Нам нужно работать над тем, чтобы предоставлять нашим пациентам самую точную информацию, чтобы помочь им принимать решения о медицинском обслуживании для себя и своих семей».

Серебряная картечь

По словам Левандовски, вряд ли будет достаточно какой-то одной стратегии борьбы с дезинформацией. «У нас нет серебряной пули. У нас есть серебряная картечь. Мы можем отбросить множество мелочей, которые, как мы можем показать, имеют значение в контролируемых обстоятельствах».

Часть загадки, по словам Левандовски, заключается в том, что эти различные стратегии «не сравнивались при одинаковых обстоятельствах на одном и том же игровом поле». Надеюсь, говорит он, ситуация изменится в течение следующих 12 месяцев из-за новой инициативы под названием Mercury Project , многопрофильного консорциума, который проведет типы прямых сравнений, необходимых для оценки различных преимуществ каждой из этих стратегий.

Со своей стороны, Левандовски скептически относится к тому, что любая комбинация этих «картечьих» мер может полностью разрушить дезинформационную машину тех, кто стремится намеренно ввести общественность в заблуждение, особенно в свете изменений, происходящих сейчас в Twitter Маска.

«Это требует системных изменений. Мы не должны притворяться, что обучение людей с помощью небольших видеороликов или круговых диаграмм поможет», — говорит он.

Управление, утверждает Левандовски, является важнейшей потребностью, будь то самоуправление со стороны платформ или регулирование сверху вниз законодателями.

«Проблема дезинформации неразрывно связана с алгоритмами, используемыми платформами. Тот факт, что эти алгоритмы практически скрыты от общественности, означает, что никто не несет ответственности за то, что они делают.

«Для меня серьезной проблемой является то, что очень небольшое количество людей в Силиконовой долине определяет информационную диету большей части мира без какой-либо ответственности. Мы допустили это, и теперь нам предстоит тяжелая битва за введение подотчетности в систему».

Источник:
https://dana.org/article/misinformation-epidemic-raises-stakes-for-solutions/

Оцените статью
( Пока оценок нет )

Добавить комментарий