Автор Dr. Ken Springer
Вы помните Эдгара М. Уэлча? 4 декабря 2016 года г-н Уэлч проехал 350 миль от своего дома в Северной Каролине до Вашингтона, округ Колумбия, где он вошел в пиццерию Comet Ping Pong и начал стрелять из штурмового оружия AR-15. Мистер Уэлч пришел в ресторан, чтобы освободить детей, которых Хилари Клинтон и другие якобы держали в подвале в качестве секс-рабынь.
Тот факт, что у Comet Ping Pong нет подвала, возможно, является наименее важной ложью, которая привела мистера Уэлча к его ошибочной миссии.
При вынесении приговора г-н Уэлч признал, что вел себя «глупо и безрассудно», но никогда не отвергал фальшивые новости, которые его мотивировали. ( Сейчас он вышел из тюрьмы и ведет себя сдержанно.) Тем временем QAnon, Алекс Джонс и другие продолжали распространять варианты совершенно безосновательного «Заговора Пиццагейт», и, как сообщается , он все еще используется на митингах Трампа.
Pizzagate иллюстрирует одну из опасностей поддельных новостей: они создают ложные убеждения, которые приводят к вредным действиям. Бездействие тоже может быть следствием. Ложные заявления о фальсификациях выборов в 2020 году привели к снижению гражданской активности («Зачем голосовать, если выборы сфальсифицированы?») и снижению доверия к нашей политической системе. Вообще говоря, фейковые новости оказывают разрушительное воздействие на демократию.
К сожалению, фальшивые новости обладают свойством самосохранения: они распространяются в социальных сетях быстрее, чем законные новости, вытесняя точную информацию и, благодаря многократному раскрытию , приобретая вид достоверности. Но основания для надежды есть. Цель этого информационного бюллетеня — описать новое исследование, опубликованное на прошлой неделе, которое дает более полное представление о том, почему распространяются фейковые новости, и что мы можем сделать, чтобы предотвратить это. Хотя фейковые новости, безусловно, так же стары , как и сами новости, статистика предоставляет уникальные инструменты для понимания как причин, так и способов устранения.
Ниже приводится некоторый контекст для исследования, которое я буду обсуждать.
Фейковые новости, дезинформация и дезинформация
Я рад сообщить вам, что самое четкое и лаконичное определение фейковых новостей, которое я когда-либо видел, можно найти в Википедии :
Фейковые новости — это ложная или вводящая в заблуждение информация, представленная как новость.
(В конце я объясню, почему это определение делает меня счастливым.)
Фальшивые новости распространяются отчасти потому, что небольшое количество людей сильно заинтересованы в том, чтобы опубликовать их. Например, в начале 2021 года всего 12 человек создали 65% антивакцинной дезинформации, которая распространялась или размещалась в Facebook и Twitter.
В отличие от «дюжины дезинформации», некоторые источники неточностей имеют благие намерения. Например, я считаю NPR одним из самых надежных и проницательных источников новостей, и тем не менее, вот как вышеупомянутое исследование было резюмировано в мае прошлого года:
«Исследователи обнаружили, что всего 12 человек несут ответственность за большую часть вводящих в заблуждение утверждений и откровенной лжи о вакцинах против COVID-19, которые распространяются в Facebook, Instagram и Twitter».
На самом деле исследователи не анализировали данные Instagram. Ссылка NPR на Instagram неточна.
Это относительно тривиальная ошибка, учитывая основные выводы исследования. Я упоминаю об этом только для того, чтобы проиллюстрировать разницу между ложной информацией и дезинформацией.
Тот, кто делится дезинформацией , считает ее достоверной. Другими словами, они не пытаются вас обмануть. Ссылка NPR на Instagram, по-видимому, является формой дезинформации. (Зачем делать такой вывод? Поскольку остальная часть сводки точна, и даже если вас беспокоят либеральные предубеждения NPR , организация имеет репутацию точной отчетности. В любом случае, добавление Instagram в список платформ социальных сетей; сама история уже довольно поразительна.)
Человек, распространяющий дезинформацию , знает, что она ложная или искаженная, но все равно делится ею. Хотя я бы не назвал упоминание NPR об Instagram дезинформативным, я полагаю, что должен признать крошечный, один на миллион, шанс, что журналист имеет какое-то тайное предубеждение против Instagram и намеренно упомянул платформу, в этом случае мы будем рассматривать пример дезинформации.
Как видите, является ли контент дезинформацией или дезинформацией, зависит от убеждений человека, который им делится. Если они не знают, что это ложь, это дезинформация. Если они знают лучше, это дезинформация. 12 человек, которых я упомянул ранее, часто называют «дюжиной дезинформации», но это было бы неправильным названием, если некоторые из них действительно верят в распространяемую ими антипрививочную ложь.
Фейковые новости обычно называют формой дезинформации. Это точно, но я бы описал это более конкретно: фейковые новости по определению начинают свою жизнь как дезинформация, но по мере того, как они распространяются от человека к человеку, они могут быть дезинформацией в руках одних и дезинформацией для других. Таким образом, когда мы думаем о том, как остановить поток фейковых новостей, мы должны учитывать как тех, кто дезинформирует, так и тех, кто дезинформирует.
Это подводит меня к новому исследованию , опубликованному на прошлой неделе в известном журнале Proceedings of the National Academy of Sciences (PNAS). В этом исследовании доктор Гизем Джейлан из Йельского университета и двое его коллег из Университета Южной Калифорнии изучили источник фальшивых новостей и предложили некоторые решения.
(Сейлан и его коллеги интересовала более широкая категория дезинформации, но поскольку они сосредоточились на заголовках ложных новостей, я буду использовать термин «фейковые новости» для описания их методов и результатов.)
Гипотезы исследования
Джейлан и его коллеги сопоставили три объяснения распространения фейковых новостей.
1. Отсутствие осведомленности.
Согласно этому объяснению, люди делятся фейковыми новостями, потому что не признают их фальшивыми. Либо они не уделяют достаточно внимания, либо у них плохие навыки критического мышления, либо они эмоционально обрабатывают информацию. Какой бы ни была причина, контент, которым они делятся, можно назвать дезинформацией, а не дезинформацией, потому что они не знают, что это ложь.
2. Партизанская предвзятость.
Люди делятся фейковыми новостями, которые согласуются с их собственными убеждениями. Это «предубеждение на мою сторону» может быть вызвано убеждениями о политике, религии, здоровье или почти любой другой теме. Здесь то, что передается, может быть дезинформацией или дезинформацией, в зависимости от того, знают ли люди, что это ложь.
3. Платформенные привычки.
Джейлан и его коллеги отмечают, что платформы социальных сетей созданы для поощрения привычного обмена информацией. Люди делятся контентом, потому что их часто подкрепляют лайками, комментариями, новыми подписчиками и т. д. Таким образом, когда они сталкиваются с фейковыми новостями, они могут автоматически делиться ими, не задумываясь о том, что они делают, потому что они приобрели привычку делиться всякие вещи.
Методы исследования
Исследование проводилось среди пользователей Facebook, которые просматривали 16 заголовков новостей и выбирали, делиться каждым из них или нет. 8 заголовков были правдой, 8 — ложью. Примером ложного заголовка является изображение кокосового масла в начале этого информационного бюллетеня. (Кокосовое масло не уничтожает вирусы, и нет «истории» исследований по этой теме.) Еще один ложный заголовок, использованный в исследовании, показан ниже:
Джейлан и его коллеги измерили две ключевые переменные:
1. Сколько из 16 правдивых и ложных заголовков разделили участники?
2. Насколько автоматически (т. е. по привычке) участники делятся контентом социальных сетей в своей повседневной жизни? Это было измерено путем просьбы каждого участника оценить, насколько они согласны с такими утверждениями, как «Я начинаю делиться контентом в социальных сетях, прежде чем осознаю, что делаю это».
Исследователи провели четыре отдельных эксперимента, каждый из которых немного отличался от своих основных методов.
Результаты исследования
Эксперимент 1 (200 участников) подготовил почву для остальной части исследования. Этот эксперимент показал, что чем чаще человек делится в социальных сетях, тем больше из 16 заголовков новостей Facebook он публикует. Ничего удивительного. Но больший обмен также означал меньшую проницательность: люди, которые много делились друг с другом в своей повседневной жизни, делились правдивыми заголовками почти так же часто, как и ложными. (Люди, которые реже делились информацией, с большей вероятностью делились только 8 истинными заголовками.)
Этот эксперимент показывает, что фейковые новости в основном распространяются людьми, которые делятся всевозможными новостями. Другими словами, даже если небольшие группы людей, такие как «дезинформационная дюжина», создают непропорционально большое количество фейковых новостей, эти новости распространяют не люди, посвятившие свою жизнь распространению фейковых новостей, а люди, которые делятся всевозможными вещами. и просто не очень разборчивы в том, что они разделяют.
В эксперименте 2 исследователи хотели узнать, может ли привлечение внимания участников к точности содержания побуждать их к более тщательному обмену информацией. В этом эксперименте половину из 838 участников попросили оценить точность 16 заголовков, прежде чем решить, делиться ли каждым из них, а другую половину попросили оценить точность после принятия решения.
В результате были получены хорошие и плохие новости. Хорошая новость заключается в том, что в целом, когда люди делали суждения о точности, прежде чем решить, делиться ли 16 заголовками, они реже делились фейковыми. Плохая новость заключается в том, что это не затронуло самых постоянных участников.
Это важный вывод, на мой взгляд. Это говорит нам о том, что побуждение людей задуматься о достоверности новостного контента, прежде чем делиться им, может помочь уменьшить объем фальшивых новостей. Тем не менее, это мало поможет, потому что небольшое количество людей будет продолжать делиться всем, включая поддельные материалы.
Эксперимент 3 (836 участников) показал, что, хотя люди с большей вероятностью делились заголовками, соответствующими их собственным политическим взглядам, люди, которые обычно делились заголовками, снова были менее разборчивы. Они поделились заголовками, которые были как совместимыми, так и несовместимыми с их собственными взглядами. Те, кто обычно не делился информацией, были более проницательны в том смысле, что делились большим количеством заголовков, согласующихся с их личными взглядами. Это интересный вывод, потому что он предполагает, что фальшивые новости распространяются скорее по привычке, чем по политическим мотивам. (К сожалению, эксперимент не был организован для изучения конкретных мотивов публикации. Возможно, люди, которые чрезмерно делятся информацией, включают контент, который не соответствует их убеждениям, просто потому, что они хотят высмеять этот контент.)
Эксперимент 4 был последней попыткой исследователей способствовать более осторожному обмену информацией. На этот раз перед тем, как приступить к основному заданию, участники прошли обучающую сессию, на которой они выбирали, делиться ли каждым из 80 заголовков. Некоторые участники были вознаграждены за точные заголовки, некоторые — за неточные заголовки, а некоторые не получили никакого вознаграждения. «Награда» состояла из объявления о том, что они выиграли «очки». Вне зависимости от того, как они реагировали, в конце, перед тем как приступить к основному заданию, участникам сообщали, что набранные ими баллы позволяют им участвовать в лотерее на 20 долларов. Другими словами, они получили не материальное вознаграждение, а скорее перспективу его получить.
Хорошие новости этого эксперимента заключаются в том, что на поведение по обмену 16 заголовками повлияли «вознаграждения», предоставленные на сеансе обучения. Даже те, кто регулярно делился информацией, стали чаще делиться правдивыми заголовками и меньше ложными, если раньше они получали вознаграждение за то, что делились точными заголовками. Другими словами, привычка людей делиться информацией в Интернете податлива.
Хотя эксперимент 4 дает хорошие новости, мы должны помнить, что люди, которые были вознаграждены за неточные заголовки, впоследствии делились фальшивыми заголовками. Таким образом, награды будут полезны только в том случае, если они даются за предоставление достоверной информации. В реальном мире люди, размещающие фальшивые новости на веб- сайтах , специализирующихся на таком контенте, будут вознаграждены одобрением других пользователей.
Как мы можем уменьшить количество фейковых новостей?
Дает ли это исследование какие-либо рекомендации по уменьшению распространения фейковых новостей?
Вот что говорят нам результаты: фальшивые новости в основном распространяются людьми, которые делятся большим количеством контента в социальных сетях, потому что их распространение является привычным и не очень рефлексивным. Направление внимания людей на точность того, чем они делятся, немного снижает объем фальшивых новостей, но ненамного, потому что те, кто делится больше всего, не затрагиваются. Однако что действительно снижает распространение фальшивых новостей, даже среди тех, кто много делится, так это вознаграждение за надлежащее распространение.
Конечно, «вознаграждения», представленные в этом исследовании, не всегда применимы к реальному миру. (Facebook/Meta вряд ли будут проводить лотерею для людей, которые игнорируют фальшивые новости.) Вместо этого Джейлан и его коллеги предлагают два изменения в способе, которым платформы социальных сетей вознаграждают пользователей:
1. Пересмотренные алгоритмы.
В настоящее время то, что попадает в верхнюю часть фида человека, — это контент, который популярен, например, понравился больше всего. Джейлан и его коллеги признают, что это вряд ли изменится. Однако они предлагают алгоритмическую деприоритизацию непроверенного контента. Другими словами, любой контент, не проверенный независимо какой-либо нейтральной организацией по проверке фактов, попадет в конец ленты.
Хотя в теории это может быть полезно, на практике это не представляется возможным. Люди, проверяющие факты, не могли даже начать следить за количеством распространяемого контента, а ИИ не мог улавливать все ложные сведения и искажения. Даже если бы алгоритму просто сказали, какие источники являются достоверными, а какие нет, он все равно не смог бы идентифицировать все ненадежные источники, потому что (а) их слишком много, (б) постоянно создаются новые , и (c) между достоверными источниками и, скажем, Truth Social Дональда Трампа.платформа, есть значительная серая зона. (Как можно идентифицировать источник как заслуживающий доверия? Что алгоритм сделает, например, с этим информационным бюллетенем? Каждую неделю им расшаривают десятки или сотни раз, согласно аналитике Substack, но фальшивые ли я новости? Единственный способ ответить на этот вопрос вопрос будет заключаться в том, чтобы решение принимала нейтральная организация, проверяющая факты, такая как Snopes.com, а для этого потребуется читатель-человек…)
2. Привычные сбои публикации.
Джейлан и его коллеги также предлагают, чтобы платформы социальных сетей включали дополнительные кнопки, такие как «проверка фактов» или «пропустить», а не только кнопки для лайков и обмена. Они ссылаются на исследования, предполагающие, что это может нарушить бездумный, привычный процесс обмена информацией.
Это кажется хорошей идеей — и осуществимой, потому что потребует минимальных изменений в интерфейсе социальных сетей. Наличие значка «проверка фактов» рядом с большим пальцем вверх и сердечком посылает пользователям важное сообщение о том, что проверка фактов важна, и это даст им немедленный доступ к ресурсу. Но воспользуются ли этим люди? И справится ли ИИ с этой задачей?
На протяжении всего этого информационного бюллетеня я называл «фейковые новости», как будто существует четкое различие между тем, что является фейком, и тем, что не является фейком. Различие не всегда легко провести. Практическим ограничением обоих предложений исследователей является то, что в конечном итоге люди все равно будут необходимы для просеивания контента и выявления ложных сведений. ИИ может хорошо распознавать Pizzagate или победу Дональда Трампа в 2020 году как фальшивые новости, но он борется с более тонкими, но все же важными обманами.
Некоторые программы ИИ довольно хорошо распознают фальшивые новости, созданные ИИ — например, Гровер заявляет точность 92%. К сожалению, эти программы так же хороши в создании фейковых новостей, как и в их распознавании, а это означает, что тупиковая ситуация будет продолжаться, поскольку улучшения в их способности обнаруживать плохие вещи соответствуют улучшениям в их способности их создавать. Между тем, многие фейковые новости генерируются людьми, а не машинами.
Front-end и back-end стратегии
Джейлан и его коллеги рекомендовали изменить платформы социальных сетей таким образом, чтобы они имели эффект в реальном времени. Я бы назвал эти передовые стратегии. Что привлекает в них, так это то, что они системны и относительно легко внедряются — вы вносите небольшое изменение в платформу социальных сетей, и это затрагивает каждого пользователя. Это «внешние» стратегии в том смысле, что их влияние, по-видимому, наиболее сильно в тот момент, когда пользователь решает, делиться контентом в социальных сетях или нет.
В то же время я верю в эффективность «бэкенд-стратегий», которые начинают реализовываться до того, как пользователь войдет в соцсети. Внутренние стратегии включают в себя убеждение компаний, работающих в социальных сетях, усерднее работать над выявлением и отсеиванием фейковых новостей, чтобы пользователи меньше подвергались их воздействию.
Совсем другой вид внутренней стратегии — и, возможно, самый мощный — можно найти в учебных заведениях K-12, где учащихся учат критическому мышлению и навыкам медиаграмотности, которые, среди прочего, помогут им выявлять фальшивые новости и оцените важность либо его игнорирования, либо активного развенчания.
Усилия по разоблачению в условиях K-12 и за его пределами могут поддерживаться нейтральными организациями по проверке фактов (Snopes, FactCheck, PolitiFact, SciCheck и т. д.) и включением так называемых «предварительных» действий.
В последние годы пребукингу уделяется большое внимание. Идея состоит в том, что познакомить людей с небольшим количеством фейковых новостей и показать им, как они работают, — хороший способ сделать им прививку от их влияния. Очень интересным примером является онлайн-игра Bad News , цель которой — стать «магнатом фейковых новостей». Изучая приемы распространения фейковых новостей и получая за это вознаграждение, вы также учитесь распознавать их. Британское исследование , опубликованное в прошлом году, показало, что после просмотра «Плохих новостей» люди лучше распознают настоящие фейковые новости.
Британское исследование также показало, что польза от игры в «Плохие новости» со временем исчезает, если ее не подкреплять. Это говорит о том, что образовательные стратегии, такие как «Плохие новости», выиграют от поддержки изменений на уровне алгоритмов, описанных ранее. Другими словами, сочетание внутренней поддержки со стороны образовательных мероприятий, предназначенных для улучшения критического мышления и выявления фальшивых новостей, наряду с внешней поддержкой со стороны интерфейсов социальных сетей, поощряющих проверку фактов, может помочь остановить поток фейковых новостей и предотвратить людей от попыток освободить выдуманных пленников из подвалов зданий, в которых нет подвалов.
Вывод: что мы можем сделать?
Ранее я похвалил четкость и лаконичность определения фейковых новостей в Википедии (« Фейковые новости — это ложная или вводящая в заблуждение информация, представленная как новости» ).
Это определение меня радует, потому что оно взято из децентрализованной энциклопедии с открытым исходным кодом. Это не обязательно было написано экспертом, но людьми, которые заботились о том, чтобы дать наилучшее возможное определение. В конечном счете, именно здесь мы можем найти самые сильные источники сопротивления фейковым новостям: люди, которые заинтересованы в том, чтобы сделать все правильно. (См. здесь интересную историю о том, как краудсорсинг помог The Guardian проверить почти полмиллиона документов.)
Возможно, мы делаем недостаточно, чтобы поддержать людей, которые хотят сделать все правильно. Во многих штатах стандарты учебной программы K-12 предусматривают преподавание медиаграмотности уже в начальной школе, но фактическое обучение ограничено и непоследовательно из-за нехватки времени и других приоритетов, таких как выполнение обязательных государством тестов успеваемости. Поэтому, возможно, что нам больше всего нужно — помимо бесед с молодежью и давления на социальные сети — это больше бесед со школьными советами и администраторами, а также большая поддержка учителей, чтобы они могли уделять первоочередное внимание медиаграмотности и, в частности, выявлению и обработка фейковых новостей. ( « Медиаграмотность сейчас» — хорошее место для начала для всех, кто интересуется пропагандой, ориентированной на образование.)
Спасибо за чтение! Не стесняйтесь проверить свое понимание, решив, является ли следующий заголовок (из Onion ) фейковой новостью или нет:
Источник:
https://statisfied.substack.com/p/why-fake-news-spreads-and-how-to