web analytics

Борьба с недостоверной информацией с помощью комбинации стратегий

Stratcom/Стратегические коммуникации

У этой проблемы было много названий с тех пор, как президентские выборы в США в 2016 году впервые привлекли к ней широкое внимание: от «фейковых новостей» до «инфодемии» во время пандемии Covid-19 и «дезинформации» во множестве научных исследований. Несмотря на это, эта токсичная смесь путаницы, неверного направления, манипуляций и откровенной лжи теперь угрожает как общественному здравоохранению, так и нашей коллективной вере в демократические выборы, не говоря уже о каком-либо общем понимании истины.


Однако когда дело доходит до решений, «это очень сложная проблема», — говорит Джевин Уэст, биолог, ставший ученым-информатиком из Вашингтонского университета в Сиэтле и соавтор широко используемого курса по информационной грамотности «Calling Bullshit» ( 1 ). Это особенно сложно, если учесть, что большая часть борьбы с дезинформацией приходится вести на платформах социальных сетей, таких как Facebook, YouTube и X (ранее известный как Twitter), которые находятся в частных руках.

Обычно эти компании решают проблему с помощью проверки фактов в наиболее широко распространяемых сообщениях. Но чрезвычайно сложно контролировать миллиарды постов в день, когда они сталкиваются с злоумышленниками, которые освоили всевозможные высокотехнологичные фейки. Набор инструментов варьируется от программных «ботов», которые могут генерировать миллионы фальшивых профилей пользователей и фальшивых новостных сообщений, до новейших чат-ботов на базе искусственного интеллекта (ИИ), которые могут обмануть людей, заставив их думать, что они разговаривают с другим человеком.

И, конечно же, платформы должны осуществлять свою охрану в сегодняшней среде культурной войны, где любая попытка проверить факты или модерировать дискуссию мгновенно осуждается как заговор с целью навязать какую-то идеологическую программу.

Хорошей новостью является то, что в последние годы наблюдается огромный поток исследований по проблеме дезинформации. «Это очень быстро меняющееся пространство», — говорит психолог Нью-Йоркского университета Джей Ван Бавел. «Каждую неделю или две выходит еще одна большая газета». И по мере того, как исследователи начинают лучше понимать, почему люди верят и делятся дезинформацией, они начали придумывать решения следующего поколения, которые платформы могут развертывать в больших масштабах, и которые не говорят людям, что им думать (3 , 4 ) . Примеры включают краудсорсинговые рейтинги точности, подсказки, которые побуждают пользователей больше думать о точности, прежде чем делиться чем-либо, и даже своего рода мысленную прививку от распространенных методов обмана.

Пока никто не претендует на полное решение. Но исследователи начали экспериментировать с комбинациями этих методов, позволяя вмешательствам усиливать друг друга и становиться более эффективными, чем любой из них по отдельности. И в этой работе мы можем начать видеть очертания масштабируемой, основанной на фактических данных системы «общественного здравоохранения», которая могла бы предотвратить безудержное распространение чумы дезинформации.

Ваш мозг в социальных сетях

На первый взгляд можно задаться вопросом: «Зачем вообще работать полиции?» Почему бы просто не позволить всем увидеть все, чтобы они могли принять собственное решение?

Распространенный ответ: ни у кого нет времени, опыта или смелости разобраться в бесконечном потоке токсичности, преследований и чепухи. Если платформа не приложит никаких усилий для модерации дискуссии (а это делают практически все авторитетные платформы), разумные пользователи уйдут.

Но еще одна часть ответа заключается в том, что сегодняшняя среда социальных сетей редко является нейтральным форумом для дискуссий. Зачастую платформы активно поощряют распространение дезинформации — настолько сильно, что некоторые пользователи регулярно делятся сообщениями, которые на самом деле противоречат их политическим взглядам.

Например, в ходе одного недавнего лабораторного эксперимента было обнаружено, что люди, называющие себя постоянными пользователями социальных сетей, делятся в восемь раз больше дезинформации, чем самопровозглашенные случайные пользователи ( 5). По словам руководителя группы Гизема Джейлана, постдока Йельской школы менеджмента, в ходе эксперимента (всего включавшего четыре исследования) более внимательно изучили этих привычных пользователей и обнаружили, что все лайки, репосты и комментарии их посты, казалось, вызывали у них прилив эмоционального подтверждения, сродни перекусу с высоким содержанием сахара. И их жажда к этим психическим вознаграждениям уже давно научила их делиться такими публикациями, которые получили самый сильный отклик, и которые, вероятно, не были тщательно проверенными фактами статьями из The New York Times.. Вместо этого они научились публиковать неожиданные, эмоционально заряженные, привлекательные или острые материалы против людей, которых они и их друзья презирают: «контент, который точно отражает характеристики ложной информации», говорит Джейлан, и что другие исследователи показали. распространится дальше и быстрее, чем правда ( 6 ).

Платформы социальных сетей действительно пытаются помешать по крайней мере некоторым мошенникам, теоретикам заговора и демагогам, которые поставляют эти очень кликабельные фейки. По словам ученого-компьютерщика из Университета Индианы Филиппо Менцера, который последнее десятилетие посвятил разработке инструментов для обнаружения и картирования активности ботов и других технологий онлайн-обмана, крупные платформы, такие как Facebook, YouTube и (до Илона Маска) Twitter, регулярно разрушают сотни секретных, но хорошо скоординированных «информационных операций», которые часто используются политиками, правозащитными группами и иностранными игроками для посеяния разногласий и дезинформации.

К сожалению, добавляет Менцер, платформы не так жестко относятся к «суперраспространителям», которые даже не пытаются спрятаться. «Много вреда и много дезинформации распространяют не неизвестные боты, а известные, даже проверенные пользователи», — объясняет он. Часто это влиятельные лица, представители элиты, политики или знаменитости, которые зарабатывают деньги, продвигают политическую повестку дня, борются за какое-то дело или выступают против вакцин. «И платформы очень неохотно их удаляют, потому что у этих людей много подписчиков, а это значит, что они привлекают много внимания, а платформы зарабатывают на них много денег от рекламы», — говорит Менцер.

Вместо этого большинство крупных платформ социальных сетей в значительной степени полагаются на проверку фактов, которая превратилась в глобальную индустрию с профессиональными стандартами беспристрастности, а также прозрачности источников, методологии и финансирования. Facebook, например, отправит свои самые популярные и широко распространенные публикации на оценку одному из своих 90 международных партнеров по проверке фактов. Сообщения, которые эти фирмы считают ложными или вводящими в заблуждение, затем помечаются как таковые и понижаются в ленте новостей Facebook, чтобы их могло видеть меньшее количество пользователей.

Но проверка фактов имеет свои пределы и должна проводиться осторожно, отмечает Менцер. Если вы не будете подчеркивать то, что верно, вместо того, чтобы повторять ложное утверждение, говорит он, «тогда люди будут помнить это утверждение, а не то, что оно было ложным», и усилия будут иметь неприятные последствия. Тем не менее, независимые исследователи подтвердили, что тщательно продуманные разоблачительные ярлыки имеют реальный и длительный эффект ( 7 ). «Просто навешивать на что-то ярлык «неправда» — это очень важно», — говорит Дэвид Рэнд, учёный-когнитивист из Массачусетского технологического института в Кембридже, штат Массачусетс. «Это действительно снижает веру и распространение этого поста». В одном недавнем эксперименте по проверке фактов, проведенном с пользователями в Аргентине, Нигерии, Южной Африке и Великобритании, это снижение убеждений составило как минимум 0.

Несмотря на это, в мире недостаточно профессиональных фактчекеров, чтобы проверять миллиарды сообщений в день. И даже если бы они были, — отмечает Гордон Пенникук, психолог из Университета Реджайны в Саскачеване, Канада, — «вы всегда заклеиваете вещи: разоблачить что-то можно только после того, как оно уже распространилось и стало известно».

Когнитивная прививка

Чтобы ограничить это распространение, некоторые исследователи пытаются помочь пользователям самостоятельно распознавать дезинформацию. Как минимум, говорит Сандер ван дер Линден, психолог из Кембриджского университета в Соединенном Королевстве, «нам нужно дать людям возможность выявлять манипуляции по мере их возникновения, чтобы они могли принимать действительно обоснованные решения» о том, чем делиться, чем купить или даже чему верить.

Хотя курсы цифровой грамотности, такие как «Призывная ерунда» Вашингтонского университета, справляются с этой задачей хорошо, говорит ван дер Линден, он и его коллеги работают над более быстрыми и более широко применимыми методами, вдохновленными десятилетиями исследований психологической формы прививки.

Эта когнитивная прививка, также известная как упреждающее разоблачение или «предварительное разоблачение», действует как настоящая вакцина, говорит он: «Вы подвергаете людей ослабленной дозе лжи или методам, которые используются для создания лжи, чтобы люди могли выработать ментальные антитела для нейтрализации дезинформации в будущем» ( 9). А поскольку невозможно заранее опровергнуть каждую ложь, распространяющуюся, скажем, об изменении климата или иммиграции, и поскольку (авторитетные) платформы социальных сетей не хотят выступать в роли арбитров истины, лучшая стратегия, утверждает он, — это пойти на широкую Предварительная вакцинация -спектра, в которой основное внимание уделяется методам манипуляции. «Мы знаем о любимых трюках плохих парней еще со времен Аристотеля», — говорит ван дер Линден. Фальшивые эксперты, ложные дилеммы, нападки ad hominem, фальшивые дергания за струны души, разжигание страха против удобных козлов отпущения – «все это вводит в заблуждение как левые, так и правые».

В 2019 году ван дер Линден и психолог из Кембриджа Джон Рузенбек проверили предварительный контроль с помощью Bad News., ролевая игра, в которой игроки знакомились с этими методами манипуляции, а затем получали очки за создание убедительной кампании по дезинформации и привлечение последователей ( 10 ). Тесты «до» и «после» показали, что игра дала игрокам возможность распознавать дезинформацию в реальной жизни на 20–25%, говорит ван дер Линден, причем эффект длился как минимум 7–10 дней. По его словам, как только эксперименты были завершены, команда сделала игру бесплатной и общедоступной в Интернете, «и она стала вирусной на Reddit. К ней приходило так много пользователей, что нам пришлось покупать больше облачного пространства».

Когда разразилась пандемия, команда запустила аналогичную игру Go Viral., предназначенный специально для прививки игроков от дезинформации о COVID-19, говорит ван дер Линден. По данным правительства Великобритании, при поддержке правительства Великобритании, Всемирной организации здравоохранения и Организации Объединенных Наций игра получила более 200 миллионов просмотров в социальных сетях. Однако, каким бы обнадеживающим ни был этот ответ, на создание игр уходило как минимум 5–20 минут (вечность для социальных сетей), и как только игры выходили из лаборатории, они в основном привлекали людей, которые уже были открыты для их сообщений.

Поэтому Рузенбек, ван дер Линден и другие разработали вмешательство с более широким охватом ( 11). Сотрудничая с Google, они создали серию двухминутных видеороликов, в которых используются юмор и отсылки к поп-культуре, чтобы проиллюстрировать шесть наиболее распространенных техник манипуляции. В одном примере они изображают своего рода ложную дихотомию, часто используемую для подталкивания людей к экстремизму. В отрывке из «Звездных войн: Эпизод III: Месть ситхов » Энакин говорит: «Если ты не со мной, то ты мой враг!» Оби-Ван отвечает, что «только ситхи имеют дело с абсолютами!» Рассказчик видео завершает словами: «Никто не хочет быть ситхом».

По словам ван дер Линдена, после тщательной доработки в лаборатории видео были протестированы в полевых условиях, поместив их во временные интервалы, которые обычно используются для рекламы на платформе Google YouTube. По его словам, эта кампания была адресована миллионам реальных пользователей YouTube, «и мы смогли случайным образом выбрать около 30%, которым будет показано либо наше видео о лечении, либо контрольное видео об ожоге морозом». Затем, примерно через 18 часов, люди, просмотревшие видео о лечении, на 5–10% лучше, чем контрольная группа, распознавали эту технику манипуляции в заголовке теста.

Это не преобразующее изменение. Но хорошо, что YouTube широко распространил эти видео в некоторых частях Европы и других странах. И хотя это правда, что эффект со временем ослабевает, говорит ван дер Линден, команда подтвердила, что предоставление людям «ускоренной прививки» в виде короткого видео-напоминания может поддерживать когнитивный иммунитет как минимум на 3 месяца (самый длительный период). период времени, который они тестировали).

Думайте больше, делитесь меньше

Тем не менее, прививка сама по себе окажет лишь ограниченное влияние на проблему дезинформации. Во всяком случае, говорит Джейлан, «это возлагает на человека большую ответственность» в отличие от алгоритмов социальных сетей, которые обеспечивают психическое вознаграждение, когда пользователи делятся дезинформацией. «Я не думаю, что поведение пользователей действительно изменится, если мы не внесем структурные изменения в этот механизм вознаграждения», — говорит она.

Вот почему другое направление исследований дезинформации пытается подтолкнуть пользователей социальных сетей к тому, чтобы они меньше сосредотачивались на вовлеченности, когда они чем-то делятся, и больше на точности — или, как Уэст выразил это в наклейке, которую он раздает своим студентам: «Думайте больше, делитесь меньше». «

Когда вы просите пользователей остановиться и подумать, как это сделали Рэнд и Пенникук в 2019 году, они на удивление хорошо оценивают точность публикации — независимо от принадлежности к политической партии. Рэнд говорит: «Если вы спросите 15–20 случайных пользователей Facebook: «Насколько это кажется точным?» а затем усредняют свои ответы, они хорошо воспроизводят то, что придумал бы профессиональный фактчекер» ( 12 ). По словам Рэнд, это согласуется с обширной литературой о мудрости толпы и предполагает, что краудсорсинг может стать для платформ надежным способом маркировать неточный контент и преодолеть проблему масштабирования до профессиональной проверки фактов.

В 2021 году Рэнд, Пенникук и их коллеги расширили этот образ мышления до подсказок, которые они называют «подсказками о точности» ( 13). Опять же, говорит Рэнд, эта идея согласуется с предыдущими исследованиями в области психологии об эффекте прайминга: «Если вы можете просто заставить людей задуматься о точности, тогда они с меньшей вероятностью будут делиться плохим контентом». И это даже не сложно, говорит он: все, что вам нужно, это всплывающее окно с просьбой к пользователям, скажем, оценить точность случайного заголовка или указать, важна ли для них точность – все, что заставит их задуматься об истине.

Группа подтвердила результаты своей лабораторной работы с помощью реального исследования, в ходе которого более 5300 пользователей Твиттера (до Маска) попросили оценить точность одного неполитического заголовка. В последующие 24 часа твиты, которыми поделились эти пользователи, продемонстрировали определенный перекос в сторону источников, которые независимые специалисты по проверке фактов уже оценили как более надежные, таких как CNN и The New York Times.и подальше от тех, которые считаются менее надежными, таких как Breitbart и The Daily Caller . Последующие эксперименты подтвердили, что точные подсказки сокращают распространение плохого контента примерно на 10% – не так уж и много, говорит Рэнд, но это того стоит, и платформы легко реализуют на регулярной основе (14 ) .

Тем временем в Научно-исследовательском институте Госпиталя дель Мар в Барселоне нейробиолог Клара Претус вместе с Ван Бавелем из Нью-Йоркского университета и другими провели предварительные испытания более прямого стимула к точности: предоставление пользователям кнопки для пометки сообщений как «вводящих в заблуждение» (15) .). По словам Претуса, в ходе лабораторного эксперимента с примерно 2500 пользователями из США и Великобритании 25% сообщили, что большое количество вводящих в заблуждение людей снизит вероятность того, что они поделятся публикацией, но с критической оговоркой. «Вероятно, это очень хорошо работает для населения в целом», — говорит она, но может легко иметь неприятные последствия для пользователей, находящихся на крайних концах политического спектра.

В более раннем исследовании более 1600 пользователей социальных сетей в США и Испании ( 16), говорит Претус, она и ее соавторы обнаружили, что эти крайне политизированные люди были одними из самых активных распространителей дезинформации. «Это вопрос идентичности», — говорит она. «Они не только используют это как способ агитировать за свое дело, но и чтобы показать, что они являются частью своей группы». Но это также делает их самыми недоверчивыми из неверующих. «Поэтому важным аспектом нашего текущего вмешательства является то, что пользователи видят только «вводящие в заблуждение» теги других людей в своей группе», — говорит она. По ее словам, с учетом этого ограничения теги кажутся весьма эффективными. Сейчас она и ее коллеги работают над следующим шагом: тестированием метода на реальных пользователях в реальной среде социальных сетей.

Глубокая защита

Широко распространено мнение, что ни одно из этих вмешательств само по себе не является панацеей от дезинформации. Путь вперед — найти методы, сочетающие разоблачение, предварительное разоблачение, повышение точности и многое другое.

Один предварительный пример можно найти в неопубликованном исследовании, совместно финансируемом Google, говорит ван дер Линден: «Оно предполагает, что, когда видео о прививках чередуются с подсказками точности, эффекты обоих вмешательств усиливаются. Другой пример: Уэст недавно объединился с коллегами из Вашингтонского университета для разработки компьютерного моделирования, которое рассматривает распространение дезинформации как своего рода заразу и откалибровано с использованием реальных данных о 10,5 миллионах дезинформационных твитов во время выборов 2020 года. «Это очень простая модель», — говорит Уэст. «Но он отлично справляется с задачей улавливания динамики, которую мы видим в реальных данных», например, всплеска активности, когда сообщение становится вирусным. После этого он и его коллеги использовали симуляцию для моделирования эффекта потенциальных вмешательств, таких как проверка фактов,17 ).

Но эта скоординированная защита не является чем-то, что люди могут сделать сами по себе, говорит Уэст: необходимость в каких-то скоординированных действиях со стороны правительств, компаний и других институтов уже давно стала неизбежной.

Это особенно актуально, учитывая поразительные достижения в области генеративного искусственного интеллекта. Эта категория алгоритмов включает в себя невероятно реалистичные «дипфейки» — изображения, видео и аудиофайлы, которые практически невозможно отличить от реальных, — а также столь же реалистичный текст и разговоры, созданные на основе ChatGPT. «ИИ сейчас демократизирует создание пропаганды», — говорит ван дер Линден. «Любой, у кого есть доступ к Интернету, может использовать ChatGPT для автоматизации кампании по масштабному обману людей», — говорит он, — и даже осуществлять массовый микротаргетинг, передавая ИИ легкодоступные данные о просмотрах и приказывая ему адаптировать манипулятивное сообщение для каждого человека.

Крупные социальные сети действуют осторожно, не желая делать ничего, что могло бы повредить их вовлеченности (и, следовательно, их доходам от рекламы), говорит Джейлан. Но у авторитетных компаний все еще есть сильный стимул держать ситуацию под контролем, отмечает она. Согласно ее исследованию, большинство людей говорят, что они не решаются публиковать или публиковать публикации, и что становится все труднее понять, какая информация является правдивой, а какая ложной. «Если мы сможем создать среду, в которой люди смогут быть уверены в том, что информация, которую они видят, будет точной, — говорит Джейлан, — я думаю, это повлияет на взаимодействие скорее положительно, чем отрицательно».

Автор:
M. Mitchell Waldrop

Источник:
https://www.publicnewsservice.org/2023-09-18/consumer/fighting-misinformation-with-a-combination-of-strategies/a86359-2

Оцените статью
( 1 оценка, среднее 5 из 5 )

Добавить комментарий