web analytics

Борьба с фейковыми новостями с помощью ИИ

Sztuczna Inteligencja (ИИ/AI)

Насколько мы близки к созданию точного детектора фейковых новостей на основе искусственного интеллекта?


В амбициозной попытке устранить вред, наносимый ложным контентом в социальных сетях и на новостных сайтах , специалисты по анализу данных проявляют творческий подход.

Пока еще в процессе обучения, большие языковые модели (LLM), используемые для создания чат-ботов, таких как ChatGPT, привлекаются для обнаружения фейковых новостей . Благодаря лучшему обнаружению системы проверки фейковых новостей на основе ИИ смогут предупреждать и в конечном итоге противодействовать серьезному вреду от дипфейков , пропаганды , теорий заговора и дезинформации .

Инструменты ИИ следующего уровня персонализируют обнаружение ложного контента, а также защитят нас от него. Для этого окончательного скачка в ориентированный на пользователя ИИ наука о данных должна обратиться к поведенческой и нейробиологической науке.

Недавние исследования показывают, что мы не всегда сознательно знаем , что сталкиваемся с фейковыми новостями. Нейробиология помогает обнаружить то, что происходит бессознательно. Биомаркеры, такие как частота сердечных сокращений , движения глаз и активность мозга , по-видимому, тонко меняются в ответ на фейковый и реальный контент. Другими словами, эти биомаркеры могут быть «подсказками», указывающими, были ли мы обмануты или нет.

Например, когда люди смотрят на лица, данные отслеживания глаз показывают, что мы сканируем частоту моргания и изменения цвета кожи, вызванные притоком крови. Если такие элементы кажутся неестественными, это может помочь нам решить, что мы смотрим на deepfake. Это знание может дать ИИ преимущество — мы можем научить его имитировать то, что ищут люди, среди прочего.

Персонализация ИИ-проверки фейковых новостей осуществляется на основе данных о движении глаз человека и электрической активности мозга , которые показывают, какие типы ложного контента оказывают наибольшее воздействие на нейронную, психологическую и эмоциональную сферу и на кого именно .

Зная наши особые интересы, личность и эмоциональные реакции , система проверки фактов на основе ИИ могла бы обнаружить и предвидеть, какой контент вызовет у нас наиболее серьезную реакцию. Это могло бы помочь установить, когда люди поддаются и какой материал обманывает их легче всего.

Противодействие вреду

Далее следует настройка мер безопасности. Защита нас от вреда фейковых новостей также требует создания систем, которые могут вмешаться – своего рода цифровая контрмера против фейковых новостей . Есть несколько способов сделать это, например, предупреждающие надписи, ссылки на проверенный экспертами достоверный контент и даже просьба к людям попытаться рассмотреть разные точки зрения, когда они что-то читают.

Наш собственный персонализированный ИИ-инструмент для проверки фейковых новостей может быть разработан таким образом, чтобы предоставить каждому из нас одну из этих мер противодействия для нейтрализации вреда от ложного контента в Интернете .

Такая технология уже проходит испытания. Исследователи в США изучили, как люди взаимодействуют с персонализированным ИИ-контролером фейковых новостей в сообщениях в социальных сетях . Он научился сокращать количество сообщений в новостной ленте до тех, которые он считал правдивыми. В качестве доказательства концепции другое исследование с использованием сообщений в социальных сетях подстраивало дополнительный новостной контент под каждое сообщение в СМИ, чтобы побудить пользователей просматривать альтернативные точки зрения.

Точное обнаружение фейковых новостей

Но звучит ли все это впечатляюще или антиутопично, прежде чем увлечься, стоит задать несколько основных вопросов.

Большая часть, если не вся, работа по фейковым новостям, дипфейкам, дезинформации и недостоверной информации выявляет ту же проблему, с которой сталкивается любой детектор лжи.

Существует множество типов детекторов лжи, не только полиграф. Некоторые из них зависят исключительно от лингвистического анализа. Другие — это системы, предназначенные для чтения лиц людей, чтобы обнаружить, не выдают ли они микроэмоции, которые выдают, что они лгут. По той же причине существуют системы ИИ, которые предназначены для определения подлинности лица или глубокой подделки.

Прежде чем начнется обнаружение, нам всем нужно договориться о том, как выглядит ложь, если мы хотим ее обнаружить. На самом деле, исследования показывают, что в обмане это может быть проще, потому что вы можете проинструктировать людей, когда лгать, а когда говорить правду. И поэтому у вас есть способ узнать основную правду, прежде чем вы научите человека или машину различать, потому что им предоставляются примеры, на которых они могут основывать свои суждения.

Знание того, насколько хорош экспертный детектор лжи, зависит от того, как часто он выявляет ложь, когда она есть (попадание). Но также и от того, что он не часто ошибочно принимает кого-то за правду, когда тот на самом деле лжет (промах). Это означает, что им нужно знать, что такое правда, когда они ее видят (правильное отклонение) и не обвинять кого-то во лжи, когда тот говорит правду (ложная тревога). Это относится к обнаружению сигнала, и та же логика применима к обнаружению фейковых новостей , что вы можете увидеть на диаграмме ниже.

Для того, чтобы система ИИ, обнаруживающая фейковые новости, была суперточной, попадания должны быть действительно высокими (скажем, 90%), а промахи должны быть очень низкими (скажем, 10%), а ложные тревоги должны оставаться низкими (скажем, 10%), что означает, что настоящие новости не называются фейковыми. Если нам порекомендуют систему проверки фактов на основе ИИ или человека на основе обнаружения сигнала, мы сможем лучше понять, насколько она хороша.

Вероятно, будут случаи, как было сообщено в недавнем опросе , когда новостной контент может быть не полностью ложным или полностью правдивым, но частично точным. Мы знаем это, потому что скорость новостных циклов означает, что то, что считается точным в одно время, позже может оказаться неточным, и наоборот. Таким образом, система проверки фейковых новостей имеет свою работу.

Если бы мы заранее знали, что было поддельным, а что настоящим, насколько точно биомаркеры бессознательно указывали бы, что есть что? Ответ — не очень. Нейронная активность чаще всего одинакова, когда мы сталкиваемся с реальными и фейковыми новостными статьями.

Когда речь идет об исследованиях с отслеживанием движения глаз, стоит знать, что существуют различные типы данных, собираемых с помощью методов отслеживания движения глаз (например, продолжительность времени, в течение которого наш взгляд фиксируется на объекте, частота, с которой наш глаз перемещается по визуальной сцене).

Таким образом, в зависимости от того, что анализируется, некоторые исследования показывают, что мы уделяем больше внимания просмотру ложного контента, в то время как другие показывают обратное .

Мы уже приехали?

Системы обнаружения фейковых новостей на основе ИИ на рынке уже используют идеи из поведенческой науки, чтобы помочь нам помечать и предупреждать о фейковом новостном контенте. Так что не составит большого труда, если те же самые системы ИИ начнут появляться в наших новостных лентах с индивидуальной защитой для нашего уникального профиля пользователя. Проблема со всем этим в том, что нам все еще нужно охватить много базовых основ, чтобы узнать, что работает, но также проверить, хотим ли мы этого .

В худшем случае мы видим фейковые новости только как проблему в сети, как повод решить ее с помощью ИИ . Но ложный и неточный контент есть везде и обсуждается офлайн . Мало того, мы не верим по умолчанию всем фейковым новостям, иногда мы используем их в обсуждениях, чтобы проиллюстрировать плохие идеи .

В воображаемом лучшем сценарии наука о данных и поведенческая наука уверены в масштабе различных видов вреда, которые могут нанести фейковые новости. Но даже здесь приложения ИИ в сочетании с научным волшебством могут оказаться очень слабыми заменами менее сложным, но более эффективным решениям.Разговор

Магда Осман , профессор кафедры влияния политики, Университет Лидса

Источник:
https://thenextweb.com/news/how-close-are-we-to-an-accurate-ai-fake-news-detector

Оцените статью
( Пока оценок нет )

Добавить комментарий