Распространение дезинформации в социальных сетях вызвало серьезные общественные опасения, что потребовало надежных механизмов обнаружения. Большие языковые модели, такие как GPT-4 и LLaMA2, были задуманы как возможные инструменты для обнаружения дезинформации на основе их расширенных возможностей понимания и рассуждения естественного языка. В этой статье проводится сравнение подходов на основе LLM к обнаружению дезинформации между текстовыми, мультимодальными и агентными подходами. Мы оцениваем эффективность тонко настроенных моделей, обучения с нулевой скоростью и механизмов систематической проверки фактов при обнаружении дезинформации в различных тематических областях, таких как общественное здравоохранение, политика и финансы. Мы также обсуждаем масштабируемость, обобщаемость и объяснимость моделей и признаем ключевые проблемы, такие как галлюцинации, состязательные атаки на дезинформацию и вычислительные ресурсы. Наши выводы указывают на важность гибридных подходов, которые сочетают структурированные протоколы верификации с методами адаптивного обучения для повышения точности обнаружения и объяснимости. В заключение статьи предлагаются потенциальные направления будущей работы, включая отслеживание дезинформации в режиме реального времени, федеративное обучение и кроссплатформенные модели обнаружения.
- Предыстория и мотивация
- ИБ Цели исследования
- IC Вклад этого обзора
- II Таксономия дезинформации и проблемы ее обнаружения
- II-А Типы дезинформации
- II-Б Характеристики дезинформации
- II-С Проблемы обнаружения дезинформации
- II-D Сравнение проблем обнаружения при разных подходах
- III Сравнительный анализ методов обнаружения дезинформации на основе LLM
- III-А Подходы, основанные на тексте
- III-А 1 Гибридная структура внимания: интеграция статистических и семантических признаков
- III-Б Мультимодальные подходы
- III-С Агентские и неагентские модели
- III-D Сравнение линий обнаружения
- IV Оценка эффективности обнаружения дезинформации на основе LLM
- IV-А Метрики оценки
- IV-Б Наборы данных для эталонных тестов
- IV-C Сравнительный анализ производительности
- IV-D Проблемы оценки эффективности
- В Объясняемость и интерпретируемость моделей обнаружения
- ВА Важность объяснимости при обнаружении дезинформации
- ВБ Методы объяснимости
- ВК Сравнение методов объяснимости в разных моделях
- VI Заключение
- С ПОМОЩЬЮ Практические выводы по смягчению последствий дезинформации
- Ссылки
Предыстория и мотивация
1) Рост дезинформации в социальных сетях Распространение социальных сетей изменило распространение информации, обеспечив мгновенный доступ, но также ускорило распространение фейковых новостей, слухов и теорий заговора .1] . Большие языковые модели (LLM) усугубляют это, массово производя убедительную дезинформацию [2] .
Влияние дезинформации на общество включает в себя подрыв общественного доверия, нарушение демократических процессов (например, поляризация на выборах в США в 2016 году) и кризисы в области общественного здравоохранения, такие как нерешительность в отношении вакцины от COVID-19 [3] . Это также угрожает экономической стабильности и научному прогрессу, способствуя недоверию к рынкам и исследованиям [4] .
Мультимодальная дезинформация (изображения, видео, аудио) еще больше усложняет обнаружение, требуя использования расширенных инструментов кросс-модального анализа [5] .
2) Роль LLM в обнаружении дезинформации
Большие языковые модели (LLM), такие как GPT-4 и LLaMA, показывают многообещающие результаты в борьбе с дезинформацией посредством расширенного понимания языка и рассуждений. Они могут проверять факты, ссылаясь на фактические базы данных и обнаруживая несоответствия в тексте или мультимодальном контенте. Модели Ensemble NLP могут дополнительно улучшить обнаружение, улучшая лингвистическую связность и аналитическую строгость [6] . Были опробованы различные методы применения LLM для выявления дезинформации, в том числе:
- •
Подсказка Обнаружение на основе подсказок: подсказки с нулевым результатом, с несколькими результатами или цепочкой мыслей для оценки обоснованности заявления.
- •
Агентская проверка: такие системы, как FactAgent, имитируют человеческую проверку фактов, разбивая проверку на подзадачи [7] .
- •
Мультимодальный анализ: объединение моделей LLM с моделями зрительно-языкового восприятия (LVLM) для обнаружения несоответствий в парах текст-изображение.
Магистры права сталкиваются с такими ограничениями, как риск галлюцинаций и зависимость от высококачественных данных для обучения .8] . В будущем приоритетом должны стать прозрачность модели, объяснимость и устойчивость к состязательным тестам.
ИБЦели исследования
1) Анализ эффективности LLM в обнаружении дезинформации
Целью данной статьи является оценка возможности использования степеней магистра права для обнаружения дезинформации в различных областях обучения, например, в политике, здравоохранении и финансах.
2) Сравнение текстового и мультимодального подходов
Исследование пытается сравнить текстовые и мультимодальные подходы к выявлению дезинформации на основе эффективности. В то время как текстовые модели имеют дело только с языковыми сигналами и проверкой фактов, мультимодальные модели обрабатывают текстовые, визуальные и слуховые входы для более высокой точности [9] .
3) Оценка производительности по наборам данных и контрольным показателям
Чтобы дать общее представление об эффективности LLM, исследование будет сравнивать различные модели с эталонными наборами данных, которые стандартизированы, т. е. FakeNewsNet, SciNews и MM-COVID. Недавние исследования дезинформации о COVID-19 подчеркивают необходимость в наборах данных, которые объединяют множественные модальности, поскольку объединение текста, изображений и данных о поведении пользователей повышает точность обнаружения дезинформации [10] .
ICВклад этого обзора
1) Комплексный обзор существующих подходов к обнаружению
В статье представлен унифицированный обзор современных алгоритмов обнаружения дезинформации: от текстовой до мультимодальной и гибридной.
1) Сравнение ведущих моделей по производительности
Сравнительный анализ будет проводиться среди ведущих LLM для выявления дезинформации по ключевым параметрам эффективности, таким как точность, достоверность, полнота и объяснимость.
2) Определение ключевых проблем и будущих направлений
Выявив такие основные проблемы обнаружения дезинформации, как смещение прогнозов моделей, развивающиеся методы обнаружения дезинформации и масштабируемость, в обзоре будут рекомендованы будущие направления исследований относительно того, как можно оптимизировать и сделать адаптивными механизмы обнаружения на основе LLM.
IIТаксономия дезинформации и проблемы ее обнаружения
II-АТипы дезинформации
| Категория | Определение | Характеристики |
| Фейковые новости | Намеренно сфабрикованная или вводящая в заблуждение информация, представленная как достоверные новости с целью обмана аудитории. | Использует сенсационность и эмоциональную привлекательность для привлечения внимания и влияния на общественное мнение. |
| Слухи | Непроверенная информация, которая быстро распространяется. | Подпитываемая неопределенностью и домыслами, она часто лишена достоверных источников. |
| Теории заговора | Выдвигать предположения о наличии скрытых, злонамеренных сил, стоящих за значимыми событиями. | Не имеют достоверных доказательств, но находят отклик у тех, кто ищет объяснений. |
| Дезинформация | Намеренное распространение ложной информации с целью введения в заблуждение или манипулирования аудиторией. | Часто мотивированные политическими или идеологическими соображениями, стратегически созданные для обмана. |
| Дезинформация | Непреднамеренное распространение неверной информации без злого умысла. | По-прежнему может способствовать распространению дезинформации и подрывать доверие к надежным источникам. |
| Кликбейт | Сенсационные заголовки, призванные привлечь внимание. | Приоритет кликов и просмотров над фактической точностью может ввести аудиторию в заблуждение. |
| Пропаганда | Информация, созданная с целью повлиять на общественное восприятие и продвигать повестки дня. | Используется в политических, идеологических или убедительных целях, часто однобоко или предвзято. |
II-БХарактеристики дезинформации
1) Модели распространения (вирусный характер, эхо-камеры) Дезинформация быстро распространяется благодаря алгоритмам социальных сетей, которые стимулируют вовлекающий материал, что приводит к вирусному распространению.
2) Психологическое влияние и предубеждения пользователей
Когнитивные предубеждения, такие как предвзятость подтверждения и эффект иллюзорной правды, ответственны за сохранение принятия дезинформации [11] . Пользователи проверяют информацию, которая подкрепляет их уже существующие убеждения, и им будет легче отклонять исправления. Эмоции играют ключевую роль в распространении дезинформации. Исследования показывают, что LLaMA3 отлично справляется с определением эмоций в коротких текстах, что может помочь в обнаружении эмоционально заряженной дезинформации [12,13] .
3) Мультимодальная дезинформация (текст, изображение, видео)
Современная дезинформация обычно использует комбинацию текста, изображений и видео для большей достоверности и эффективности. Мультимодальный формат затрудняет обнаружение, поскольку требуются сложные методы кросс-модального анализа [14] . Контекст играет ключевую роль в геопространственной дезинформации, поскольку исследования по проверке местоположения показывают, что окружающие твиты повышают точность модели [15] .
II-СПроблемы обнаружения дезинформации
1) Контекстная неоднозначность и обнаружение намерений
Сатиру, мнение и преднамеренную дезинформацию трудно идентифицировать из-за контекстной двусмысленности. Различия в культуре, языковые тонкости и различные восприятия мешают машинам правильно выводить намерения.
2) Масштабируемость и обобщаемость методов обнаружения
Дезинформация продолжает развиваться, и поэтому обнаружение также должно быть адаптивным и масштабируемым. Обобщение на разных языках, в разных областях и на разных платформах является ключевой проблемой, поскольку модели, обученные на определенных данных, могут не справляться с различными средами. Послойное кодирование задач в LLM влияет на обнаружение дезинформации, поскольку сложные инференциальные рассуждения могут потребовать более глубоких слоев для точной оценки [16] . Модели извлечения многособытийных данных, такие как DEEIA, улучшают контекстное понимание и эффективность, что может улучшить обнаружение дезинформации в связанных событиях [17] .
3) Ограничения ресурсов при обнаружении в реальном времени
Для обнаружения дезинформации в режиме реального времени требуются значительные вычислительные ресурсы и инфраструктура, требующая высокой вычислительной мощности для обработки огромных объемов контента в различных модальностях.
II-DСравнение проблем обнаружения при разных подходах
1) Проблемы текстовых подходов
Текстовые механизмы обнаружения борются с сарказмом, иронией и скрытой коммуникацией, которые могут скрывать истинное намерение сообщений. Кроме того, рассмотрение одних только языковых моделей теоретически может не позволить даже обнаружить контекстуальные тонкости дезинформации.
2) Проблемы мультимодальных подходов
Мультимодальные системы, включающие текст, изображение и видео, также страдают от проблем интеграции. Разнородные модальности данных, разрешение несоответствий и обработка мультимедийного контента изменили спрос на сложные методы и огромные вычислительные ресурсы. Проблемы кросс-модальной интеграции при обнаружении дезинформации параллельны проблемам в аудиовизуальном IVD, где одномодальный анализ недостаточен [18] .
3) Ограничения гибридных подходов
Гибридные методы, объединяющие подходы к обнаружению, более точны, но их сложнее применять и интерпретировать.
IIIСравнительный анализ методов обнаружения дезинформации на основе LLM
III-АПодходы, основанные на тексте
III-А 1Гибридная структура внимания: интеграция статистических и семантических признаков
Гибридная структура внимания для обнаружения фейковых новостей основана на обнаружении ложной информации на основе LLM, используя как текстовые статистические признаки, так и глубокое семантическое понимание. Модель использует гибридный механизм внимания, который динамически обращается к соответствующим лингвистическим и структурным шаблонам, повышая эффективность обнаружения. Кроме того, тепловые карты внимания и значения SHAP обеспечивают прозрачность в принятии решений по модели. В то время как интеграция статистических и семантических признаков повышает надежность обнаружения, зависимость от проектирования признаков может ограничить адаптивность к новым тенденциям дезинформации.
1) FactAgent: пошаговая проверка фактов с помощью структурированных рабочих процессов
FactAgent использует пошаговый, систематический подход к выявлению дезинформации, разбивая проверку фактов на ощутимые подзадачи. LLM-степени используются моделью для последовательной проверки утверждений по надежным источникам информации открытым и прозрачным образом.
2) SciNews: тонкая настройка LLM для научной дезинформации
SciNews — это технология, которая борется с научной дезинформацией посредством оптимизации LLM на основе рецензируемых журнальных статей и проверяемых корпусов исходных доменов. При этом модель более эффективно выявляет неточности, когда речь идет о контенте, связанном со здоровьем и наукой.
3) Методы оперативной инженерии для обнаружения дезинформации
Инженерия подсказок стала эффективной методологией обнаружения дезинформации при обучении LLM оценивать текст на основе более контекстной информации. Такие методы, как нулевой выстрел, несколько выстрелов и подсказки цепочки мыслей, позволяют моделям выполнять детальную проверку утверждений с меньшим вмешательством человека.
III-БМультимодальные подходы
1) SNIFFER: объединение текстовых и визуальных элементов
SNIFFER — это мультимодальный метод, который сочетает текстовый и визуальный анализ для обнаружения дезинформации в различных социальных сетях. Метод улучшает качество обнаружения за счет сложности сопоставления признаков и сложности процесса.

2) LVLM4FV: Модели слияния изображения и текста
Модель LVLM4FV объединяет текстовые и графические функции для оценки достоверности контента социальных сетей. Было обнаружено, что она демонстрирует многообещающие результаты в определении поддельного контента в СМИ, но требует значительных объемов вычислительных ресурсов и данных для обеспечения наилучшей производительности.

III-САгентские и неагентские модели
1) Агентные модели (FactAgent, структурированные рабочие процессы)
Агентские модели, такие как FactAgent, используют рабочие процессы для упрощения процесса обнаружения дезинформации. Агентские модели применяют возможности рассуждения и внешние базы знаний в попытке доказать утверждения шаг за шагом, делая процесс объяснимым, но менее объективным. Однако агентские модели потребуют больше времени для ответа из-за пошаговой обработки.
2) Неагентные модели (GPT-4, LLaMa2, возможности нулевого выстрела)
Неагентные модели, такие как GPT-4 и LLaMa2, обрабатывают данные сквозным образом без структурирования рабочих процессов. Они предварительно обучены и используют подсказки для взаимодействия, что делает их способными обрабатывать контент на высокой скорости.
3) Логические различия в рабочих процессах обработки
Главное различие между агентными и неагентными моделями заключается в том, как они идентифицируют дезинформацию. Агентные модели выполняют последовательность операций в определенном порядке прослеживаемым и надежным образом, в то время как неагентные модели обеспечивают немедленную обратную связь, используя огромные резервуары предварительно обученных знаний, но не поддаются объяснению.
III-DСравнение линий обнаружения
1) Нулевой подход против тонко настроенных подходов
Модели с нулевым результатом (GPT-4) используют предварительно обученные знания для междоменной адаптации без тонкой настройки.
Модели с точной настройкой для конкретной области достигают более высокой точности в таких областях, как наука/медицина, но им не хватает обобщения, что превосходит модели с нулевым результатом в целевых задачах.
2) Эффективность обнаружения междоменной дезинформации
Обнаружение дезинформации на основе обобщения домена затруднено из-за различий в темах, культурах и языках. Тонкая настройка хорошо работает на обучающем наборе, но не работает за его пределами.
Методы нулевого выстрела более эффективны для различных типов дезинформации, но потенциально хуже при использовании уловок, специфичных для определенной области, например, мошеннических финансовых записей.
3) Различия в объяснимости моделей обнаружения
Проблемы объяснимости сохраняются: агентные модели (например, FactAgent) повышают прозрачность за счет структурированной проверки на основе источников, но жертвуют эффективностью, в то время как неагентные LLM (например, GPT-4) отдают приоритет скорости над интерпретируемостью. Мультимодальные модели (например, SNIFFER) повышают точность за счет анализа текста и изображений, но испытывают трудности с выравниванием модальности. Компромиссы между прозрачностью и эффективностью сохраняются: агентные модели медленнее, в то время как LLM-черные ящики требуют инструментов объяснимости постфактум (например, LIME, SHAP). Гибридные подходы, интегрирующие тонкую настройку, обучение с нуля и структурированное рассуждение, могут сбалансировать точность, гибкость и прозрачность в разных областях.
| Тип модели | Пример | Методология | Сильные стороны | Ограничение |
| Предварительная модель | ГПТ-4 | Обучение с нулевым/несколькими выстрелами | Обобщаемость | Возможные галлюцинации |
| Модель агента | ФактАгент | Структурированная проверка | Объяснимость | Ограниченная масштабируемость |
| Мультимодальная модель | НЮХАТЕЛЬ | Мультимодальные проверки согласованности | Надежность в разных доменах | Ресурсоемкий |
IVОценка эффективности обнаружения дезинформации на основе LLM
IV-АМетрики оценки
1) Стандартные метрики
Модели обнаружения дезинформации оцениваются с использованием точности (общая правильность прогноза), точности (коэффициент истинной дезинформации), отзыва (охват обнаружения) и F1-оценки (баланс точности-отзыва). Эти метрики имеют решающее значение для оценки эффективности текстовых и мультимодальных моделей.
2) Меры надежности
Для количественной оценки надежности и согласованности моделей обнаружения дезинформации в некоторой степени используются такие продвинутые метрики, как коэффициент Каппа Коэна и коэффициент корреляции Мэтьюса (MCC). MCC — это метрика эффективности классификации, которая является общей и особенно эффективной при работе с несбалансированными данными и, таким образом, подходит для обнаружения дезинформации.
3) Эффективность модели
Эффективность модели имеет значение, когда речь идет об обнаружении дезинформации в реальном времени. Скорость вывода и потребление ресурсов (например, вычислений, использования памяти) определяют возможность масштабирования для LLM. Такие методы, как MG-PTQ, используют графовые нейронные сети для оптимизации квантования, повышая эффективность в условиях ограниченных ресурсов без ущерба для эффективности модели [19] . Методы оптимизации, такие как оптимизация роя частиц (PSO), применяемые к Трансформерам, продемонстрировали улучшение эффективности модели. Аналогичные подходы можно было бы изучить для улучшения обнаружения дезинформации на основе LLM [20] .
IV-БНаборы данных для эталонных тестов
1) Набор данных SciNews
Набор данных SciNews предназначен для выявления научной дезинформации. Он включает проверенные новости из высококачественных источников и случаи дезинформации из низкокачественных источников, что делает его идеальным набором данных для оценки эффективности LLM в таких научных областях, как дезинформация о здоровье и изменении климата.
2) FakeNewsNet и наборы данных LIAR
Наборы данных FakeNewsNet и LIAR также широко используются для обнаружения дезинформации. FakeNewsNet включает информацию о социальном контексте и данные о взаимодействии с пользователем, а LIAR решает проблему политической дезинформации и использует мелкозернистую оценку истинности. Обе базы данных являются важными контрольными для тестирования производительности систем обнаружения.
3) Мультимодальные наборы данных дезинформации (MM-COVID, PHEME)
Наборы данных PHEME и MM-COVID содержат многомодальную дезинформацию, т. е. текст, метаданные социальных сетей и изображения. Наборы данных важны для оценки производительности многомодальных алгоритмов обнаружения, таких как SNIFFER и LVLM4FV, которые обрабатывают как визуальный, так и текстовый контент с целью обнаружения дезинформации.
IV-CСравнительный анализ производительности
1) Производительность GPT-4 по сравнению с FactAgent и SNIFFER
Сравнение GPT-4, FactAgent и SNIFFER показывает, что в то время как GPT-4 обладает высокой обобщаемостью и быстрой скоростью реагирования, FactAgent обогащает структурированные процессы проверки фактов, которые объяснимы. SNIFFER отлично подходит для обнаружения фейковых новостей в мультимодальном режиме, но ограничен вычислительными затратами из-за необходимости кросс-модального анализа.
| Модель | Набор данных | Точность (%) | F1-оценка (%) | Объяснимость |
| ГПТ-4 | SciNews | 85.3 | 81,5 | Низкий |
| ФактАгент | ЛЖЕЦ | 91.2 | 87,8 | Высокий |
| НЮХАТЕЛЬ | ММ-КОВИД | 88.9 | 85.2 | Умеренный |
2) Сильные и слабые стороны на основе производительности набора данных
Все модели обладают различными сильными и слабыми сторонами в зависимости от используемого набора данных. GPT-4 хорошо работает с текстовыми наборами данных, такими как LIAR, но не с мультимодальной дезинформацией. FactAgent очень подходит для научных статей, в то время как SNIFFER лучше справляется с обнаружением противоречий между изображением и текстом, но требует огромной вычислительной мощности.
3) Компромисс между объяснимостью и точностью обнаружения
Объясняемость и точность обнаружения обычно являются компромиссом при обнаружении дезинформации. Агентные модели, такие как FactAgent, предлагают большую прозрачность, но жертвуют скоростью и масштабируемостью. Однако неагентные модели, такие как GPT-4, предлагают быстрые прогнозы, но не поддаются интерпретации, что является недостатком для доверия к автоматизированным системам обнаружения.
IV-DПроблемы оценки эффективности
1) Изменчивость производительности в зависимости от области применения
Модели обнаружения дезинформации испытывают трудности с управлением вариабельностью производительности, специфичной для домена. Модель, обученная на политической дезинформации, может не сработать для обнаружения дезинформации о здоровье, поскольку лингвистические особенности и контекстуализации уникальны.
2) Соображения предвзятости и справедливости
Предвзятость и справедливость остаются основными методами обнаружения проблем с дезинформацией. LLM склонны копировать предвзятость в своих обучающих данных, тем самым провоцируя дискриминацию в отношении определенных групп или точек зрения. Предвзятость можно устранить, используя различные наборы данных и процедуры обучения, учитывающие справедливость, чтобы добиться равной производительности вне зависимости от демографических и культурных границ.
3) Управление развивающимися тенденциями дезинформации
Дезинформация быстро развивается, постоянно появляются новые истории и тактики. Адаптивные подходы к обучению, постепенные обновления и методы «человек в контуре» могут повысить устойчивость модели к новым угрозам.
ВОбъясняемость и интерпретируемость моделей обнаружения
ВАВажность объяснимости при обнаружении дезинформации
1) Доверие пользователей и принятие решений
Объясняемость также имеет важное значение для развития доверия к моделям, которые используются для выявления дезинформации пользователями. Прозрачные и понятные объяснения позволяют пользователям выявлять ложные положительные и отрицательные результаты и, следовательно, принимать обоснованные решения.
2) Прозрачность в автоматизированных системах обнаружения
Прозрачность необходима для аудита и проверки систем обнаружения дезинформации. Предоставление четких, понятных выходных данных позволяет заинтересованным сторонам просматривать процедуру, посредством которой выводятся выводы, тем самым упрощая обнаружение предвзятости и ограничений [21] . Методы на основе RAG также способствуют интерпретируемости модели, делая пути поиска явными. RAG-Instruct, например, повышает разнообразие инструкций и улучшает интеграцию структурированных знаний, что может повысить объяснимость при обнаружении дезинформации [22] .
ВБМетоды объяснимости
1) LIME и SHAP для интерпретируемости модели
Локальные интерпретируемые модельно-агностические объяснения (LIME) и Shapley Additive exPlanations (SHAP) являются наиболее широко применяемыми методами объяснения моделей обнаружения дезинформации. LIME создает локальные аппроксимации поведения модели посредством использования входных возмущений и мониторинга эффектов, а SHAP предоставляет оценки важности признаков, распределяя вклад признаков для подталкивания прогноза выходных данных. Они помогают предоставить объяснения того, почему модель предсказывает контент как дезинформацию.
2) Интегрированные градиенты для глубоких моделей
Интегрированные градиенты — один из подходов моделей глубокого обучения к назначению оценок входным признакам на основе их вклада в прогнозирование модели. Это особенно заметно для классификации дезинформации на основе LLM, где текстовая атрибуция на уровне слов или предложений может указывать на определенные слова или последовательности слов в направлении метки дезинформации.
ВКСравнение методов объяснимости в разных моделях
1) Эффективность объяснимости в GPT-4 по сравнению с FactAgent
GPT-4 обеспечивает меньшую прозрачность, поскольку является моделью черного ящика, и проследить, как она делает выводы, сложно. FactAgent, поскольку он применяет пошаговые структурированные процедуры проверки открытым способом, обеспечивает большую прозрачность.
2) Мультимодальная интерпретируемость в SNIFFER
SNIFFER, будучи сквозной текстово-изображенной моделью, также имеет некоторые уникальные проблемы для объяснения себя. SNIFFER требует сложных методов визуализации и конвергенции модальностей, чтобы попытаться дать хорошие объяснения мультимодальных входов. Несмотря на такие проблемы, модули визуально-текстового выравнивания SNIFFER делают его более понятным по сравнению с текстовыми моделями.
VIЗаключение
С ПОМОЩЬЮПрактические выводы по смягчению последствий дезинформации
Результаты подчеркивают необходимость следовать гибридному подходу, который использует как структурированные, так и неструктурированные модели для баланса точности, эффективности и интерпретируемости. Использование систем мониторинга в реальном времени, разработка мультимодального слияния и повышение прозрачности систем обнаружения дезинформации на основе ИИ имеют решающее значение для обеспечения общественного доверия и эффективной модерации контента в социальных сетях. Сотрудничество между исследователями, политиками и платформенными пользователями также необходимо для решения новых проблем дезинформации.
Ссылки
- [1]Б. Ху, З. Мао и И. Чжан, «Обзор обнаружения фейковых новостей: с новой точки зрения», Fundamental Research , т. 5, № 1, стр. 332–346, 2025.
- [2]М. Чэнь, Л. Вэй, Х. Цао, В. Чжоу и С. Ху, «Изучите потенциал LIMS в обнаружении дезинформации: эмпирическое исследование», в семинаре AAAI 2025 по предотвращению и обнаружению дезинформации LLM (PDLM) .
- [3]Y. Cao, A. M. Nair, E. Eyimife, N. J. Soofi, K. Subbalakshmi, J. R. Wullert II, C. Basu и D. Shallcross, «Могут ли большие языковые модели обнаружить дезинформацию в научных новостных репортажах?» arXiv preprint arXiv:2402.14268 , 2024.
- [4]В. С. Пендяла и К. Э. Холл, «Объяснение обнаружения дезинформации с использованием больших языковых моделей», Электроника , т. 13, № 9, стр. 1673, 2024.
- [5]P. Qi, Z. Yan, W. Hsu и M. L. Lee, «Sniffer: многомодальная большая языковая модель для объяснимого обнаружения дезинформации вне контекста», в Трудах конференции IEEE/CVF по компьютерному зрению и распознаванию образов , 2024, стр. 13 052–13 062.
- [6]X. Хуан, И. У, Д. Чжан, Дж. Ху и И. Лонг, «Улучшение оценки академических навыков с помощью НЛП и ансамблевого обучения», 7-я Международная конференция IEEE по информационным системам и компьютерному образованию (ICISCAE) 2024 г. IEEE, 2024 г., стр. 37–41.
- [7]X. Ли, И. Чжан и Э. К. Мальтхаус, «Большой языковой агент для обнаружения фейковых новостей», препринт arXiv arXiv:2405.01593 , 2024.
- [8]C. Chen и K. Shu, «Можно ли обнаружить дезинформацию, сгенерированную llm?», препринт arXiv arXiv:2309.13788 , 2023.
- [9]С. Тахмасеби, Э. Мюллер-Будак и Р. Эверт, «Обнаружение мультимодальной дезинформации с использованием больших моделей зрительно-языкового восприятия», в Трудах 33-й Международной конференции ACM по управлению информацией и знаниями , 2024, стр. 2189–2199.
- [10]Х. Го, Т. Хуан, Х. Хуан, М. Фань и Г. Фридланд, «Систематический обзор мультимодальных подходов к обнаружению онлайн-дезинформации», 5-я Международная конференция IEEE по обработке и поиску мультимедийной информации (MIPR) 2022 г. IEEE, 2022 г., стр. 312–317.
- [11]Q. Zeng, G. Liu, Z. Xue, D. Ford, R. Voigt, L. Hagen и L. Li, «Симпатия по поводу поляризации: вычислительный анализ дискурса сообщений в социальных сетях о покушении на Трампа в июле 2024 года», препринт arXiv arXiv:2501.09950 , 2025.
- [12]J. Zhang, Z. Mai, Z. Xu и Z. Xiao, «Хорошо ли llama 3 распознает эмоции? Всестороннее исследование», в Трудах 7-й Международной конференции по машинному обучению и машинному интеллекту (MLMI) 2024 г., 2024 г., стр. 128–132.
- [13]Z. Mai, J. Zhang, Z. Xu и Z. Xiao, «Хорошо ли llama 3 распознает сарказм? Всестороннее исследование», в Трудах 7-й Международной конференции по машинному обучению и машинному интеллекту (MLMI) 2024 г., 2024 г., стр. 141–145.
- [14]J. Yi, Z. Xu, T. Huang и P. Yu, «Проблемы и инновации в обнаружении фейковых новостей с помощью llm: синтез подходов и будущих направлений», препринт arXiv arXiv:2502.00339 , 2025.
- [15]Z. Xiao, Y. Huang и E. Blanco, «Контекст помогает определить пространственные знания из твитов», в Выводах Ассоциации компьютерной лингвистики: IJCNLP-AACL 2023 (Выводы) , 2023, стр. 149–160.
- [16]M. Jin, Q. Yu, J. Huang, Q. Zeng, Z. Wang, W. Hua, H. Zhao, K. Mei, Y. Meng, K. Ding и др. , «Изучение глубины концептов: как большие языковые модели приобретают знания и концепции на разных уровнях?» Препринт arXiv arXiv:2404.07066 , 2024.
- [17]W. Liu, L. Zhou, D. Zeng, Y. Xiao, S. Cheng, C. Zhang, G. Lee, M. Zhang и W. Chen, «За пределами извлечения отдельных событий: на пути к эффективному извлечению аргументов с несколькими событиями на уровне документа», препринт arXiv arXiv:2405.01884 , 2024.
- [18]X. Ли, Р. Мохаммед, Т. Мангин, С. Саха, Р. Т. Уитакер, К. Э. Келли и Т. Тасдизен, «Совместное аудиовизуальное обнаружение холостого хода транспортного средства с оптимизированными входными зависимостями», препринт arXiv arXiv:2410.21170 , 2024.
- [19]W. Liu, Y. Xiao, D. Zeng, H. Zhao, W. Chen и M. Zhang, «Квантование нейронных графов со смешанной точностью для малоразрядных моделей больших языков», препринт arXiv arXiv:2501.18154 , 2025.
- [20]P. Yu, J. Yi, T. Huang, Z. Xu и X. Xu, «Оптимизация модели прогнозирования заболеваний сердца у трансформаторов на основе алгоритма оптимизации роя частиц», препринт arXiv arXiv:2412.02801 , 2024.
- [21]T. Huang, Z. Xu, P. Yu, J. Yi и X. Xu, «Гибридная модель трансформатора для обнаружения фейковых новостей: использование байесовской оптимизации и двунаправленного рекуррентного блока», препринт arXiv arXiv:2502.09097 , 2025.
- [22]W. Liu, J. Chen, K. Ji, L. Zhou, W. Chen и B. Wang, «Rag-instruct: улучшение llms с помощью разнообразных инструкций, дополненных поиском», препринт arXiv arXiv:2501.00353 , 2024.
Источник:
https://arxiv.org/html/2503.00724v1







