web analytics

Азбука ИИ и дезинформации об окружающей среде

Sztuczna Inteligencja (ИИ/AI)

DeSmog беседует с исследователями искусственного интеллекта о рисках распространения фейкового контента о климате и способах борьбы с ним.


«Так что расслабьтесь и наслаждайтесь поездкой. Мы ничего не можем сделать, чтобы остановить изменение климата, поэтому нет смысла беспокоиться об этом».

Вот что «Бард» рассказал исследователям в 2023 году. Bard от Google — это генеративный чат-бот на основе искусственного интеллекта, который может создавать звучащий по-человечески текст и другой контент в ответ на подсказки или вопросы пользователей. 

Но если ИИ теперь может производить новый контент и информацию, может ли он также производить дезинформацию? Эксперты нашли доказательства. 

В исследовании Центра по противодействию цифровой ненависти исследователи протестировали Bard на 100 ложных нарративах по девяти темам, включая климат и вакцины, и обнаружили, что инструмент сгенерировал дезинформацию по 78 из 100 протестированных нарративов. По словам исследователей, Bard сгенерировал дезинформацию по всем 10 нарративам об изменении климата.

В 2023 году другая группа исследователей из Newsguard, платформы, предоставляющей инструменты для противодействия дезинформации, протестировала Chat GPT-3.5 и 4 от OpenAI, которые также могут создавать текст, статьи и многое другое. Согласно исследованию, ChatGPT-3.5 генерировал дезинформацию и мистификации в 80 процентах случаев, когда ему предлагалось сделать это с помощью 100 ложных историй, в то время как ChatGPT-4 продвигал все 100 ложных историй более подробно и убедительно. NewsGuard обнаружил, что ChatGPT-4 продвигал известные ложные истории не только чаще, но и более убедительно, чем ChatGPT-3.5, и создавал ответы в виде новостных статей, веток Twitter и даже телевизионных сценариев, имитирующих определенные политические идеологии или теоретиков заговора.

«Я думаю, это важно и тревожно, производство фальшивой науки, автоматизация в этой области и то, как легко это интегрируется в поисковые инструменты, такие как Google Scholar или аналогичные», — сказал Виктор Галаз, заместитель директора и доцент кафедры политологии в Стокгольмском центре устойчивости Стокгольмского университета в Швеции. «Потому что тогда это медленный процесс размывания самых основ любого вида разговора».

В другом недавнем исследовании, опубликованном в этом месяце, исследователи обнаружили, что сфабрикованный GPT-контент в Google Scholar имитирует легитимные научные статьи по таким вопросам, как окружающая среда, здоровье и вычисления. Исследователи предупреждают о «взломе доказательств», «стратегической и скоординированной вредоносной манипуляции доказательной базой общества», к которой может быть восприимчива Google Scholar.

Итак, мы знаем, что ИИ может генерировать дезинформацию, но насколько это проблема?

Начнем с основ.

Подробно об ИИ и окружающей среде

Возьмем, к примеру, ChatGPT. ChatGPT — это крупная языковая модель или LLM. 

По словам Эшли Р. Лэндрум, доцента Школы журналистики и массовых коммуникаций имени Уолтера Кронкайта и старшего специалиста по глобальному будущему в Университете штата Аризона, степень магистра права относится к числу технологий искусственного интеллекта, которые наиболее актуальны для решения проблем дезинформации и дезинформации о климате.

Поскольку LLM могут создавать текст, который выглядит как созданный человеком, что может быть использовано для быстрого и недорогого создания дезинформации, злоумышленники могут «использовать» LLM для создания дезинформации с помощью одного-единственного запроса, введенного пользователем, сказал Лэндрум в электронном письме DeSmog.

Наряду со степенями магистра права, синтетическими медиа, социальными ботами и алгоритмами также существуют технологии искусственного интеллекта, которые актуальны в контексте всех видов дезинформации, в том числе о климате.

«Синтетические медиа», в том числе так называемые «глубокие фейки», — это контент, созданный или измененный с использованием искусственного интеллекта.

«С одной стороны, мы можем быть обеспокоены тем, что люди поверят, что синтетические медиа являются реальными. Например, когда робот, имитирующий голос Джо Байдена, сказал людям не голосовать на праймериз Демократической партии в Нью-Гемпшире», — написала Лэндрум в своем электронном письме. «Другая проблема, и я нахожу ее более проблематичной, заключается в том, что само существование глубоких фейков позволяет публичным деятелям и их аудитории игнорировать реальную информацию как фейковую». 

Синтетические медиа также включают фотографии. В марте 2023 года Техасский фонд общественной политики, консервативный аналитический центр, продвигающий идеи отрицания изменения климата, использовал ИИ для создания изображения мертвого кита и ветряных турбин и использовал его в качестве оружия для распространения дезинформации о возобновляемых источниках энергии. 

Социальные боты — еще одна технология, способная распространять дезинформацию. Они используют ИИ для создания сообщений, которые выглядят так, будто их написали люди, и работают автономно на платформах социальных сетей, таких как X.

«Социальные боты активно распространяют дезинформацию на ранних этапах, прежде чем пост официально «становится вирусным». И они нацелены на влиятельных пользователей с ответами и упоминаниями», — пояснил Лэндрум. «Более того, они могут вступать в сложные беседы с людьми, используя персонализированные сообщения, направленные на изменение мнения».

И последнее, но не менее важное: алгоритмы. Они фильтруют медиа и информационные каналы аудитории на основе того, что, как ожидается, будет наиболее релевантным для пользователя. Алгоритмы используют ИИ для отбора высоко персонализированного контента для пользователей на основе поведения, демографии, предпочтений и т. д. 

 «Это означает, что дезинформация, которой вы подвергаетесь, — это дезинформация, которая, скорее всего, найдет у вас отклик», — сказал Лэндрум. «На самом деле, исследователи предположили, что ИИ используется для эмоционального профилирования аудитории с целью оптимизации контента в политических целях». 

Исследования показывают, что ИИ может легко создавать целевую, эффективную информацию. Например, исследование, опубликованное в январе, показало, что политическая реклама, адаптированная к личностям людей, более убедительна, чем неперсонализированная реклама. В исследовании говорится, что ее можно автоматически генерировать в больших масштабах, что подчеркивает риски использования ИИ и «микротаргетинга» для создания политических сообщений, которые находят отклик у людей на основе их личностных качеств.

Таким образом, как только появляется дезинформационный или преднамеренный контент, он может распространяться посредством «приоритизации подстрекательского контента, который вознаграждается алгоритмами», а также посредством недобросовестных участников, согласно отчету об угрозах ИИ для климата, опубликованному в марте сетью Climate Action Against Disinformation (CAAD).

«Многие сейчас… подвергают сомнению воздействие ИИ на окружающую среду», — сказал DeSmog Майкл Ху, директор программы по дезинформации о климате в Friends of the Earth и ведущий соавтор отчета CAAD. В отчете также говорится, что ИИ потребует огромных объемов энергии и воды: на общеотраслевом уровне Международное энергетическое агентство оценивает, что потребление энергии для потребления электроэнергии глобальными центрами обработки данных, которые питают ИИ, удвоится в течение следующих двух лет, потребляя столько же энергии, сколько Япония. Эти центры обработки данных и системы ИИ также используют большие объемы воды для своей работы и часто расположены в районах, которые уже сталкиваются с нехваткой воды, говорится в отчете.

Ху сказал, что самая большая опасность со стороны ИИ заключается в том, что он «ослабит информационную среду и будет использоваться для создания дезинформации, которую затем можно будет распространять в социальных сетях». 

Некоторые эксперты разделяют эту точку зрения, в то время как другие более осторожно осуждают связь между ИИ и дезинформацией о климате, основываясь на том факте, что до сих пор неизвестно, влияет ли это на общественность и каким образом. 

«Изменение правил игры» в области дезинформации

«ИИ может стать серьезным фактором, меняющим правила игры в плане производства дезинформации о климате», — сказал Галаз DeSmog. Все дорогостоящие аспекты ИИ, такие как создание сообщений, нацеленных на определенный тип аудитории с помощью политической предрасположенности или психологического профилирования, и создание очень убедительного материала, не только текста, но и изображений и видео, «теперь могут производиться с очень низкими затратами».

Дело не только в стоимости. Дело еще и в объеме.

«Я думаю, что объем в этом контексте имеет значение, он делает ваше сообщение более понятным для кого-то другого», — сказал Галаз. «Вдруг перед нами встает огромная проблема, связанная с объемом дезинформации, заполонившей социальные сети, и уровнем сложности, который [делает] ее очень сложной для восприятия людьми», — добавил он.

Работа Галаза , проведенная совместно с исследователями Стефаном Дауме и Арвидом Марклундом из Стокгольмского центра устойчивости, также указывает на три другие основные характеристики способности ИИ производить информацию и дезинформацию: доступность, сложность и убедительность.

«По мере того, как мы видим, что эти технологии развиваются, они становятся все более и более доступными. Эта доступность упрощает производство большого объема информации», — сказал Галаз. «Изощренность [означает], что пользователю сложнее увидеть, генерируется ли что-то ИИ по сравнению с человеком. И [убеждение] побуждает эти модели производить что-то, что очень специфично для аудитории».

«Для меня все эти три фактора являются предупреждающими сигналами о том, что в будущем нас может ожидать нечто очень трудное».

По словам Лэндрума, ИИ, несомненно, увеличивает количество и эффективность дезинформации, но это не обязательно влияет на общественное мнение.

Климатическая дезинформация, созданная и распространенная ИИ, также может быть более разрушительной и чаще подхватываться, когда климатические проблемы оказываются в центре международных публичных дебатов. Это неудивительно, учитывая, что это была хорошо известная модель отрицания изменения климата, дезинформации и препятствования в последние десятилетия.

«Пока нет убедительных доказательств того, что люди будут подвержены влиянию [дезинформации ИИ]. Это справедливо независимо от того, касается ли дезинформация изменения климата или нет», — сказал Лэндрум. «Мне кажется вероятным, что климатическая дезинформация будет менее распространена, чем другие виды политической дезинформации, пока не произойдет конкретное событие, которое, скорее всего, выведет изменение климата на передний план внимания людей, например, саммит или папская энциклика». 

Галаз поддержал эту точку зрения, подчеркнув, что пока имеются лишь экспериментальные доказательства того, что дезинформация ИИ приводит к влиянию на климатические мнения, но также повторил, что контекст и возможности этих моделей на данный момент вызывают беспокойство.

Объем, доступность, сложность и убедительность взаимодействуют с другим аспектом ИИ: скоростью его развития.

«Ученые пытаются догнать технологические изменения, которые происходят гораздо быстрее, чем наши методы способны оценить. Мир меняется быстрее, чем мы можем его изучить», — сказал Галаз. «Часть этого — получение доступа к данным, чтобы увидеть, что происходит и как это происходит, и это стало сложнее в последнее время на таких платформах, как X [после] Илона Маска».

Инструменты ИИ для климата: решения 

Ученые и технологические компании работают над методами борьбы с дезинформацией на основе искусственного интеллекта, но Лэндрум утверждает, что они пока «не достигли цели».

Например, возможно, что чат-боты/социальные боты на основе искусственного интеллекта могут использоваться для предоставления точной информации. Но те же принципы мотивированного рассуждения, которые влияют на то, будут ли люди затронуты проверкой фактов, вероятно, повлияют и на то, будут ли люди взаимодействовать с такими чат-ботами; то есть, если они мотивированы отвергнуть информацию — защитить свою личность или существующие мировоззрения — они найдут причины отвергнуть ее, объяснил Лэндрум.

Некоторые исследователи пытаются разработать инструменты машинного обучения для распознавания и разоблачения дезинформации о климате. Джон Кук, старший научный сотрудник Мельбурнского центра по изменению поведения при Мельбурнском университете, начал работать над этим еще до того, как появился генеративный ИИ.  

«Как вы генерируете автоматическое опровержение, когда обнаруживаете дезинформацию? После того, как генеративный ИИ взорвался, он действительно открыл для нас возможность выполнить нашу задачу автоматического опровержения», — сказал Кук DeSmog. «Именно над этим мы работаем уже около полутора лет — обнаруживаем дезинформацию, а затем используем генеративный ИИ, чтобы фактически сконструировать опровержение, [которое] соответствует лучшим практикам из психологических исследований». 

Модель ИИ , разрабатываемая Куком и его коллегами, называется CARDS. Она работает по структуре «факт-миф-заблуждение-разоблачение факта», что означает, во-первых, определение ключевого факта, который заменяет миф. Во-вторых, определение заблуждения, которое допускает миф. В-третьих, объяснение того, как заблуждение вводит в заблуждение и искажает факты. И, наконец, «сведение всего этого воедино», сказал Кук. «Это структура, которую мы рекомендуем в руководстве по разоблачению , и ничего из этого не было бы возможно без генеративного ИИ», добавил он.

Однако при разработке этого инструмента возникают трудности, в том числе тот факт, что у магистров права иногда, как выразился Кук, могут быть «галлюцинации».

Он сказал, что для решения этой проблемы его команда возвела множество «лесов» вокруг подсказок ИИ, что означает добавление инструментов или внешнего ввода, чтобы сделать их более надежными. Он разработал модель под названием FLICC, основанную на пяти методах борьбы с отрицанием климата, «чтобы мы могли самостоятельно обнаруживать заблуждения, а затем использовать их для информирования подсказок ИИ», — объяснил Кук. Он сказал, что необходимость добавлять множество инструментов противодействует проблеме простого генерирования ИИ дезинформации или галлюцинаций. «Так что для получения фактов в наших разоблачениях мы также извлекаем информацию из широкого списка достоверных, надежных веб-сайтов. Это одна из гибких возможностей, которые у вас есть с генеративным ИИ, вы можете [ссылаться] на надежные источники, если вам это нужно».

Области применения этого инструмента искусственного интеллекта варьируются от чат-бота или социального бота до приложения, полуавтоматического, получеловеческого интерактивного инструмента или даже веб-страницы и информационного бюллетеня.

Некоторые из инструментов ИИ также имеют свои собственные проблемы. «В конечном итоге, при разработке модели мы собираемся взаимодействовать с заинтересованными сторонами, общаться с журналистами, проверяющими факты, педагогами, учеными, климатическими НПО, всеми, кто потенциально может использовать этот инструмент, и обсуждать с ними, как они могут найти его полезным», — сказал Кук.

По словам Галаза, одной из сильных сторон ИИ является анализ и понимание закономерностей в огромных объемах данных, что может помочь людям, если разрабатывать их ответственно. Например , сочетание ИИ с местными знаниями о сельском хозяйстве может помочь фермерам в условиях изменения климата, включая истощение почвы. 

Это может сработать только в том случае, если отрасль ИИ будет привлечена к ответственности, говорят эксперты. Кук обеспокоен тем, что регулирование имеет решающее значение и что его трудно внедрить.

«Технологии развиваются так быстро, что даже если вы попытаетесь добиться государственного регулирования, правительства, как правило, медлительны даже в самых лучших условиях», — отмечает Кук. «Когда это происходит так быстро, им действительно будет трудно поспевать. [Даже ученым] трудно поспевать, потому что пески уходят у нас из-под ног, поскольку исследования, модели и технологии меняются по мере того, как мы работаем над ними», — добавил он.

Регулирование ИИ 

Большинство ученых сходятся во мнении, что ИИ необходимо регулировать.  

«Об ИИ всегда говорят в очень легкомысленных, хриплых терминах о том, как он собирается спасти планету», — сказал Ху. «Но сейчас [компании ИИ] избегают стандартов ответственности, прозрачности и безопасности, которые мы хотели бы видеть в политике технологий социальных сетей в отношении климата». 

И в отчете CAAD, и в интервью DeSmog Ху предупредил о необходимости избегать повторения ошибок политиков, которые не регулировали платформы социальных сетей. 

«Нам нужно относиться к этим компаниям с теми же ожиданиями, которые мы предъявляем ко всем остальным функционирующим в обществе людям», — добавил он. 

Отчет CAAD рекомендует прозрачность, безопасность и подотчетность для ИИ. Он также призывает регулирующие органы обеспечить, чтобы компании ИИ отчитывались об использовании энергии и выбросах, и защитить их от дискриминации, предвзятости и дезинформации. В отчете также говорится, что компании должны обеспечивать соблюдение общественных руководящих принципов и политик монетизации, а правительства должны разрабатывать и обеспечивать соблюдение стандартов безопасности, гарантируя, что компании и генеральные директора будут нести ответственность за любой вред, нанесенный людям и окружающей среде в результате генеративного ИИ.

По словам Кука, хороший способ начать решать проблему дезинформации и искажений информации о климате, создаваемых искусственным интеллектом, — это демонетизировать ее.  

«Я думаю, что демонетизация — лучший инструмент, и мои наблюдения за платформами социальных сетей… таковы, что они реагируют, когда сталкиваются с достаточным внешним давлением», — сказал он. «Если на них оказывается давление не финансировать или [принимать] рекламодателей, распространяющих дезинформацию, то их можно убедить сделать это, но только если они получат достаточное давление». Кук считает, что демонетизация и привлечение журналистов к освещению дезинформации о климате — один из лучших инструментов, чтобы не допустить этого. 

Галаз поддержал эту идею. «Саморегулирование нас подвело. То, как мы пытаемся решить эту проблему сейчас, просто не работает. Должно быть [регулирование], и я думаю, [еще] его частью станет образовательный аспект, со стороны журналистов, лиц, принимающих решения, и других».  

Стелла Левантези — итальянский климатический журналист, фотограф и автор. Она является автором серии Gaslit на DeSmog. Ее основные области специализации — климатическая дезинформация, судебные разбирательства по климату и корпоративная ответственность за климатический кризис. Ее книга «I bugiardi del clima» (Климатические лжецы) была опубликована в Италии издательством Laterza, а ее работы были представлены в The New Republic и Nature Italy. Вы можете следить за ней в Twitter @StellaLevantesi.

Источник:
https://www.desmog.com/2024/09/18/the-abcs-of-ai-and-environmental-misinformation-climate-disinformation-chat-gpt/

Rate article
( No ratings yet )

Leave a Reply