СМИ зависят от Facebook, чтобы привлечь читателей, но обсуждение его алгоритмов и модерации контента может быть работой на полный рабочий день, жалуются редакторы и журналисты в Боснии и Герцеговине.
Но редакторы и журналисты в Боснии говорят BIRN, что борются с непоследовательностью в модерации контента и отсутствием прозрачности в алгоритмах. И когда они звонят в Facebook за разъяснениями, слишком часто они остаются без ответа.
«Один и тот же контент обрабатывается по-разному в двух разных профилях Facebook», — сказал один из них в анонимном ответе на опрос редакций BIRN, имея в виду один и тот же текст, размещенный на страницах Facebook двух разных СМИ. «На одном из них он окрашен в оранжевый цвет [обозначает полуограниченный контент]. С другой — зеленый, без каких-либо предупреждений и ограничений».
«Это сбивает с толку, и процедуре не хватает прозрачности», — сказал другой. «Нет никакого объяснения ; анализ алгоритмов сводится к опыту».
Анализ алгоритмов
Публикация контента, который считается нарушающим правила Facebook, может иметь далеко идущие последствия для небольших СМИ, которые полагаются на масштабы платформы для охвата аудитории и привлечения рекламодателей. Повторяющиеся случаи, когда содержимое помечается как ложное или вводящее в заблуждение, может привести к уменьшению видимости носителя или его полной блокировке.
На веб-сайте Meta говорится: «Страницы, группы, учетные записи и веб-сайты, которые неоднократно распространяют дезинформацию, столкнутся с некоторыми ограничениями, в том числе с ограничением их распространения. Это включает в себя контент, оцененный как False или измененный партнерами по проверке фактов; контент, который почти идентичен тому, что специалисты по проверке фактов развенчали как ложные или измененные… »
Но даже контент, который проходит оценку, должен согласовывать сложные алгоритмы, которые подталкивают, продвигают или подавляют видимость, определяя, какие фиды он достигает и как часто. Как именно работают эти алгоритмы, держится в секрете, и они постоянно меняются.
По словам эксперта по социальным сетям Хариса Алисича, единственный способ приблизиться к их пониманию — экспериментировать.
«Алгоритмы — это коммерческая тайна каждой компании в ИТ-индустрии, — сказала Алисич BIRN. «Это их конкурентное преимущество… И, конечно же, никакой значительной прозрачности вокруг этого нет. Они делятся некоторыми вещами, но это очень общее. Исходя из этого, трудно понять, как на самом деле работает алгоритм».
Согласно Facebook, его алгоритм использует «сотни сигналов», чтобы сделать прогноз относительно того, насколько вероятно, что пользователь будет взаимодействовать с публикацией. Один из сигналов: «Кто опубликовал историю?»
На основе этих сигналов алгоритм создает «оценку релевантности» — «наше лучшее предположение о том, насколько значимой вы найдете эту историю».
Facebook, однако, постоянно настраивает свой алгоритм в ответ на ряд факторов, включая новостные события. Идти в ногу — это вопрос проб и ошибок.
Модерация контента
В Боснии разжигание ненависти, домогательства и подстрекательство к насилию остаются основными проблемами спустя почти три десятилетия после окончания войны 1992–1995 годов. Это находит отражение в СМИ и в Интернете.
Большинство случаев нарушения цифровых прав в Боснии, выявленных в Ежегодном отчете BIRN о цифровых правах за 2022 год, касались «нарушений репутации, угроз безопасности, дискриминации и ненависти, а также давления на отдельных лиц из-за публикации информации в Интернете, среди прочего».
Но компаниям, работающим в социальных сетях, в целом не хватает детального понимания каждого общества, в котором они работают.
Согласно отчету о модерации контента в Боснии за 2022 год, опубликованному Article 19,
«87% расходов Facebook на дезинформацию приходится на англоязычный контент, несмотря на то, что только 9% его пользователей говорят по-английски».
«Также выяснилось, что большая часть ресурсов и средств модерации контента выделяется ограниченному числу стран».
Модерация контента становится проблемой для СМИ, если он не соответствует местному контексту или не учитывает его.
«В своих разъяснениях политики Facebook называет разные причины, по которым определенный контент может быть помечен, от разжигания ненависти до дезинформации», — сказал другой опрошенный работник СМИ.
«Но на самом деле мы могли видеть, что такой контент все еще не удален и не помечен каким-либо образом, поэтому читатель знает об этом. Ответственность за пометку контента каким-то образом в большей степени возложена на пользователей [частных лиц и организации], а не на компанию [Facebook], которая приглашает людей на свою платформу для ее использования, но при этом не защищает их от такого рода контента. ”
Чтобы отсеять дезинформацию и дезинформацию, Facebook полагается на местных специалистов по проверке фактов; в случае с Боснией одним из ее партнеров является Raskrinkavanje, команда из 14 человек с опытом работы в области СМИ, политических наук, международных отношений и прав человека.
Raskrinkavanje помечает контент, но Facebook ограничивает его охват. Средствам массовой информации необходимо проверять, что они публикуют, считает Эльма Мурич, редактор по связям с общественностью Raskrinkavanje.
«Журналисты обязаны не только распространять достоверную информацию, но и придерживаться этики журналистики и честно и беспристрастно сообщать о событиях и явлениях в мире», — сказал Мурич BIRN.
«Журналисты, которые следуют профессиональным и этическим стандартам в своих репортажах, наверняка не будут публиковать ничего, что можно было бы пометить как дезинформацию или фейковые новости».
Смешанный опыт
Некоторые редакторы и журналисты говорят, что помимо головной боли, связанной с попытками разобраться в алгоритмах, они также изо всех сил пытаются получить ответы от самой Meta по любому количеству вопросов.
«Попытался дважды; они были медленными и неэффективными», — сказал один из них. «На самом деле не решил проблему, которая у меня была».
Другой сказал: «Обеспечить более простой контакт с Meta и более легкий доступ к информации, особенно к алгоритмическим изменениям и рекомендациям».
«Нам нужны более четкие процедуры в отношении правил алгоритмов», — добавил журналист. «Альтернативы нет, тем более что мы продолжаем говорить о важности, которую они [Facebook] имеют для публичных дебатов и участия в Интернете».
Такое разочарование разделяют не все. Один журналист, принявший участие в опросе, рассказал BIRN о своем опыте раскрытия попытки мошенничества:
«Я связался с командой Meta, и через очень короткое время мне позвонил один из их команды, который проверил со своей стороны, и помимо того, что заверил нас, что это мошенничество, а не настоящая записка от них, они поделились совет, что делать, чтобы обезопасить себя сразу, и как в будущем распознать, если что-то оттуда прислали, или это опять какой-то развод».
Алисич назвал свой собственный опыт работы с Facebook «удивительным».
«У нас были очень близкие отношения. До сих пор делаем», — сказал он. «Они всегда были очень профессиональны и очень быстро реагировали. У них очень трудолюбивые люди».
По его словам, учитывая огромные размеры Facebook, неизбежно возникнут проблемы со связью.
«Вы должны понимать, что на Facebook десятки миллионов страниц. Для них буквально невозможно реагировать на все своевременно, быстро или лично, поэтому, как и в любой другой компании, я думаю, им приходится расставлять приоритеты».
BIRN связался с Метой, чтобы получить ответ на эту историю, но не получил ответа.