web analytics

Сети ботов и троллей: они не только распространяют дезинформацию, но и могут взломать ваш аккаунт

Political Tech

Вы уверены, что ваш аккаунт в социальных сетях принадлежит только вам? Или это уже стало игровой площадкой для ботов? Эксперты по кибербезопасности предупреждают: современные автоматизированные механизмы не только распространяют дезинформацию, но и могут выдавать себя за ваших друзей, участвовать в информационных атаках или даже незаметно завладеть вашим профилем.

Кто такие боты и тролли ? Этот термин мы слышим часто, но иногда бывает трудно понять, что это за механизмы и как они работают. По словам Йокубаса Драздаса, руководителя компании Acrux cyber services, работающего в сфере кибербезопасности, к ошибке дезинформации имеют отношение боты . «Это искусственно созданные автоматизированные решения, которые генерируют определенный, например, текст, с целью распространения определенной информации», — говорит Я. Драздас. По его словам, в этой теме наибольшее внимание следует уделить социальным сетям, которые становятся для них очень удобной средой для деятельности и распространения лжи или разжигания ненависти. Читайте также Специалист по кибербезопасности КТУ: ИИ становится инструментом атаки Новые возможности на рынке труда: одна позиция предлагает исключительно высокую зарплату Умные дома и Интернет вещей: где встречаются комфорт и угрозы? Мы проживем до 150 лет: ученые ищут способы превратить увеличение продолжительности жизни в качество « Бот-фермы — это группа автоматизированных решений, которые ориентированы на одно действие и запускают определенную кампанию», — подчеркивает Я. Драздас. По его словам, становится все труднее отличить их от реальных пользователей и создателей информации. «Раньше боты действовали очень открыто, координировали и повторяли одни и те же действия, что облегчало их идентификацию. Сегодня они становятся гибридными, где работают не только «машинные» решения, но и человеческий вклад — контент становится более персонализированным», — говорит Я. Драздас.

Вышеупомянутые боты отличаются от троллей спецификой своей работы . Я. Драздас выделяет человеческий вклад как главное отличие. Боты — это более технические решения, в то время как тролли требуют больше человеческого вмешательства. По словам Я. Драздаса, фабрики троллей обычно нацелены на распространение ложной информации и таким образом влияние на общество, например, в социальных сетях или на форумах. Создаваемый ими контент может быть как на экономические, так и на политические темы, с целью вызвать «общественное недовольство, недоверие, раскол, а также манипулировать политическими взглядами людей, особенно во время выборов, с целью выдвижения определенных кандидатов», подчеркивает Я. Драздас.

Руководитель Центра компетенции по кибербезопасности, доктор Шарунас Григалюнас согласен, что бот — это «более автоматизированное действие». Он отмечает, что это также представляет собой серьезную угрозу с точки зрения кибербезопасности: «Возможно, что без вашего ведома ваш телефон является частью бота и выступает в качестве представителя от вашего имени», — предупреждает исследователь. Он приводит простой пример, иллюстрирующий, как это может работать. «Например, вы нажали «Нравится» на какой-то фотографии котенка или щенка, на которой было написано: «Это мой питомец». После этого создатель контента изменил фотографию и подпись. А вашего любимого уже нет. «Так что вы являетесь частью этого», — говорит доктор Ш. Григалюнас. По его мнению, тролли , по сравнению с ботами , — это скорее стратегия, суть которой в том, чтобы заставить нас усомниться — если это удастся — «нас „троллят“», — говорит ученый доктор Ш. Григалюнас. Как мы можем защитить себя от этих угроз? Мы не можем контролировать действия создателя контента, независимо от того, является ли он ботом или реальным человеком. Поэтому мы не можем предсказать, будет ли позже изменена фотография, которая нам только что понравилась. Мы также не можем изменить алгоритм, который, когда видит, что определенный контент привлекает много внимания, поднимает его выше, чтобы его увидело как можно больше людей. Но как мы можем противостоять манипуляциям, осуществляемым троллями и ботами ? Д-р Шарунас Григалюнас / Подкаст «Архитекторы будущего» Участники подкаста «Архитекторы будущего» Агентства инноваций говорят, что на этот вопрос нет однозначного ответа, поэтому нам следует в первую очередь полагаться на свое критическое мышление и развивать другие смежные навыки. «Многие люди потребляют информацию и даже новости через социальные сети. С психологической точки зрения, если у нас, как у людей, есть в голове какая-то идея, в которую мы верим, и мы ее еще и получаем извне, то она сразу же вызывает у нас желание ею поделиться», — поясняет Я. Драздас. Однако это не всегда хорошая идея. Мы не сможем контролировать весь потребляемый нами контент, но Дж. Драздас утверждает, что мы можем контролировать то, как мы его видим: «Не все, что мы видим, следует принимать за чистую монету». По мнению Я. Драздаса, следует быть критичным и, по крайней мере, избегать распространения подозрительной информации, поскольку распространение ложной информации в значительной степени способствует достижению целей троллей или ботов — максимально широко распространять дезинформацию и соответствующим образом влиять на общество. Таким образом, делясь информацией, мы становимся частью цепочки дезинформации. В качестве способа проверки информации Я. Драздас рекомендует всегда обращать внимание на источник информации: кто ее создатель, распространитель, является ли она достоверной. «Вы всегда можете проверить в Интернете, распространяется ли эта информация другими надежными источниками. Когда дело касается социальных сетей, если аккаунт или группа сомнительны, следует включить критическое мышление, задаваясь вопросом, является ли эта информация правдой. Конечно, иногда дезинформация смешивается с правдой, и тогда ее становится действительно трудно отличить», — говорит Я. Драздас.

Наши привычки иногда способствуют распространению дезинформации Романас Зонтовичюс, руководитель инновационного агентства ICT Lab, отмечает, что Илон Маск, купивший социальную сеть Twitter и изменивший ее название на X, объявил, что теперь на этой платформе больше не будет проверки фактов. По словам Р. Зонтовичюса, Facebook, похоже, также движется в сторону открытия платформы для абсолютно всех мнений, и это коснется нас. Вполне вероятно, что у нас будет еще больше подозрительного контента, распространение которого будет разрешено. Илон Маск / Scanpix/AP Photo. Как говорит Р. Зонтовичюс, мы должны не только думать о том, как технически избежать угроз дезинформации, но и обращать внимание на наши привычки потребления информации и каналы, по которым мы ее получаем. «Например, я рассматриваю контент на платформах Instagram или Facebook только как развлекательный». «Чем глубже смотришь, тем больше понимаешь, что не все так просто, как показывает TikTok за одну минуту», — говорит Р. Зонтовичюс, а также призывает как можно чаще проверять информацию. Вот тут-то и обнаруживаются пробелы в нашем мышлении, вызванные развитием технологий. Сегодня при поиске информации мы больше не хотим думать — мы хотим получить быстрый и ясный ответ: «Раньше мы задавали Google вопрос, и он выдавал нам 1000 ответов». И тогда мы выбираем из них. «Сейчас, в эпоху искусственного интеллекта, вы вводите вопрос и хотите получить один ответ: черный или белый», — отмечает Р. Зонтовичюс. По его словам, такое мышление, нацеленное на получение одного категоричного и четкого ответа, опасно — даже искусственный интеллект «ChatGPT» иногда говорит: «Проверьте информацию, я тоже не прав». Угрозы развиваются вместе с новыми технологиями Новые технологии привносят изменения в тенденции как в стратегии троллей , так и в действия ботов . Я. Драздас говорит, что их атаки становится все труднее обнаружить без дополнительных инструментов. «В последнее время я уделяю много внимания платформе TikTok». Сейчас становится все сложнее распознавать фейковый или пропагандистский контент — он обычно очень странный. Например, какая-нибудь националистическая картинка и русская музыка на заднем плане. Как это согласуется? Конечно нет. Что это значит? «Это трудно объяснить», — говорит Я. Драздас. Он говорит, что огромную роль также играют колоссальное распространение информации и передовые технологии. Например, искусственный интеллект, чьи сгенерированные изображения, звуковые дорожки или сообщения могут быть еще более персонализированными и их будет сложнее отличить от тех, которые созданы людьми. «Быстрое развитие технологий также способствует распространению дезинформации», — говорит Я. Драздас. Романас Зонтовичюс и Йокубас Драздас / Подкаст «Архитекторы будущего» Р. Зонтовичюс также говорит, что заметил изменения в этой области, например, подозрительные объявления о работе на платформе LinkedIn: «Стали распространяться предложения о работе с вымышленными, бессмысленными должностями, предлагающие высокую оплату труда и даже выдающие себя за реальные адреса литовских компаний. Но после небольшого расследования выясняется, что это мошенничество. «Я уже получил несколько таких», — предупреждает он. Р. Зонтович. Может ли машина убедить вас, что она реальный человек? Доктор Ш. Григалюнас утверждает, что «миллиарды паролей и доступов уже были раскрыты и скомпрометированы». Он предупреждает, что даже если вы получили сообщение от близкого друга, это не значит, что вы с ним общаетесь. Доктор Ш. Григалюнас приводит пример того, как может работать автоматизированный бот , если ваш аккаунт уже взломан: «Допустим, вы недавно были в кафе или на вечеринке, где сделали селфи, и это «поддержало» ваше близкое окружение». Бот собрал эту информацию и напишет сообщение кому-то из этого круга (машинное обучение уже сегодня отлично справляется с написанием на любом языке): «Слушай, а помнишь, мы были в кафе или на вечеринке и танцевали с таким-то». Что тогда произойдет в вашей голове?» — гипотетически спрашивает доктор Ш. Григалюнас. Он отмечает, что в этом случае ваше критическое мышление, скорее всего, будет подавлено фактами, упомянутыми ботом , которые вы помните — в конце концов, вы действительно были на вечеринке с этой группой. Если он их знает, то он действительно ваш друг. Но не обязательно. «Более того, он может спрашивать вас о чем угодно, потому что вы уже поверили, что он реален. Даже если на самом деле он бот , тролль , механизм, алгоритм или стратегия, чтобы получить от вас ту или иную выгоду», — говорит доктор Ш. Грегори. Я. Драздас также соглашается и говорит, что мы не избежим подобных рисков, а инструменты дезинформации будут только совершенствоваться. Поэтому один из способов — научиться их распознавать. Ученые разрабатывают инструменты для выявления киберугроз Как говорит Р. Зонтовичюс: «Искусственный интеллект — это всего лишь инструмент. Как и любой другой инструмент, скажем, скальпель. С его помощью можно спасти жизнь человека, а можно и серьезно ему навредить», — Р. Зонтовичюс видит аналогию между развитием технологий и угрозами дезинформации. Мы можем использовать критическое мышление и другие навыки для выявления таких угроз, но по мере развития технологий этого может оказаться недостаточно. Поэтому литовские ученые и предприниматели уже разрабатывают в рамках различных проектов инструменты, которые могли бы не только помочь их идентифицировать, но и остановить различные кибератаки. Одним из таких проектов является миссия «Безопасное и инклюзивное электронное общество», на которую было выделено более 27 миллионов евро. евро. В рамках этого проекта разрабатываются решения, помогающие бороться с иностранным влиянием и манипулированием информацией в Интернете во время выборов, а также будут разрабатываться инструменты, которые могут выявлять и обеспечивать раннее предупреждение о ботах и ​​фермах троллей , действующих в пространстве социальных сетей , что повышает устойчивость к киберугрозам. В рамках проекта будут проводиться исследования по выявлению подделок видео и других манипуляций, а ученые смогут продолжить важные исследования в Центре компетенций по кибербезопасности.

Источник:
https://www.15min.lt/verslas/naujiena/mokslas-it/botu-ir-troliu-pinkles-ne-tik-skleidzia-dezinformacija-bet-ir-gali-uzgrobti-jusu-paskyra-1290-2420686

Оцените статью
( Пока оценок нет )

Добавить комментарий