Боты в интернете: как распознать кибермозги, какие они бывают и для чего нужны

С развитием информационных технологий способы морочить головы людям становятся все изощреннее. На помощь маркетологам и политикам пришли боты – специальные программы, которые имитируют поведение человека. Зависая в социальных сетях, вступая в дискуссии, мы воображаем, что общаемся с живыми людьми, но так бывает

далеко не всегда. Очень часто наш собеседник - всего лишь робот, действующий в заданном алгоритме.

Те, кто считает подобные утверждения параноидальными, увы, глубоко заблуждаются. Это по своей наивности и неосведомленности мы думаем, что всегда отличим реального человека от искусственного интеллекта при обсуждении событий или вещей. Раскусим, где живые эмоции, мысли, а где лишь механическое копирование людских реакций. Сейчас боты настолько точно имитируют наше поведение, что бывает довольно сложно вычислить их. Они могут довольно успешно поддерживать диалог, высказывать смелые суждения, а главное – вызывать симпатию. Почему это представляется наиболее опасным? Потому что вслед за возникшей симпатией рождается доверие. Человек теряет осторожность и запросто может поделиться с роботом тем, чем делиться не следует. Например, личными данными.

Недавно ученые из Университета Британской Колумбии под руководством профессора Язана БУШМАФА провела эксперимент, имевший целью выяснить, насколько уязвимы социальные сети. Вывод ошарашил. За два месяца исследований из одного только Facebook* удалось скачать 250 ГБ личной информации пользователей. Той информации, которой они делились сами! То есть не потребовалось взламывать аккаунты, производить какие-то другие хитроумные и незаконные манипуляции, достаточно было запустить в сеть порядка сотни умных ботов, прикидывающихся людьми, приятными во всех отношениях. У каждого из них в арсенале несколько скриптов, то есть определенных сценариев поведения, заставляющих пользователя поверить, что он обменивается мнениями с единомышленником.

Ученые отправили с помощью ботов свыше пяти тысяч сообщений, в которых был запрос на предоставление персональных данных. Из них 80 процентов были удовлетворены. То есть восемь из десяти пользователей с готовностью открывают личную информацию искусственному интеллекту. Конечно, существует защита от спамеров, но этот заслон нетрудно преодолеть: надо не проводить массированную атаку, а действовать осторожно, пошагово, к примеру, рассылать всего по 25 сообщений в день, что, собственно, и было успешно сделано.

Скептик скажет: но можно ведь проверить, с кем имеешь дело, просто зайдя на страничку собеседника. А вот и нет! Ботам ничего не стоит создать себе такую страницу (или страницы) за считанные мгновения, и выглядеть она будет привычно: снимки, реплики, немного «о себе». И даже статус будет обновляться время от времени. И новые друзья появляться. Причем те, многие из которых знакомы вам… Тут все просто: если твой друг – это и его друг, почему бы вам тоже не стать друзьями? Схема поразительная по своей эффективности, ее давно взяли на вооружение в области социальной инженерии. У нее и название есть – «триадный принцип закрытия».

Естественно, руководство Facebook* заявило, что результатам исследования не стоит верить, ученые все преувеличивают, и на самом деле защита сети действует гораздо эффективнее. Тем не менее, опровергать существование фальшивых аккаунтов оно не стало.

Социальные сети широко используют ботов. Имеются в виду технические, которые способствуют накоплению лайков и комментариев под какими-то высказываниями, созданию большого числа друзей, распространению публикаций через репосты. Серьезного вреда от них нет. Другое дело – так называемые «сливные» боты. Они распространяют инсайдерскую информацию от якобы реального лица. Многие интернет-издания тут же подхватывают «жареную новость» и перепечатывают, она мгновенно распространяется. Люди верят ей безоговорочно, раз она опубликована сразу несколькими источниками. И никто уже не проверяет, насколько рассказанное достоверно.

Есть еще и «боевые» боты. Их используют, когда нужно подпортить чью-то репутацию или добиться блокировки определенной страницы. Ботам дается команда лить поток негативных комментариев, жалоб.

В маркетинговых войнах чаще всего прибегают к помощи гиперболизирующих ботов. О, это серьезная сила. Они позволяют исподволь влиять на потребителей, менять их вкусы, предпочтения. Практически все мы научились отмахиваться от назойливой рекламы, не поддаваться на открытое расхваливание того или иного товара. Больше доверяем отзывам таких же, как мы. Тех, кто уже использовал «сенсационное» средство от облысения или испытал в деле новую модель автомобиля.

Но маркетологи не спят и так же эволюционируют, и никуда от этого не деться. Они тоже поняли, что лобовая грубая реклама уже не столь эффективна, надо использовать более тонкие методы воздействия…

Их боты посещают чаты сообществ, прикидываются людьми. Активно стараются втереться в доверие. Дальше дело техники. Например, бот проникает в группу любителей определенной марки автомобиля и сообщает, что все владельцы автомобилей другой компании глупые люди без вкуса. Его поддерживают другие боты. В результате многие потенциальные покупатели начнут весьма скептически относиться ко всем владельцам «презираемых» автомобилей и ко всему бренду в целом.

И, наконец, самое коварное изобретение - интеллектуальные боевые боты. Их еще называют «тролли». Они интересны тем, что используют собственный интеллектуальный ресурс. То есть программа с необходимыми заложенными данными отправляется на информационную войну для пропаганды. Главная задача такого бота общаться на узкоспециализированную тематику в определенной теме или ветке сообщений. Помимо этого, такой бот зачастую может переходить на оскорбления или провокационные высказывания в отношении других пользователей, тем самым отвлекая внимание от основной темы беседы. Этот вид бота наиболее популярен при обсуждении политических и социальных явлений. Он нужен для формирования общественного мнения.

Некоторые любители теорий заговора уверены, что сценарии произведений современного искусства, литературы, музыки, фильмов и сериалов создают вовсе не люди, а различные кибер-алгоритмы и программы ИИ. Более того, именно такой подход делает популярным то, что теоретически может и не понравиться человеку. И ладно бы речь шла о мыльных операх, хитах поп-музыки и тому подобном. Но ведь таким образом можно формировать сторонников той или иной политической силы. Хотя почему «можно» - подобное уже делается. Правительствами, партиями… В США авторитетный журнал Motherboard и другие издания рассказывали, что боты используются в лагерях обоих (тогда еще) кандидатов на пост президента Дональда ТРАМПА и Хиллари КЛИНТОН. Применяются они и в других странах. Практически все значимые мировые лидеры прибегают к помощи высокотехнологичных компаний, занимающихся ботоводством.

Троллей обычно взращивают месяцами, а иногда и годами. Они используются в интересах политических сил, правительств и представляют из себя «лидеров мнений» определенного социального слоя (политического электората). Тут можно встретить бота, замаскированного под простого таксиста, регулярно публикующего свое личное мнение вперемежку с личными фотографиями и публикациями. Встречаются в армии ботов даже учительницы младших классов, которые высказываются о простых и всем знакомым проблемах воспитания и образования.

Выводы неутешительны… Интернет стал почти бесплодным из-за бессмысленного контента, создаваемого искусственным интеллектом. В 2013 году аналитический отчет YouTube показал, что почти 50 процентов его информационного наполнения приходит от ботов, замаскированных под людей, чтобы увеличить количество просмотров.  Кое что сделано для чистки контента, и по итогам 2020 года они забрали лишь 40 процентов трафика. Но это же все равно нереально много! Google несколько лет назад выдвинул предположение, что система обнаружения мошеннического трафика может начать воспринимать реальных людей как ботов, а ботов как людей… 

По материалам neveroyatno.info, gagadget.com, habr.com

Фото - pixabay.com



подпишитесь на нас в Дзен

*Организация запрещена на территории РФ