Продолжу публиковать свои размышления о правдоподобном возможном будущем и рассмотрю, как может выглядеть реалистичная хищная социальная система, которую я описал в предыдущем посте. Все проще, чем может показаться.
Один из вариантов будущего
Рассмотрим возможный сценарий зарождения похожей системы. Всего один из многих, для демонстрации возможностей.
Предположения:
- есть крупная международная корпорация GoodCorp, продукция которой с высокой вероятноюсть вызывает рак и мучительную смерть
- топ менеджмент был осведомлен о вреде продукции, но отрицает это
- активисты и пострадавшие подозревают топ менеджмент
- информация об этом пока не получила широкого распространения в обществе, но волна в социальных медиа увеличивается
- ставки для топ менеджмента и корпорации очень высоки
- существуют неотличимые от людей чатботы использующие ИИ и машинное обучение
Естесственно, корпорация в своей безграничной неадекватности будет любыми способами пытаться заставить активистов замолчать.
Этот сценарий многократно повторялся в истории. Контекст другой.
Контекст и текущая ситуация с чатботами в 2017
- компании стремятся разработать чатботов, которые будут неотличимы в разговоре с человеком. Новые "умные" чатботы будут не только понимать, что человек сказал, но и генерерировать подходящий по контексту ответ
- 80% брендов будут использовать чатботы для взаимодействия с покупателями к 2020 году; 36% уже используют
- более половины пользователей США в возрасте от 18 до 55 лет уже использовали чатботы
- особенности, которые будут способствовать росту популярности чатботов среди компаний: глобальное присутствие, высокая степень удержания пользователей и способность обращаться к более молодой демографии
- исследование BI Intelligence идентифицировало 4 существующие модели, где активно применяются чатботы: Bots-as-a-Service, нативный контент, партнерский маркетинг и розничные продажи.
- первые боты, которые уже неплохо поддерживают разговор с человеком: Mitsuku, Rose
- бот, который создает сайты Right Click
- бот, который создан для людей, если они испытывают бессоницу, чтобы поговорить на любые темы Insomno bot
- узнает о симптомах и болевых ощущениях, ставит диагнозы Dr A.I.
Цели и методы хищной системы
Место действия:
- социальные сети Facebook, Vkontakte, Twitter
- блоги и комментарии к блогам
- большие и маленькие форумы
- чатрумы телеграма и слэка
Какие у хищных систем могут быть метрики "успеха"?
- Аккаунт лояльный к активистам прекращает публиковать посты или количество постов уменьшается
- Уменьшение количества взаимодействий активистов с медиа, блоггерами и популярными аккаунтами
- Эмоциональный окрас постов активистов становится более отчаянным и фрустрированным
Это не тот вариант будущего, когда такая система разрабатывается специально для GoodCorp.
Нет-нет, берется банальный облачный коммерческий сервис ML/AI, созданный Microsoft или Google, и тренируется.
Что делает такая злонамеренная система созданная с помощью ИИ?
- управляет сотнями аккаунтов в социальных сетях
- создает фейковые аккаунты журналистов, якобы заинтересованных в материалах, но на самом деле просто поглощающих внимание
- постит публичные глупые, агрессивные и оскорбительные комментарии от якобы сторонников активистов
- отравляет расстраивающие личные сообщения активистом
- резко и жестко критикует предложения или инициативы потенциальных союзников активистов от имени сторонников активистов, отталкивая их
- распространяет глупую, явную ложь о корпорации от имени сторонников активистов и сразу же атакует такие посты от имени "разумных и взвешенных сторонников" корпорации
- если активист пытается публично прокомментировать важный вопрос, разрушает возможность обсуждения шумом, флудом и стебом
- создает вебсайты и документы, на которых вроде бы есть доказательства осведомленности топменеджмента, но на самом деле нет и проверить это занимает много времени
- создает фейковые аккаунты активистов на платформах, где нет настоящих и компрометирует их
- спамят ящики, мессенджеры и телефоны
- идеально отслеживает статистику эффективности и адаптирует свое поведение
Не заблуждайтесь, все это массово происходит и сейчас, только управляется человеческими интеллектами. У которых есть явные "недостатки": болтливость, эмпатия, брезгливость.
Искусственные интеллекты сделают атаки дешевыми, масштабируемыми и контролируемыми.
Все плохо, но есть и положительная сторона: использование и развитие хищных систем обнажит степень манипуляций социальными медиа.
Пользователи наконец-то начнут предпринимать активные меры для своей защиты. Или станут подконтрольны хищным системам.
Да, всё это вполне реально, насчёт ботов.
В ответ нужно разрабатывать своих ботов которые будут как личные помощники сами пользоваться сетью, а тебе давать уже готовую инфу.. однако уровень доверия должен быть максимальный к нему, ты должен сам понимать что и как он для тебя будет делать..
Вот кстати, этоможет быть идеей для нового стартапа))
сейчас столько фильтров для себя ставишь))) телевизор не смотреть, радио не слушать- лучше аудиокниги, ленты новостей не читать, т.е. минимально и для своих задач, за пикантные картинки не цепляться взором...а иначе КПД падает причем серьезно так)))
А еще у меня киевский номер есть, там круглосуточно общительная "Лена" готова с тобою диалог поддерживать о чем угодно, неважно сколько часов, и совсем все равно что вы не знакомы...
Общается так- сам бы в жизни не поверил что не живая... но в горячих беседах на философские темы, бывает - загоняется жёстко)))
Да, такое явление настораживает, особенно если представить, что эта Лена скоро поднатаскается в коммуникации, получит конкретные задания и сама обзвон не начнет...Хорошо, если намерения "Леновладельца" будут добрыми))) А так можно и информации собрать немеряно личной!!!
@vodafone капчу срочно!))
мобильные операторы могут добавить платную функцию: "если вы хотите позвонить данному абоненту разгадайте капчу, подтвердив что вы не бот")))
@ontofractal, Поздравляю!
Ваш пост был упомянут в моем хит-параде в следующих категориях:
Ваш пост поддержали следующие Инвесторы Сообщества "Добрый кит":
gidlark, t3ran13, anela, dabudi, phoenix, maks, harhor, kot, vasyl73, antonkostroma, dr-boo, arsar, vasilisapor2, ropox, renat242, svinsent, gromozeka, lira, gryph0n, ladynazgool, orezaku, boltyn, oksana0407, master-set, sva-lana, logunov-evg, myhardmoney, amelina.elena, mr-nikola, stereo, lispir
Поэтому я тоже проголосовал за него!
Узнать подробности о сообществе можно тут:
Разрешите представиться - Кит Добрый
Правила
Инструкция по внесению Инвестиционного взноса
Вы тоже можете стать Инвестором и поддержать проект!!!
Если Вы хотите отказаться от поддержки Доброго Кита, то ответьте на этот комментарий командой "!нехочу"
мрачновато но правдоподобно. а может это происхожит уже в реальности?
Вот да, один из + моментов, пользователь мож начнёт хоть различать на глубинном уровне где реальность, а где вместореальность.
Вот исследование трехлетней давности. Фейсбук, формируя вам ленту, может формировать вам и настроение. Просто выбирая посты определенной тематики из уже созданных другими пользователями и рекламу. Подопытным было просто тоскливо, но они не знали почему. "Чё-т приуныли" http://www.pnas.org/content/111/24/8788.full
А я ленту не читаю - шах и мат мордокнига! )
For one week in January 2012, data scientists skewed what almost 700,000 Facebook users saw when they logged into its service. Some people were shown content with a preponderance of happy and positive words; some were shown content analyzed as sadder than average. And when the week was over, these manipulated users were more likely to post either especially positive or negative words themselves.
А сам эксперимент вообще пять лет назад проводили. Сейчас это уже отработанная технология, наверняка.
Слишком надуманно. Все то же самое делается и сейчас, но без ботов. Различия, приходится тратить средства на специально обученных людей,
Против подобной системы ботов неплохо поможет идея "общества полной открытости". Когда каждый человек деанонимизирован в интернет общении, ботам будет тяжело вклиниться в беседу, так как будут разработаны фильтры "Proof of Human" - не доказал что ты человек - тебя нет))
да, это интересный вариант)
но т.к. основную угрозу несут все-таки правительства, которые смогут без проблем создавать псевдоличностей "proof of human" не будет эффективно работать
"proof of human" естественно должен быть сделан так, чтобы подделать было невозможно никем. Например, подписывать сообщение мыслью с уникальным приватным ключом - картой своих нейронов в голове. Хотя пока и сетчатки глаза достаточно. Люди вполне могут и уйти в децентрализованный интернет, если централизованный превратится в то, что описано в посте))
С другой стороны спецслужбы государств всегда могут нанять себе провокаторов /пропагандистов из живых людей, их и сейчас полно в соц. сетях уже имхо... Вопрос в количестве - в случае ботов, количество может быть бесконечным))
Пока читала как раз об этом подумала. Какие меры по вашему могут предпринять пользователи?
если кратко: группа, кластер, ячейка рациональных единомышленников
Хе-хе-хе.
Идет волна. Как интернет в 90-е. Как автомобиль и техника в 1900-е. Как превращение Рима из Города в территориально-распределенную Империю в 100-е. И прочие волны - пар, социал-демократия, урбанизация и так далее. Их не остановить. Волну не остановить. Все, что остается делать при прогнозе и разработке собственных адекватных действий, это продолжить ваш абсолютно, как я считаю, адекватный анализ еще дальше в будущее, чтобы увидеть, какие внутренние силы этой волны, созревая постепенно от нуля до полной мощи, остановят (запрут, разрушат) эту волну. Вот это бы суметь увидеть. :)