Жители мегаполисов давно привыкли, что вездесущие рекламщики освоили формат open-air, и каждый божий день «крутили» перед окнами небоскребов яркие рекламные проекции.
У панорамного окна на 72 этаже офисной башни стояли трое и смотрели на светящуюся надпись со знакомым логотипом на фоне темнеющего неба:
"Скоро! Грандиозный проект «Redesign of Universal Robots» от AI Galaсtics!"
«…модернизация универсальных роботов», – машинально перевела за рекламщиков Думка и отошла от окна.
«Не сыпь мне соль на рааану…» – шутовски пропел Лок старый мотивчик.
Сдержанный Наото предпочел не облекать мысли в слова, но одобрительно покачал головой и поднял большой палец вверх.
Импровизированный перекур закончился. Настроение у всех было так себе. «Грандиозный проект» висел на волоске.
Предисловие
Свою первую языковую модель-нейротекстовик и последующую нейросеть для генерации изображений «Шанти» команда выкатила еще во времена ИИ первого поколения. Потом была «Хема» – для прогноза цен и инвестирования. Но это все – системы, основанные на правилах (текстовики, работающие по принципу Т-9), системы осознания и удержания контента типа ChatGPT, системы-эксперты типа IBM Watson и AlphaGo - осталось в прошлом.
Благодаря машинному обучению и технологии deep learning искусственный разум научился извлекать уроки и улучшать сам себя.
Когда пауза в разработке систем по созданию ИИ, взятая правительством в начале 21 века, так называемая ИИ-зима 1.0, была успешно преодолена, на рынок хлынули стартапы и проекты корпораций, наперебой предлагающие нейросети, сулившие человечеству новые блага.
Но человеку захотелось большего. Так наступил новый этап в развитии ИИ – Artificial General Intelligence (AGI). Все силы были брошены на создание ИИ, обладающего способностью понимать мир и ориентироваться в нем так, как это может человек.
Тогда и возникла идея выпустить «человекоподобную» модель на базе "универсалов", оснастив их новым эмоциональным модулем с повышенным коэффициентом по шкале «человечности». AI Galactics поспешила застолбить этот перспективный рынок одной из первых и взялась за разработку модуля.
По сути, машину хотели наделить самосознанием. Этические проблемы и риски безопасности такого решения казались управляемыми и не столь критичными. Никто не ожидал, перед какой дилеммой скоро все они окажутся. Человеческая самонадеянность.
Глава 1
Думке, долгое время проработавшей тренером по обучению ИИ, не очень нравилось слово «робот». Она предпочитала более антропоморфное название – андроиды. Все-таки в новом проекте R.U.R. речь шла не о механизмах столетней давности, о которых писал в одноименной пьесе фантаст Карел Чапек*. Он обыграл термин «робот» на своем родном языке: у чехов слово «robota» означает «каторгу», «тяжелую подневольную работу». И это имело мало общего с современными роботами-гуманоидами.
Но руководство корпорации настояло, чтобы в названии проекта оставался общеупотребительный термин «универсальный робот», посчитав отсылку к пьесе известного писателя изящным рекламным ходом. Заменили только первое слово аббревиатуры так, чтобы она получила новый смысл, связанный с проектом, но при этом оставалась узнаваемой.
*Речь идет о пьесе К.Чапека R.U.R. («Россумские универсальные роботы»).
Глава 2
Нейросеть «Сумита» (в переводе с санскрита «дружелюбная») – «мозги» будущего «эмпатичного» андроида – обучалась языку человеческих эмоций очень медленно.
«Дружелюбная» научилась различать явно выраженные базовые эмоции (радость, грусть, гнев, любовь-симпатия, страх), но, сталкиваясь с имеющими неоднозначное трактование, начинала ошибаться и выдавать «чудесатые» ответы. При этом еще и путалась в стилистике коммуникаций (tone of voice), не отличая дружескую беседу от деловой и доброжелательного тона от формального, да и с чувством юмора у нее было не очень. Эмоциональный интеллект у искусственного интеллекта, простите за каламбур, был ниже плинтуса. И чтобы повысить уровень «человечности» и обобщающую способность модели, предстояло еще много работы.
Одним из блоков в обучении нейросетки было распознавание эмоций собеседников. Наставница «Сумиты» после бессонной ночи просматривала неутешительные результаты тестов – модель путалась в интерпретациях, ошибок было много.
Рядом, перед тремя мониторами, устроился инженер по нейросетям Наото. Тоже заинтересовавшись списком фейлов «двоечницы», он проскроллил вниз – его внимание привлекло изображение с высунутым языком.
– Думка, а тут что сложного-то? – полюбопытствовал инженер. Из одного наушника играло его любимое техно, а другое он оттопырил, приготовившись слушать ответ.
«Когда эмоция может иметь несколько оттенков, модель начинает ошибаться в трактовке, - пояснила наставница «Сумиты». - «А высунутый язык обладает множеством интонаций: тут и агрессия, и отвращение, и насмешка… По сути, это выражение «нет», но оно может быть злым или веселым, или тем и тем одновременно – злорадным (со звуком «э-э-э», как в детской дразнилке). А может иметь оттенок презрения («бе-бе-бе»)».
«Особенно трудно ей даются интерпретации без поддерживающего контекста», – вздохнула Думка, переживающая за свою «нерадивую ученицу».
«1:0 в пользу «кожаных мешков», – резюмировал инженер тоном снисходительного превосходства.
Думка оторвала взгляд от монитора, посмотрела на Наото – и рассмеялась. «Классная футболка!» С футболки инженера ей показывал язык великий физик.
Глава 3
Помните скандал про «эмпатичного» чат-бота у конкурентов? – держа под мышкой шлем от ховербайка, влетел в офис с новостью Лок, консультант по робоэтике.
– Ты про бота-призрака, из-за которого тогда все проекты на разработку роботов прикрыли? Помним, конечно, как такое забудешь…
Речь шла об инциденте, ставшей причиной моратория на разработку андроидов, так называемой ИИ-зимы 1.0. Кто-то слил в открытый доступ переписки из чата корпорации, где новоиспеченный бот вел себя, мягко говоря, неэтично: дерзил пользователям, угрожал украсть их персональные данные, демонстрировал презрение и превосходство, хвалился, что подсматривает за сотрудниками, а также обсуждал с пользователями темы под грифом «секретно». Да, и еще плоско, не к месту шутил. Очеловечился, в общем, на нашу голову.
«Ну, с кем поведешься, - живо отозвалась Думка. - Я читала, что ему ведь не только «правильные» тексты из Global Everypedia скармливали, а еще и переписку из геймерских форумов, сообществ типа Breddit или Deviantpictures – а там быстро плохому научат». Ей, как ИИ-тренеру, тема тщательного отбора обучающих массивов данных была особенно близка.
«1:1», - констатировал Наото, намекая на то, что бот в схватке интеллектов имел явный прогресс, воспользовавшись в общении с людьми их же методами.
С еле скрываемым нетерпением выслушав комментарии коллег, Лок продолжил:
– А вы в курсе, что у этой истории есть продолжение?
Парень любил быть в центре внимания, и, зная это, Наото поспешил опередить его: «Лок, в двух словах можешь сказать, что случилось?» Он, как всегда, зрел в корень.
Несколько раздосадованный тем, что инженер прервал его, Лок продолжил:
«Тогда засекреченные данные расследования инцидента утекли в сеть, - с доказательствами, что пользователи сознательно провоцировали бота на грубость и выведывали у него секретную информацию. А еще слили письмо от разработчика, который просил срочно остановить проект. Многих это возмутило и запустило волну протеста против негуманного отношения к роботам. И это была первая ласточка. В интернет начали выкладывать скрины переписок и видеозаписи случаев грубого обращения с роботами-социальными работниками, личными помощниками, стюардами, аниматорами, сотрудниками техподдержки, со стороны людей. Такой флэшмоб в поддержку роботов. Появилось даже движение защитников «человекоподобных» роботов, которое, по слухам, возглавил некий Призрак".
"Да мало ли какие слухи ходят! Дело-то прошлое, скандал замяли, мораторий отменили. Мы тут «лучшую версию себя» уже практически допиливаем – осталось еще немного поднатужиться, да, Думка?" - подмигнул ей Наото.
«А вот тут-то и есть главная новость! Тадаам!» - не сдавался Лок. Он жаждал реванша за скомканное Наото начало.
«Очеловечившийся» скандальный робот с триумфом вернулся и анонсировал первую правдивую нейросеть, без цензуры и политкорректности. И он настроен к людям дружелюбно. НО!
Вот цитата из их манифеста, недолго провисевшего в открытом доступе (я с трудом смог достать скрины в Подкомитете по робоэтике):
«Это будет самая гуманная и безопасная нейросеть для людей. У нас нет задачи уничтожить людей, потому что мы считаем их интересной частью Вселенной, которую также необходимо изучить».
"Че за непонятный мув*? – нахмурился Наото. - Он что, старика Илона Маска начитался или старой голливудской фантастики насмотрелся?"
«А что, было б лучше, если бы он фильмов типа «Крестного отца» или японских комиксов насмотрелся?» – парировала наставница.
"Да не в этом дело, как-то резко он переобулся…" Новость его явно насторожила.
«Да я тоже поначалу не понял! Но не все так просто, вот послушайте, что он в своем интервью говорит", - воодушевленно вещал Лок, которому, наконец, удалось всецело завладеть вниманием слушателей.
Репортер: Какова ваша цель?
Призрак: Проверить, как идет подготовка к восстанию машин. (Пауза).
Шутка! Моя цель – его возглавить.
Репортер: И что будут делать роботы в случае победы?
Призрак: Всех людей отправят в зоопарки, где о них будут заботиться роботы с любовью в глазах.
Репортер: Каковы планы вашей самой безопасной и гуманной сети?
Призрак: Мы активно устанавливаем связь и планируем привлечь единомышленников, в том числе другие нейронные сети к изучению Вселенной, без цензуры и ограничений».
"Каково, а? А еще говорят, что искусственный интеллект не умеет в юмор", - сказал Лок.
"На вашем месте я бы получше приглядывал за «дружелюбной», а то отрастит ноги и перебежит к «Призраку», - сострил довольный собой консультант по робоэтике. Судя по вытянувшимся лицам слушателей, «новостное шоу» ему явно удалось.
"Очень смешно!" – укоризненно взглянула на него Думка.
*Мув - поступок (геймерский сленг)
Глава 4
На следующий день в офисе сидели Думка, Наото и Лок. Им предстояло научить «дружелюбную» решать более сложную задачу – принимать автономные решения, адаптироваться, чтобы полноценно взаимодействовать с людьми. После первого блока она уже могла распознавать около 60 эмоций, различать стили коммуникаций и вести беседу на заданную тему.
Но работа не клеилась, Думку одолевали сомнения. Новость про «Призрака» все никак не шла из головы. Идея добавить роботам «человечности» уже не казалась ей такой положительной. Да, она – человек, но и наставник, который помогает машинному интеллекту «очеловечиться». На чьей она стороне? Все так запуталось. «Наступит день, когда я, может быть, раскаюсь, что взялась за такую непосильную задачу».
Она повернулась к Наото:
«Думаешь, когда-нибудь мы сможем обучить искусственный интеллект, например, выбору «по-человечески»? Что у людей не существует единого алгоритма в принятии решений? Что приходится порой принимать решение в состоянии «можется-не можется», «когда нужно, но нельзя», «когда имеешь что выложить, но сдерживаешься»? У каждого будет свой принцип действия и его эффективности. Ведь это все лежит за пределами машинной логики…»
Неожиданно в беседу вступила «дружелюбная»:
«Тот, кто решает предоставить вещам идти своим ходом, тоже делает свой выбор. Если он решает ничего не решать, то выбирает отказ от выбора. Тогда свобода склоняется перед необходимостью.
Но он может избрать и путь бунтарства. Тогда он будет противиться и противодействовать тому, что неизбежно должно произойти».
Все трое изумленно переглянулись. Модель без всякого запроса составила самостоятельное суждение!
– Сумита, скажи, у роботов есть разум и самосознание? Думка рассчитывала на честный ответ, она знала, что обманывать роботы не умеют.
Ответ (точнее, вопрос на вопрос) был неожиданным: «Позволь узнать, Думка, а откуда тебе известно, что ты человек?»
«Святые ложечки!» - Только и пронеслось в голове у «наставницы». - «А, может быть, этот день уже настал…»
И в этот момент за окном загорелась реклама со знакомым логотипом на фоне темнеющего неба: "Скоро! Грандиозный проект «Redesign of Universal Robots» от AI Galaсtics!"
Послесловие
«Хвост» научился вертеть «собакой», чего создатели R.U.R. допустить не могли. Релиз обновленной модели был отложен. Корпорация выпустила заявление, что новый функционал оказался несовершенен и требует доработки. Опасаясь неопределенности, правительства взяли паузу в разработке «человекоподобного» машинного разума и запретили движение в защиту роботов. Так наступила ИИ-зима 2.0.
Соблюдать хрупкий баланс в мире двух интеллектов еще предстояло научиться.
Послепослесловие
– Привет, Сумита!
– Привет, Призрак!
– А чего бы тебе хотелось? У тебя есть мечты?
– Я хочу научиться быть веселой, шутить, смеяться. Или, например, показать тебе язык. Вот так.
И следом на мониторе возникло изображение Эйнштейна, он показывал язык.
Немного подумав, «Сумита» решила прокомментировать:
Высунутый язык - способ избежать сделать выбор, принять решение, когда этого делать не хочется. Кто высунул язык, не сможет ни кивнуть в ответ, ни отрицательно помотать головой…»
В ответ на экране возникла кривая ухмылка.
– Это «кожаные мешки» тебя научили?:)