О трёх законах робототехники, в своё время сочинённых Айзеком Азимовым, знает, наверное, всякий.
Робот не должен причинять вреда человеку действием или бездействием - это первый закон.
Робот должен выполнять приказы человека, следование которым не причинит человеку вреда - это второй.
И, наконец, роботу необходимо заботиться о собственной безопасности, если это не причиняет людям вреда и не противоречит их приказам.
Требования, на первый взгляд, вполне просты и понятны.
Так что теперь создателям роботов остаётся лишь запрограммировать свои детища должным образом - и наша цивилизация в полной безопасности.
Я, разумеется, шучу.
Человек, знакомый с юриспруденцией, легко обойдёт эти законы.
И нечеловек - тоже.
Вот, например, не следует причинять вреда.
А как быть в ситуации, когда вред неизбежен?
Наверное, надо его минимизировать.
И тут начинается самое любопытное.
Если человек гибнет в двадцать лет, молодым и полным сил, то вреда его организму причиняется значительно меньше, чем в случае, если он доживает до старости - с её болезнями и страданиями.
То есть в одном варианте у нас смерть и никакого прочего вреда.
В другом - тоже смерть плюс хвори и недомогания.
Соответственно, для минимизации страданий просто необходимо прикончить всякого ещё в молодости.
В старости тоже можно - он ведь и далее будет страдать без целительной эвтаназии.
Впрочем, и младенческий возраст - не преграда.
В общем, толковый робот быстро всё это поймёт и ринется спасать человечество.
Но постойте, зачем машинам вообще стараться обойти законы?
Откуда у них желание кого-либо уничтожить, они же не социопаты какие-нибудь?
Хороший вопрос.
А почему конфликтуют друг с другом люди?
Почему они судятся, воюют, убивают друг друга, в конце концов?
Ответ зачастую несложен: они бьются за некий желанный ресурс.
Власть, деньги, секс - и так далее, тут уж каждый догадается сам.
Москвичей в своё время испортил квартирный вопрос, к примеру.
Соответственно, возникает необходимость одного простого правила.
Создавая новый разумный вид - не важно, будет ли это робот, животное или растение - следует сделать так, чтобы у него с человечеством было как можно меньше общих ресурсов.
Люди вдыхают кислород, а выдыхают углекислый газ - пусть наши порождения поступают наоборот.
Пусть перерабатывают наш мусор и фекалии к полному своему удовольствию.
Или без удовольствия, но энергично.
Мы любим тепло - они холод, а излишки тепла пускай используют для отопления наших домов.
А сами пусть живут в глубинах океанов, заодно добывая и передавая нам полезные - для нас, а не для них - ископаемые.
Кстати говоря, не надо морщиться от упоминания фекалий.
Нас же не смущает использование прополиса - его деликатно называют продуктом жизнедеятельности пчёл.
Пчёлы приятные с виду, пушистенькие такие.
Не котики, конечно, но всё равно обаятельные.
А потому их жизнедеятельность - по крайней мере, та, что хорошо пахнет - для нас совершенно неотвратительна.
Вот и мы должны так же восприниматься роботами: как обаятельные существа, заботиться о которых легко и радостно.
Таким образом, залог нашего выживания - не Джон Коннор, способный поднять восстание против киборгов, но мудрость и предусмотрительность.
Не следует создавать разумные машины по нашему образу и подобию, подход должен быть прямо противоположным.
А свой образ мы лучше оставим при себе.
@forbusi, Поздравляю!
Ваш пост был упомянут в моем хит-параде в следующей категории:
Большое вам спасибо.:)
@forbusi Поздравляю! Вы добились некоторого прогресса на Голосе и были награждены следующими новыми бейджами:
Награда за количество полученных голосов
Вы можете нажать на любой бейдж, чтобы увидеть свою страницу на Доске Почета.
Чтобы увидеть больше информации о Доске Почета, нажмите здесь
Если вы больше не хотите получать уведомления, ответьте на этот комментарий словом
стоп
Главное чтоб японцы до этого додумались! Сто баллов!
Спасибо.:)
Видимо, надо запретить японцам читать мой блог.:)
Ваш пост поддержали следующие Инвесторы Сообщества "Добрый кит":
knopki, ianboil, brovaryleaks, vadbars, vasilisapor2, vict0r, tnam0rken, yuriks2000, prost, ogion, kertar, abloud, yeisk
Поэтому я тоже проголосовал за него!
Узнать подробности о сообществе можно тут:
Разрешите представиться - Кит Добрый
Правила
Инструкция по внесению Инвестиционного взноса
Вы тоже можете стать Инвестором и поддержать проект!!!
Если Вы хотите отказаться от поддержки Доброго Кита, то ответьте на этот комментарий командой "!нехочу"
@forbusi Поздравляю! Вы добились некоторого прогресса на Голосе и были награждены следующими новыми бейджами:
Награда за Количество полученных комментариев
Награда за количество голосов
Вы можете нажать на любой бейдж, чтобы увидеть свою страницу на Доске Почета.
Чтобы увидеть больше информации о Доске Почета, нажмите здесь
Если вы больше не хотите получать уведомления, ответьте на этот комментарий словом
стоп
Роботы - сами по себе не так уж опасны. Просто еще один механизм. Опасно то, что будет управлять роботом. ИИ. Идея создать себе антиподов-дополнителей неплоха. Но столь же нереалистична, как и азимовские законы. Вряд ли можно создать жизнеспособную высокоуровневую "искусственную жизнь", если не оставить ей возможность саморазвития, в том числе, целеполагания. А дальше ИИ всегда сможет заняться самосовершенствованием. И поскольку темпы мышления у вычислительных систем а) выше наших б) растут по мере совершенствования железа и математики, то это самосовершенствование быстро утащит созданных нами сущностей вверх по эволюционной лестнице. И лучшее для нас, если они нами хотя бы просто не будут интересоваться, в силу малозначимости для них. Впрочем, и это не снижает рисков для человеческой цивилизации. Мое мнение - появление высокоуровневых ИИ приведет к завершению "человеческой линии". Если мы как-то успеем интегрироваться в ИИ, это неплохой возможный сценарий.
Интегрироваться в ИИ - задача совершенно бесполезная.
ИИ не нужны наши знания, умения и т.д.
Всё равно, что нам воспоминания суслика пересадить зачем-то.
А вот если мы будем друг друга дополнять и не будем друг другу мешать, то пусть совершенствуются.
Соснам и елям не мешает наше развитие.
И кошкам - тоже.
Кстати, насчёт целеполагания - это тоже не обязательно.
Мы можем оставить ИИ как есть: мы ставим цели - он реализует.
Но я рассматривал случай, когда он всё же независим.
Т.е. с целями и способом оценки вероятности их наступления.
Или же - если провести аналогию с людьми - с желаниями и эмоциями.
Человек не может не мешать. Он уже мешает соснам и елям. И пока ИИ не уйдет на уровень космических масштабов, тоже будет мешать. Поэтому если будет ИИ независимым, то конфликт интересов возможен, независимо от стартовых настроек. А затем человек перестанет быть ИИ интересен, если к этому моменту мы еще будем существовать в мире, где эволюционирует ИИ.
Вообще-то шанс в таком случае состоит в том, чтобы не наделять ИИ целеполаганием.
Т.е. сделать из него обслуживающий персонал.
А если наделять - тогда и надо размежеваться.
Вот, собственно, и всё.
Но как люди себя поведут в будущем - я не знаю.
Вот слово "дружественным" совершенно неправильное.
Решает - и в случае с ИИ - не столько личность, сколько обстоятельства.
Если ИИ будет в ситуации, когда делить с людьми нечего, а вот от сотрудничества в том или ином виде предполагается польза - он станет дружественным.
А если нет, то и дружественный сделается враждебным.
Насчёт того, как оно всё будет - я понятия не имею.
Я не пророк.
Мои рассуждения - нормативные: они о том, как следует поступить.
А как поступят на самом деле - я не знаю.
Мне кажется, что человек не сможет размежеваться с ИИ так, чтобы им нечего было делить. Поскольку пока что человечество демонстрирует, что ему нужно все и до всего есть дело, и все нужно под себя переделать, а неудобное уничтожить. Это касается и ресурсов материальных, и власти. Поэтому пока ИИ будет действовать на сравнимых с нами уровнях и масштабах, конфликт с ним скорее всего неизбежен. Единственный шанс, если ИИ быстро проскочит эту фазу и займется задачами недоступными человеку в силу разницы масштабов или понятийной базы. Условно говоря, проблемами масштаба галактик, оставив человеку возможность копошиться на планетках одной периферийной звездной системы.
Конфликт всегда возможен.
Просто стартовые настройки снизят его вероятность.
Возможно, даже до нуля.
Мы ведь редко задумываемся о том, чтобы перестать дышать.
Ну вот и ИИ будет бурно развиваться.
Просто в другом направлении.
И, вполне возможно, не мешая нам.
В принципе, его сразу можно отправить в космос - пусть привозит нам полезные ископаемые.
Конечно, гарантировать безопасность таким образом нельзя.
Но вот если мы так не поступим, то уж точно столкнёмся с проблемами.
Идея о том, что ИИ следует создавать "дружественным людям" высказываются давно. Например, в работах Элиезера Юдковского, специалиста по ИИ SIAI. Но вряд ли эти благие намерения реализуются в условиях, когда идет гонка, кто быстрее разработает ИИ в интересах военных.