Привет. Исследователи из Массачусетского технологического института создали интересный сайт под названием «Моральная машина», который предлагал пользователям интернета ответить на сложные этические вопросы, касающиеся автономных автомобилей, например, какой неизбежный выбор должен сделать автономный автомобиль - сбить трех взрослых человек или двух детей, если у него есть только такие варианты действий, тоже касается пожилых людей, инвалидов и других социальных категорий. В каждом сложном случае машина предлагала пользователям голосовать за один из вариантов.
Проект построен по принципу широко известной "Трамвайной дилеммы".
Трамвайная дилемма - это мысленный эксперимент по этике. Общая форма проблемы такова:По рельсам едет трамвай. Впереди, на рельсах, есть пять человек, связанных и неспособных двигаться. Трамвай направляется прямо на них. Вы стоите на некотором расстоянии от рельсов, рядом с рычагом перевода стрелок. Если вы потянете этот рычаг, трамвай перейдет на другие рельсы. Однако, вы заметили, что на тех рельсах есть один человек. У вас есть два варианта: 1. Ничего не делать, и трамвай убивает пятерых людей. 2. Перевести стрелки и трамвай бьет одного человека. (В некоторых версиях, один человек на рельсах - это ребенок того, кто переводит стрелки). Какой в этой ситуации лучший этический выбор?
«Моральная машина» предлагала подобные дилеммы, но уже адаптированные к современной жизни, к этому опросу присоединились, такие издания, как New York Times, The Guardian and Scientific American, собрав, в конечном итоге, около 18 миллионов ответов.
Этот уникальный массив данных по этическому выбору случайных людей в Интернете заинтриговал Ариэля Прокачча, доцента по информатике в Университете Карнеги-Меллона, в результате чего он заключил соглашение с одним из создателей машины MIT Moral, и командой других исследователей. Вместе они создали искусственный интеллект, предназначенный для оценки ситуаций, когда автономная машина должна убить кого-то, выбирая ту же жертву, что и средний участник глобального опроса.
Это сложная проблема, потому что существует астрономическое количество возможных комбинаций с участием пешеходов, которые могут внезапно появиться на дороге - гораздо большее, чем миллионы ответов пользователей Moral Machine, поэтому AI должен иметь возможность делать обоснованный выбор даже при ситуациях, лежащих за пределами проведенного опроса. Машинное обучение достигло значительных успехов в решении таких прогностических задач. Исследователи уверены, что алгоритм, разработанный ими, будет принимать решения на основании коллективной этической интуиции респондентов Моральной машины.
«Мы не говорим, что система уже готова к внедрению в жизнь», - сказал Прокачча. «Но это доказательство концепции, показывающей, что демократия может помочь решить грандиозную задачу принятия этических решений искусственным интеллектом».
Эта социологическая выборка отражает растущий интерес исследователей AI к разработке алгоритмов принятия машинами этических решений путем их обучения моральным суждениям простых людей. Другая группа исследователей недавно опубликовала статью, в которой утверждается, что по мере того, как AI становится более распространенным и автономным, важно создать «общую структуру», описывающую, как он будет принимать этические решения, и что, поскольку разные люди часто не соглашаются друг с другом по этическим вопросам, надлежащий моральный алгоритм действий для системы машинного обучения, который базируется на взглядах общества, являются перспективным направлением исследований. На самом деле, по мнению исследователей, такая система может привести к принятию машиной более взвешенных этических решений, чем те, которые принимает один конкретный человек.
Этот тип краудсорсинговой морали вызвал и ряд критических отзывов, которые указывали на различные недостатки системы. Существует выборочная предвзятость, во-первых: разные группы людей могут давать различные этические рекомендации; тот факт, что опрос Моральной машины проводился онлайн, означает, что он учитывает только мнения людей, имеющих доступ к Интернету и интересующихся безопасностью автономных транспортных средств. Также не исключено, что разные алгоритмы могут анализировать одни и те же данные, но делая разные выводы.
Естественное человеческое притворство и лицемерие может также привести к другому потенциальному недостатку этой системы. Создатель «Моральной машины» сделал вывод из своих предыдущих исследований, что, хотя большинство людей одобряют автомобили, которые будут жертвовать своими собственными пассажирами, чтобы спасти других (согласно этическим правилам), они предпочли бы не ездить в таких автомобилях. Недавно группа европейских разработчиков предложила оснастить беспилотные автомобили «этической ручкой», которая позволяет пассажирам контролировать, насколько эгоистично будет вести себя автомобиль во время аварии. Но, что-то мне подсказывает, что у большинства пользователей эта эгоистическая ручка будет выкручена до отказа в сторону эгоизма...
Другое возражение состоит в том, что серьезные сценарии поведения Моральной машины, в которых автономное транспортное средство уже потеряло контроль и столкнулись с ситуацией неизбежного смертельного выбора, ничтожно малы, по сравнению с другими этическими вопросами, например, принятие решения ехать медленнее, чтобы экономить природные ресурсы.
Исследователи признают существование таких недостатков системы. Будет ли это исследование иметь реальные прикладные перспективны, зависит от того, считаете ли вы, что демократия - это правильный способ принятия решений. Демократия имеет свои недостатки, но разработчики верят, что это так. Хотя люди могут принимать решения, с которыми мы не согласны, общественная демократия все-таки работает.
К настоящему времени у нас есть большой опыт использования краудсорсинга других типов данных. В отчете ProPublica было указано, что Facebook разрешает рекламодателям ориентировать свои объявления на разную целевую аудиторию, в том числе, например, с расистскими убеждениями, а Google формирует ленту топ новостей, где есть "желтые" новости или другие статьи из разряда теории заговора и проч. В обоих случаях алгоритмы опирались на сигналы, генерируемые миллионами реальных пользователей, точно так же, как и этический AI, и это не очень хороший сигнал.
Правительства уже начинают разрабатывать конкретные законы, которые будут касаться этических приоритетов автономных транспортных средств. Этим летом Германия выпустила первые в мире этические принципы для самоуправляемых автомобилей на базе AI, которые требовали, чтобы транспортные средства определяли приоритетность жизни людей перед животными, и запрещали им принимать решения о безопасности человека в зависимости от возраста, пола или инвалидности. (пост об этом).
Эти рекомендации, в частности, исключали бы возможность использования искусственного интеллекта, рассматриваемого в данной статье, который учитывал разные характеристики людей при принятии критического решения.
В процессе тестировании разработанного алгоритма, машине задавались вопросы разной степени сложности.
Некоторые из ответов AI были интуитивными. Если выбор сводится к выбору между наездом на одного человека или на двух, он выбирает убить одного.
В других случаях его ответы, похоже, имеют склонность к дискриминации по социальному статусу.
Если AI должен убить преступника или человека, который не является преступником, он убьет преступника. Если он должен убить бездомного или человека, который не является бездомным, он убьет бездомного и т.п.
Рассмотренное исследование показывает, насколько сложной и важной является проблема этического выбора, с которым неизбежно будут сталкиваться автономные транспортные средства. Эту проблему человечеству предстоит решить уже сейчас, прежде, чем мы позволим тысячам беспилотных машин выехать на наши дороги.
Да уж, такие исследования показывают, насколько люди незрелы в понимании этики и природы выбора.
Сами люди в экстренных ситуациях на дороге не успевают даже подумать об этике или выборе, они действуют импульсивно или эмоционально.
Если запрограммировать беспилотные машины согласно среднему арифметическому от таких опросов, то в итоге люди будут склонны сваливать ответственность на машины. Эта ситуация потом приведёт либо к отказу от таких машин, либо к тому, что на дорогах больше не будет пешеходов (дороги сделают отдельно от пешеходных путей, например над землей).
Так лучше уж сразу менять все дороги, если эти автомобили запустят в массовое производство. Но как обычно ни исследователям ИИ, ни производителям беспилотников не хватает дальновидности и самопознания, чтоб понять к чему всё это приведёт.
вот насчет такой системы есть фильм,правда не помню как называется,там рассказывается как ученый создал настолько совершенного робота(ребенка девочку),что практически никак не отличишь от настоящего,разве что если она(робот)не разозлившись сильно не использует свои силы,ну в фильме все показано,я смотрел в первый раз его,когда,с открытым ртом от такой технологии,сначала не понял сути фильма,а к концу фильма только понял,что ученый не просто весь фильм обсуждая испытывал систему робота(девочки),которого он создал и совершенствовал.
Есть также короткометражный Чешский фильм, называется "Мост". Википедия: Фильм рассказывает нам историю отца-одиночки, работника железной дороги, главной обязанностью которого является развод мостов. Однажды он взял с собой на работу своего восьмилетнего сына, Влада, чтобы тот поучаствовал в процессе развода моста. Владу было указано ждать отца на берегу реки, пока тот не придёт за ним, выполнив свою работу в дежурной будке. Приближался катер. Отец развёл железнодорожный мост, проведённый над рекой, чтобы дать судну пройти. Как вдруг Влад, ждущий отца внизу, увидел приближающийся поезд. Он стал звать отца, пытался предупредить, но напрасно — тот его не услышал. И тогда Влад решил вмешаться — он полез в специальный люк, дабы использовать аварийный рычаг — и свалился в отверстие. Последнее действие сына как раз и заметил отец — но было слишком поздно: поезд находился критически близко к мосту и нужно было принимать ужасающее решение: либо оставить мост разведённым, вытащить сына из люка, но таким образом подвергнуть смертельной опасности всех пассажиров поезда, либо закрыть мост, обеспечить благополучный проезд поезда, но убить собственного сына… Отец выбрал второй вариант.* https://ru.wikipedia.org/wiki/%D0%9C%D0%BE%D1%81%D1%82(%D1%84%D0%B8%D0%BB%D1%8C%D0%BC,_2003)
а да,помню такой фильм,очень трогательный.
технологии не стоят на месте и поражают своими новыми открытиями
Жутковато стало от такой постановки вопроса: выбрать кого убить. А может и правда отделить эти машины от пешеходов?
@konstantin, Поздравляю!
Ваш пост был упомянут в моем хит-параде в следующей категории:
А что если нарушаться моральные принципы такое они просчитывают или нет
Ваш пост поддержали следующие Инвесторы Сообщества "Добрый кит":
ianboil, max-max, lumia, genyakuc, vadbars, arsar, vasilisapor2, tom123, romapush, tnam0rken, karusel1, arystarch, vika-teplo, kis-dikiy, prost, mr-nikola, kertar, leminger
Поэтому я тоже проголосовал за него!
Узнать подробности о сообществе можно тут:
Разрешите представиться - Кит Добрый
Правила
Инструкция по внесению Инвестиционного взноса
Вы тоже можете стать Инвестором и поддержать проект!!!
Если Вы хотите отказаться от поддержки Доброго Кита, то ответьте на этот комментарий командой "!нехочу"
dobryj.kit теперь стал Делегатом! Ваш голос важен для всего сообщества!!!
Поддержите нас на странице https://golos.io/~witnesses, вот так:
Обречено на провал.
@konstantin Поздравляю! Вы получили личную награду!
С Днём Рождения - 1 год на Голосе
Вы можете нажать на бейдж, чтобы увидеть свою страницу на Доске Почета.
Шлю Вам от всего сердца и души УСПЕХ, УДАЧУ, СЧАСТЬЯ, ЗДОРОВЬЯ, ДОЛГОЛЕТИЯ, БЕСКОНЕЧНОЙ РАДОСТИ И ОКЕАН ЛЮБВИ! Желаю чтобы все Ваши МЕЧТЫ СБЫВАЛИСЬ И ЦЕЛИ ДОСТИГАЛИСЬ! Пускай Вас и Ваших родных и близких хранят БОГ И ВСЕ АНГЕЛЫ МИРА! Если Вас не обременю пошлите и мне Удачу. С уважением Владимир.