Когда в прошлом месяце в США робот-наблюдатель Knightscope K5 упал в пруд в офисном комплексе, это было не в первый раз, когда такие машины попадали в неприятности. Конечно, робот системы безопасности, похожий на R2D2 из "Звездных войн", который переворачивается и падает в пруд, не представляет большую опасность, однако, более сложные автономные системы с искусственным интеллектом будут затрагивать жизни многих людей.
Итак, как должны регулироваться ситуации, когда роботы и автономные системы ошибаются и кто должен нести ответственность, если в результате ошибки причиняется вред здоровью или имуществу? Если в результате инцидента с машиной погибает человека, как должны квалифицироваться такие действия. Понятно, что машина не может нести ответственность, значит отвечать должен кто-то из людей.
В Российском законодательстве сегодня предусмотрена ответственность за производство либо сбыт товаров и продукции, выполнение работ или оказание услуг, не отвечающих требованиям безопасности (Ст.238 УК РФ). Но достаточно ли будет такого регулирования, когда вопрос будет касаться самообучающихся автоматизированных систем с AI?
В краткосрочной перспективе, основные трудности будут заключаться в определении ответственности в зависимости от конкретной аварии, действительно ли автономная система совершила ошибку, или ее действия не выходят за рамки нормы, а причина в других факторах? Как определить, правильно ли поступила система, если, например, чтобы избежать столкновения с группой людей, она совершает маневр, в результате которого гибнет один человек?
Часть исследователей предполагают, что в некоторых случаях ответственность могут нести разработчики системы. В частности, страховые компании будут внимательно следить за этой ситуацией, особенно в области использования беспилотных автомобилей. Для них определение виновного является важным вопросом. В связи с чем, вероятность возникновения судебных споров страховых компаний и разработчиков автономных систем весьма вероятна и пока в этом вопросе остается большое поле для дальнейшего нормотворчества.
Вопрос правового регулирования этой новой для нас отрасли не праздный. Илон Маск и другие ученые заявляют, что бесконтрольное развитие этих технологий представляют для человечества большую угрозу, чем атомное оружие, в связи с чем, они предлагают ввести жесткие нормативные рамки для автономных систем AI на уроне ООН.
Вероятно, процесс в этом направлении начнется с малого, например, недавние рекомендации британского правительства о борьбе с потенциальными кибератаками на "умные" системы, интегрированные в автомобили или ожидаемый законопроект об автономных и электрических транспортных средствах, который будет представлен позднее в этом году, с целью создания новой структуры для страхования транспортных средств (Великобритания).
Или принятые в Германии 20 рекомендаций для автомобильной промышленности, которые следует учитывать при разработке любых автоматизированных систем управления, свод этических правил.
У некоторых исследователей, опасение вызывает тот факт, что политики недостаточно углубляются в этот вопрос и оставляют много легко используемых лазеек. Проблема заключается еще и в том, что регулирование должно касаться потенциальных угроз, а не уже существующих.
Некоторые аналитики, считают, что государственное регулирование данной сферы может стать барьером на пути развития научно-технического процесса.
«Правила, которые препятствуют прогрессу, редко бывают хорошими, если мы считаем, что прогресс имеет выгоду для общества», считает Карл Фрейнд, старший аналитик HPC и глубокого обучения в Moor Insights and Strategy.
И, конечно, большое количество аналитиков, согласны с тем, что эти системы потенциально будут экономить тысячи или даже десятки тысяч жизней каждый год, когда они будут широко развернуты, с очень малой и приемлемой частотой ошибок. По их мнению возможные эксцессы с участием (по вине) автономных систем должны рассматриваться также, как рассматриваются побочные эффекты, вызываемые многими лекарствами.
И все же, если машина совершит ошибку, как мы будем определять виновного?
Многие исследователи, такие, как Алан Уинфилд, профессор Robot Ethics в Лаборатории робототехники Bristol, предлагают идею этического черного ящика. Роботы и автономные системы, по его словам, должны быть оснащены эквивалентом регистратора данных полета, чтобы непрерывно регистрировать информацию с датчиков и соответствующие данные внутреннего состояния системы. Идея заключается в том, что она может установить причину, а соответственно и определить виновную сторону в случае аварии, вызванной роботом или машиной с поддержкой AI, что также будет иметь значение для принятия мер в целях исключения подобных ошибок в будущем.
У нас всегда должна иметься возможность определения того, почему AI принял то или иное решение, это принцип прозрачности, этический принцип, лежащий в основе разработки автономных систем.
Некоторые юристы, работающие в сфере высоких технологий, считают, что рост технологий искусственного интеллекта действительно вносит большие изменения в нашу жизнедеятельность, но если дело доходит до AI и мошенничества, то такие риски должны быть оценены и сведены к минимуму самими компаниями точно так же, как и любая более привычная нам угроза.
Если мы говорим о будущих гипотетических ситуациях, когда технология станет достаточно умной для совершения мошенничества, эта возможность должна быть установлена и предотвращена. Это означает принятие мер для того, чтобы не одна автономная система в будущем не имела возможности работать без предварительного тщательного изучения и проверки. Таким образом, речь идет о превентивном регулировании и контроле, и если такого контроля не будет, потенциал для вредоносных действий всегда будет иметь место.
Другим серьезным вопросом в этой области является правовое регулирование военных автономных систем.
Такие системы уже давно используются вооруженными силами разных стран. Это крылатые ракеты, беспилотники, роботы-саперы и разведчики и др., но эти системы в наше время значительно улучшаются. Мощность этого оружия повышает вероятность новой гонки вооружений, и их автономность поднимает вопросы на уровень международного права, прав человека и гуманитарного права.
Учитывая специфику военных АС, заключающихся в преимущественном их применении при ведении войн между государствами, этот вопрос подлежит регулированию исключительно на международном уровне. Мировым сообществом должны быть разработаны и приняты руководящие нормы и принципы, регулирующие производство и границы использования военных автономных систем.
Ваш пост поддержали следующие Инвесторы Сообщества "Добрый кит":
narin, lumia, orezaku, vika-teplo, vealis, vsebudethorosho
Поэтому я тоже проголосовал за него!
Узнать подробности о сообществе можно тут:
Разрешите представиться - Кит Добрый
Правила
Инструкция по внесению Инвестиционного взноса
Вы тоже можете стать Инвестором и поддержать проект!!!
Если Вы хотите отказаться от поддержки Доброго Кита, то ответьте на этот комментарий командой "!нехочу"