Привет.
Рост использования беспилотных летательных аппаратов (БПЛА), как в военной, так и в коммерческой среде, сопровождался жарким дебатами о том, должен ли быть прямой запрет на использования роботов для убийства людей.
Такие роботы, которые могут находиться в воздухе, на земле или в воде и под водой, теоретически включают в себя «искусственный интеллект» (AI), который сделает их способными выполнять миссии самостоятельно. Дискуссия, имеющая множество аспектов и заинтересованных сторон, касается того, должно ли быть разрешено искусственно интеллектуальным машинам выполнять такие военные миссии, особенно если есть вероятность, что на карту может быть поставлена любая человеческая жизнь.
Интеграция систем оружия AI в военные платформы имеет не только широкий спектр применений, но и многочисленные проблемы, как практические, так и этические. Платформы автономного оружия могут значительно сократить трудовые ресурсы, необходимые для выполнения множества задач. Это важно, учитывая, что некоторые из этих задач, таких как патрулирование и разминирование, являются исключительно грязными, трудоемкими или опасными. Системы автономного оружия могут выполнять ту же задачу, что и люди, но в более продолжительно и надежно. Они не имеют человеческих ограничений, таких как усталость и травмы. Кроме того, при размещении в боевой ситуации автономная система будет иметь возможность быстро анализировать данные и реагировать на них без человеческих ограничений, включая панику и травму.
Учитывая сложность этого вопроса, требуется рабочее определение Ai. Нет единого общепринятого определения, даже среди компьютерных ученых и инженеров, но общее определение Ai - это способность компьютерной системы выполнять задачи, которые обычно требуют человеческого интеллекта, такие как визуальное восприятие, распознавание речи и принятие решений. Однако это определение по своей сути упрощено, и вопрос, что составляет интеллектуальное поведение, также открыт для обсуждения.
Возможно, по этому определению умный дом является интеллектуальным, потому что он может воспринимать и регулировать температуру, освещение, электроэнергию и пр. Но это существенно отличается от Ai, при котором БПЛА выбирает и задействует цели без значимого человеческого контроля, что является общим предположением для автономного оружия.
Запрет автономной технологии для использования в военных целях может быть нецелесообразным, учитывая, что такие технологии могут быть доступны в коммерческом секторе. Кроме того, асимметричное развитие рынка коммерческой автономной системы, скорее всего, приведет к нехватке опыта для правительств и военных, что может привести к созданию скомпрометированных и небезопасных Ai систем, как полностью, так и полуавтономных.
В новом исследовании впервые обозначены рамки, объясняющие текущее состояние техники для Ai, сильные и слабые стороны Ai и то, что, вероятно, будет иметь большое будущее. Учитывая, что продвижение Ai неразрывно связано с опытом инженеров, разрабатывающих эти системы, делается вывод о том, что использования экспертных знаний военных инженеров в коммерческом секторе еще больше усложнит обсуждение политики автономного оружия и затруднит его использование.
Структура исследования демонстрирует, что, хотя компьютеры и Ai могут превосходить людей в решении некоторых задач, связанных с вычислениями, в ситуациях, требующих оценочных суждений и знаний, при наличии ситуации неопределенности, люди превосходят компьютеры.
Что касается будущего войны, поскольку она связана с Ai, нынешнее большое несоответствие в расходах на коммерческие и военные НИОКР на развитие автономных систем может оказывать каскадное влияние на типы и качество Ai, которые в конечном итоге включаются в военные системы. Одна из важных проблем в этом отношении заключается в том, будут ли оборонные компании иметь возможность разрабатывать и тестировать безопасные и контролируемые Ai-системы, особенно те, которые могут применять оружие.
Внедрение инновационных технологий без всестороннего тестирования может привести к неоправданному риску как военного персонала, так и гражданского населения.
Как думают роботы
Чтобы лучше понять нюансы Ai, важно сначала понять разницу между автоматизированной и автономной системой. Автоматизированная система - это та, в которой алгоритм объясняется ясной структурой "if-then-else" (если-тогда-иначе), основанной на определенных правилах, и делает это детерминировано, что означает, что для каждого входа выход системы всегда будет одним и тем же (за исключением случаев, когда что-то не получается).
Автономная система - это метод, который вероятностно задает набор входных данных, что означает, что он делает предположения о наилучших возможных вариантах действий при вводе данных с датчиков (сенсоров). В отличие от автоматизированных систем, при условии, что одни и те же входные автономные системы не обязательно будут производить одно и то же поведение каждый раз. Скорее, такие системы будут создавать диапазон поведения.
Человеческий интеллект обычно следует за последовательностью, известной как цикл обработки информации о восприятии-познании, поскольку люди воспринимают что-то в окружающем мире, думают о том, что делать, а затем, после того как они взвесили варианты, принимают решение. AI запрограммирован на то, чтобы сделать что-то подобное, поскольку компьютер воспринимает окружающий мир, а затем обрабатывает входящую информацию с помощью алгоритмов оптимизации и проверки, с выбором оптимального действия, подобному действию людей.
Хотя существует много параллелей между человеческим интеллектом и искусственным интеллектом, есть и серьезные различия.
Каждая автономная система, которая взаимодействует в динамической среде, должна создать модель мира и постоянно обновлять эту модель. Это означает, что мир должен восприниматься (или ощущаться через камеры, микрофоны и/или тактильные датчики), а затем восстанавливаться таким образом, чтобы «мозг» компьютера имел эффективную и обновленную модель мира, в котором он находится, прежде чем он сможет принять решение. Верность создания "модели мира" и своевременность ее обновлений являются ключом к эффективности автономной системы.
Например, автономная навигация БПЛА является относительно простой, поскольку "модель мира", в соответствии с которой она работает, состоит просто из карт, которые указывают предпочтительные маршруты, препятствия на высотах и бесполетные зоны. Радары дополняют эту модель в реальном времени, указывая, какие высоты не имеют препятствий. GPS-координаты передаются в БПЛА, где он должен идти, с общей целью плана GPS-координат.
Для сравнения, навигация для легковых автомобилей намного сложнее. Автомобили не только нуждаются в похожих картографических возможностях, но также должны понимать, где находятся все находящиеся поблизости транспортные средства, пешеходы и велосипедисты, и где все это будет в ближайшие несколько секунд. Беспилотные автомобили (и некоторые беспилотные летательные аппараты) делают это с помощью комбинации датчиков, таких как LIDAR (обнаружение света и дальность), традиционные радары и стереоскопическое компьютерное зрение. Таким образом, "модель мира" создаваемая для беспилотного автомобиля является более продвинутой, чем для типичного БПЛА, что отражает сложность операционной среды.
Будущее Ai в военных системах напрямую связано с способностью инженеров разрабатывать автономные системы, которые демонстрируют независимую способность к рассуждениям, основанным на знаниях и анализе. В настоящее время нет таких автономных систем. Большинство наземных роботов телеуправляются, что в основном означает, что человек по-прежнему непосредственно контролирует робота на некотором расстоянии, как будто через виртуальный удлинитель.
Большинство военных БПЛА лишь немного более изощренны: у них есть небольшая автономия, которая позволяет им перемещаться без вмешательства человека, но почти все требуют значительного вмешательства человека для выполнения своих задач. Даже те, что взлетают, летают над мишенью для захвата целей, а затем возвращаются домой, все еще работают на автоматическом, а не автономном уровне и не самостоятельно не принимают решения «на лету», как это делают настоящие автономные системы.
Учитывая нынешние масштабы коммерческого развития беспилотных летательных аппаратов и других роботизированных систем, существуют и другие важные соображения, такие как возможные скрытые последствия для компаний и стран, которые выводят технологии Ai на рынок - в отличие от государств, которые склонны придерживаться более консервативных подходов. Внедрение инновационных технологий без всестороннего исследования может привести к неоправданному риску как для военных, так и гражданского населения.
Хотя не вызывает сомнений, что Ai будет частью будущего вооруженных сил во всем мире, картина быстро меняется и потенциально разрушительно. Ai продвигается, но, учитывая существующие ограничения датчиков восприятия, могут пройти годы, прежде чем Ai сможет приблизиться к человеческому интеллекту в условиях высокой неопределенности.
Учитывая нынешнюю неспособность Ai к разуму в таких условиях с высокими рисками, вполне понятно, что многие люди хотят запретить автономное оружие, но сложность проблемы означает, что запрет должен быть тщательно продуман и описан. В принципе, например, определяет ли термин автономное оружие фактическое оружие - то есть ракета на беспилотном самолете? И как будут оцениваться такие технологии, возникающие на растущем коммерческом рынке, который, как ожидается, скажется на некоторых аспектах военного потенциала и, возможно, изменит общественное мнение?
Недавно сообщалось о том, что Агенство перспективных исследований США планирует создать новый алгоритм искусственного интеллекта максимально приближенный к человеческим возможностям. Естественно этот алгоритм создается в военных целях. Проект получил название L2M (Life Learning Machines — "Бесконечно обучаемые машины").
Сам по себе этот факт уже не может не вызывать определенного беспокойства. Но еще большее беспокойство вызывает техническое задание на создание этого AI. В частности продвинутый искусственный интеллект должен уметь самостоятельно принимать решения, обучаться во все время своего жизненного цикла, быстро принимать решения в зависимости от ситуации и использовать приобретенный опыт при планировании своих действий.
Многие исследователи и аналитики выражают озабоченность по поводу роли Ai в будущем ведении войн. Использование этих систем для поддержки и управленческих ролей - это одно, а другое - не человеческие комбатанты. В наше время обсуждаются потенциальные проблемы боевых Ai-машин. Роботы не могут решать два основных вопроса на поле боя. Один из них - способность различать друг и врага, что иногда трудно и людям-то делать во время современной войны. Другой вопрос - это пропорциональность применения силы. Это решение о соразмерности силы, которая считается разумной в данной боевой ситуации с учетом возможного нахождения гражданских лиц в местах боевых действий.
Спасибо, я наконец нашел чем людей убедить, что роботы не так страшны как их ваяют.
Ваш пост поддержали следующие Инвесторы Сообщества "Добрый кит":
ianboil, francisgrey, antino, dimarss, vasilisapor2, tnam0rken, karusel1, rubin, yuriks2000, vika-teplo, sterh, nerengot, foxycat
Поэтому я тоже проголосовал за него!
Узнать подробности о сообществе можно тут:
Разрешите представиться - Кит Добрый
Правила
Инструкция по внесению Инвестиционного взноса
Вы тоже можете стать Инвестором и поддержать проект!!!
Если Вы хотите отказаться от поддержки Доброго Кита, то ответьте на этот комментарий командой "!нехочу"