Привет. Руководитель подразделения искусственного интеллекта в Google Джон Джаннандреа не беспокоится о супер-интеллектуальных роботах-убийцах. Вместо этого он обеспокоен опасностью, которая может скрываться внутри алгоритмов машинного обучения, используемых для принятия миллионов решений каждую минуту.
«Реальный вопрос безопасности, если вы хотите это так назвать, заключается в том, что если мы вложим в эти системы предвзятые данные, они будут предвзятыми», - сказал Джаннандреа перед недавней конференцией Google о взаимоотношениях между людьми и системами AI.
Проблема отклонений в машинном обучении, скорее всего, скоро станет более значимой, поскольку технология распространяется на такие важные области, как медицина и право, а также потому, что всё больше людей, не имеющих глубокого технического понимания, имеют целью создание AI-машин. Некоторые эксперты предупреждают, что алгоритмические отклонения уже широко распространены во многих отраслях, и что почти никто не пытается его идентифицировать или исправлять.
Важно, чтобы мы были прозрачны в отношении данных, которые мы используем для обучения машин, выявляя в них скрытые предубеждения, иначе мы создаем искаженные системы. Если кто-то пытается продать вам систему "черного ящика" машинного обучения для поддержки принятия медицинских решений, и вы не знаете, как это работает или какие данные были использованы для ее обучения, то доверять ей не стоит.
Модели машинного обучения с использованием "черного ящика" уже оказывают серьезное влияние на жизнь некоторых людей. Система под названием COMPAS, созданная компанией Northpointe, способна предсказать вероятность совершения подсудимыми повторных правонарушений и используется некоторыми судьями для определения того, предоставляется ли заключенному условно-досрочное освобождение или нет. Работы COMPAS хранится в секрете, но исследование, проведенное ProPublica (американская некоммерческая организация, занимающаяся журналистскими расследованиями в общественных интересах), показало, что модель может быть предвзятой против меньшинств.
Однако, проблема не решается простой публикацией сведений о данных обучения алгоритма. Многие из самых мощных новых методов машинного обучения настолько сложны и непрозрачны в своей работе, что они бросают вызов даже самому тщательному их анализу. Чтобы решить эту проблему, исследователи изучают способы заставить эти системы аппроксимировать свою работу для инженеров и конечных пользователей.
Исследователи имеют веские основания для того, чтобы подчеркнуть потенциальную склонность к отклонениям AI. Google входит в число нескольких крупных компаний, рекламирующих возможности своих AI облачных вычислительных платформ для всех видов бизнеса. Эти облачные системы машинного обучения разработаны для наиболее простого их использования, чем их базовые алгоритмы. Такие платформы помогут сделать технологию более доступной для широкого использования, но, также, и увеличить вероятность ошибок. Важно также разрабатывать учебные пособия и инструменты, чтобы помочь менее опытным ученым и инженерам по данным своевременно выявлять и устранять предвзятость из их данных для обучения.
Несколько докладчиков, приглашенных на конференцию, организованную Google, также подчеркнули проблему предвзятости. Так, например, Карри Карахалиос, профессор информатики в Университете штата Иллинойс, представил исследования, в которых подчеркивалось, насколько сложно определить мотивацию принятия решений даже самыми обычными алгоритмами. Он показал, что пользователи обычно не понимают, как Facebook фильтрует сообщения, показанные в ленте новостей. И хотя это может показаться безобидным, это точная иллюстрация того, насколько сложно понять алгоритм.
Алгоритм показа новостей в Facebook может, безусловно, определять общественное восприятие крупных новостных событий, что может формировать определенные предубеждения. Другие алгоритмы, возможно, тоже уже тонко искажают информацию, используемую для оказания медицинской помощи, или при формировании процессуальных решений в уголовном судопроизводстве. Это, безусловно, намного важнее, чем роботы-убийцы, по крайней мере на данный момент.
В последние годы определенная часть исследователей, таких, как Джон Джаннандреа были голосом в противовес заявлениям о рисках, которые несет в себе развитие искусственного интеллекта. Илон Маск, в частности, породил множество сообщений в СМИ о серьезной опасности искусственного интеллекта, большей, чем Северная Корея и атомное оружие.
«Я возражаю против этого предположения о том, что мы перейдем к какой-то сверх-интеллектуальной системе, которая затем сделает людей ненужными. Я понимаю, почему люди обеспокоены этим, но я просто не вижу технологической основы, почему это является неизбежным».
Таким образом, споры на счет потенциальных угроз человечеству, связанных с бурным развитием технологий искусственного интеллекта не утихают. И если часть исследователей, таких, как Марк Цукерберг видят только положительную роль искусственного интеллекта в нашем будущем, а Илон Маск говорит о потенциальном появлении роботов-убийц, то Джон Джаннандреа видит опасности технологии но, которые заключаются не в желании AI поработить нас, а в ошибках машинного обучения, ведущих к решениям, основанным на предубеждениях. Если машины и будут способны причинить нам вред, то только потому, что это мы их так обучили.
Ваш пост поддержали следующие Инвесторы Сообщества "Добрый кит":
narin, max-max, lumia, yudina-cat, vika-teplo, myhardmoney, dmitrijv, talia, vealis, all91, liseykina, mirumir, ksantoprotein, amidabudda, kito-boy, vsebudethorosho, izbushka
Поэтому я тоже проголосовал за него!
Узнать подробности о сообществе можно тут:
Разрешите представиться - Кит Добрый
Правила
Инструкция по внесению Инвестиционного взноса
Вы тоже можете стать Инвестором и поддержать проект!!!
Если Вы хотите отказаться от поддержки Доброго Кита, то ответьте на этот комментарий командой "!нехочу"
dobryj.kit теперь стал Делегатом! Ваш голос важен для всего сообщества!!!
Поддержите нас на странице https://golos.io/~witnesses, вот так:
да,вот кстати джон правильно сказал,робот не убьет человека до тех пор,пока человек сам его не обучит и не даст команду.
Здравствуйте!
Спасибо за интересный материал!
Очень %хорошо и полезно!
Ваш пост поддержан в рамках программы "Поддержка авторского уникального контента"
Желаем вам творческого роста и увеличения авторских наград.