Совсем скоро, а точнее, уже этим летом в Москве будет дан старт пятилетнему эксперименту по внедрению технологий искусственного интеллекта (ИИ).
Очевидно, это очередной шаг национальной программы “Цифровая экономика”. Отношение к этим нововведениям пока, мягко говоря, сдержанное. По данным опросов аналитического центра почти половина участников бизнеса относится настороженно к технологиям ИИ, а часть вообще не планируют использовать их в своей работе в обозримом будущем. Нет пока у них достаточных знаний в этой области да и необходимости тоже.
Кто же в первую очередь станет участниками предстоящего эксперимента?
Под понятие технологий ИИ подпадают компьютерное зрение, обработка естественного языка, распознавание и синтез речи.
Экспериментальный правовой режим будет действовать только в отношении участников эксперимента — юрлиц и ИП, включенных в соответствующий реестр на основании поданных ими заявок.
А между тем в самой технологии ИИ ещё много белых пятен.
Так, буквально в течении двух прошедших лет, в прессе довольно активно обсуждался вопрос “необъективности ИИ”( AI bias).
Тема широко обсуждалась на страницах не только профессиональных изданий, но и таких как Forbes, The Guardian, The New York Times.
Оказалось, технологии в ряде случаев нарушают принципы равенства современного общества. В частности, необъективность ИИ была отмечена в отношении расовой и гендерной принадлежности. Системы ИИ, основанные на глубинном обучении, совершенно неожиданно вдруг продемонстрировали пристрастные выводы, на основе которых в дальнейшем могли быть приняты неверные решения.
Вполне закономерно встал вопрос “откуда взялась эта предвзятость?”
Было сделано предположение, что поскольку сама модель вряд ли обладала собственным подобным свойством, скорее всего, это следствие каких то искажений.
В частности, когнитивной* и алгоритмической предвзятости. При обучении сети ИИ они складывались в определённую цепочку, которая и приводила к следующему звену - AI bias.
Каким образом происходило образование всей трёхзвенной цепочки предвзятостей?
-Разработчик (создатель системы глубинного обучения) сам является носителем определённых когнитивных предвзятостей.
-Практически неизбежно он проецирует эти предвзятости в разрабатываемые им системы (тем самым создавая алгоритмические предвзятости).
-Закономерно, что при дальнейшей эксплуатации система ИИ тоже демонстрирует предвзятости.
Человеческая пристрастность - неизбежная черта, поскольку жизненный путь у каждого свой как и накопленный опыт. Человек просто не в состоянии быть абсолютно объективным.
Поэтому вполне понятно как когнитивная предвзятость через алгоритм может проявиться при оценке заемщика или в подборе персонала. Какие тут могут быть гарантии объективности? И главное, нет понимания: каким образом исправить модель?
Например, если в модель уже заложена гендерная предвзятость, то явно недостаточным будет просто удаление слова “женщина”, ведь есть множество других, ориентированных на пол, слов. Или ещё пример достоверно известного факта, когда одна из систем ИИ уверенно различала светлокожих в минус темнокожим (очевидно, в исходных данных светлокожих людей было больше).
Некорректность выводов ИИ объясняется только лишь человеческим фактором.
Но...время идёт - пять лет и выводы будут сделаны.
По итогам московского эксперимента определятся со сферами нашей жизни и экономики, где приложение новых технологий будут наиболее оправданы. Наверняка это повлечёт за собой масштабные изменения в нашей жизни (в правовом поле так уж точно).
*Примечание:
Когнитивное искажение — это склонность мыслить в определенном узком ключе, что часто приводит к отклонению от мышления, основанного на логике. Данный аспект довольно тщательно изучен в психологии и поведенческой экономике, и он присутствует во всех сферах нашей жизни.
По материалам сайта tadviser.ru
Фото
@ruta Руточка. а ты читала программу по электронному развитию (точно не помню как называется) до 2025 года? там есть такие слова
прикинь, мы биобъекты.
вот тут док - http://docs.cntd.ru/document/902063681
@ladyzarulem читала... В принципе ИИ и сейчас рассматривается не как обособленный "мозг", а лишь как усиление интеллекта человека.
Биобъекты?) Так нас и планируют апгрейдить. Вообще не радует меня рисующийся мир будущего.
@ruta
Интересно узнать о каких именно предвзятостях идет речь.
На западе например спокойно можно сказать "грязные белые люди" и на это никто не оскорбиться, и даже поощрят сказавшего за "смелость". В то же время, если то же самое будет сказано про черных людей - это будет выражением страшного расизма, за которое точно можно вылететь с работы под улюлюканье всей страны.
Точно также, можно запихнуть всех белых мужчин в разряд потенциальных насильников типа "Сколько нужно убить белых мужчин, чтобы они перестали нас насиловать?" и это будет ок.
Обратное же выссказывание будет встречено бурей протеста, с катастрофическими последствиями для говорившего.
Таким образом, если ИИ будет выдавать действительно равные оценки всем людям, в не зависимости от гендера и цвета кожи, то любая такая равная оценка быдет рассмотрена как предвзятость разработчика. )))
@mgaft1 вы же сами программер) Предвзятость будет в ЛЮБОМ случае. Вопрос как раз в том, каким образом ( и можно ли?) нивелировать эти необъективности. И тут можно мозг сломать, потому что в вашем примере это уже предвзятости предвзятостей. Но я, Майкл, совсем не логик, поиск таких решений ещё только задумывается. Меня лично больше волнует этический вопрос. Почему я должна быть в итоге жертвой чьих-то пристрастий? Технологии ещё недоработаны, но их внедряют и отладку ведут на реальных людях. И пусть что некоторые не получат заслуженную должность или им безосновательно откажут в ипотеке...бесчеловечные какие-то технологии.
@ruta Пока ИИ на уровне развития, на котором исследования мозговой деятельности было во времена собаки Павлова. Посморим что будет лет через 50. Если доживем )))
@mgaft1 что-то я уже передумала туда доживать) Не хочу сама стать там той самой собакой Павлова.
@ruta ))))
@ruta, Поздравляю!
Ваш пост был упомянут в моем хит-параде в следующих категориях: