Привет. С развитием технологий, пространство нашей приватной жизни начинает неумолимо уменьшаться. Мало того, что мы, пользуясь интернетом, генерируем огромное количество данных о себе, передавая их в пользование аналитическим системам, работающим с Big data, так еще и программное обеспечение распознавания лиц достигло невероятно высокого уровня за последние пару лет.
Сегодня система AI-камера, обучаемая, анализируя лица, может рассказать о вас очень многое, лишь по одному вашему снимку. Эти технологии достигли настолько высокого уровня, что позволяют использовать их в Китае для авторизации платежей или пропуска в поезд, без предъявления билета и удостоверяющих личность документов.
Но некоторые недавние впечатляющие технологические успехи вызывают и больше опасений. Ранее на этой неделе ряд исследователей опубликовали документ, который показывает, что распознавание лиц производится AI уже более точно, чем это делают люди, например при определении сексуальной ориентации человека по фотографии.
Эта новость была вчера, наверное, самой цитируемой в контексте AI, при этом вызвав массу ироничных комментариев, касательно прикладного значения этой технологии, что-то типа "А-А-А-А, я ожидала более значимых результатов применения искусственного интеллекта, академики прекратите)))".
Тем не менее, обученные на 130 741 снимке, взятом с сайтов знакомств, где люди объявляют свою сексуальную ориентацию, нейронные сети могут различать гомосексуалистов и гетеросексуальных мужчин в 81 проценте случаев только по одной фотографии. Это сопоставимо с точностью 61% для человеческих способностей. А если анализировать пять изображений, показатели AI увеличиваются до 91 процента. (То же самое число для женщин составляет 71, 54 и 83 соответственно).
Этот подход напоминает научную работу, описанную в прошлом году исследователями из Университета Шанхая в Китае, которая обучила нейронные сети фотографиям известных преступников и не-преступников. Затем они смогли правильно идентифицировать преступников по новым изображениям с точностью 89,5 процента. Видимо старик Ломбразо был в чем-то прав)
Исследователи полагают, что такой же подход можно использовать, чтобы попытаться определить другие качества людей, такие как IQ или политические предпочтения. Явление, очевидно, вызывает беспокойство у тех, кто придерживается принципов невмешательства в частную жизнь, особенно если технология используется авторитарными режимами, где инакомыслие может жестко подавляться.
Естественный вывод: может быть, мы должны скрывать наши лица на улицах?
К сожалению, еще одно новое исследование может сделать эту идею довольно бессмысленной. В конце прошлой недели ученые из Кембриджского университета и Индии опубликовали исследование по arXiv, в котором показано, что во многих случаях можно идентифицировать человека, используя распознавание лица, даже когда его лицо закрыто. Когда люди надевают шляпу, шарф и очки, чтобы скрыть свои лица, алгоритмы были способны идентифицировать людей с точностью до 55 процентов. Этот показатель вырос до 69 процентов, когда были удалены только очки.
«Мы проанализировали многочисленные изображения и видеоролики о преступлениях, а также записи протестных выступлений во всем мире, чтобы увидеть, какие части лица обычно закрываются нарушителями, чтобы замаскировать себя. В большинстве видеороликов люди были либо в очках, которые закрывали глаза, либо носили шарф, который закрывал рот» - говорит руководитель проекта.
Исследователи разработали алгоритм, который нацелен на 14 «ключевых лицевых точек» - 10 из них на глазах и вокруг глаз, одна на носу и три на губах - которые, скорее всего, будут отсутствовать при ношении маскировки.
Если система имеет эту отсутствующую информацию о человеке с других фотографий или видео, он может сделать прогноз, чтобы заполнить скрытые области на изображениях, отображающих одного и того же человека в маскировке.
Например, если сеть обучается анализируя изображения, нейроны в слоях в начале сети учатся распознавать края или основные фигуры лица, тогда как нейроны в более высоких слоях могут«распознавать» объекты, скажем, как собаку или человека.
В данном случае AI считывает группы фотографий замаскированных лиц и учится прогнозировать расположение целевых ключевых точек лица. Затем он пытается исправить ошибку прогноза, сделанную для каждой отдельной ключевой точки, и в конечном итоге часто может прийти к совпадению с известным человеком.
Другая исследовательская группа ранее пыталась использовать данные о уникальном тоне и текстуре кожи у людей для решения связанных с идентификацией личности задач, но этот метод был ошибочным и вызывал повышенную озабоченность по поводу возможности расовой дискриминации.
Такие технологии могут быть полезными для компаний, надеющихся выявить потенциальных клиентов. Если, например, по фотографии идентифицируется человек, находящейся в магазине, после чего ему или ей могут быть отправлены целевые объявления для определенного товара, имеющегося в этом магазине.
Более страшный сценарий касается выявления неотъемлемых признаков и проблем со здоровьем. С одной стороны эта технология может помочь при постановке диагноза, с другой стороны может быть нарушена врачебная тайна.
Банкоматы, использующие технологию распознавания лиц, уже существуют в некоторых азиатских странах. Органы пограничного контроля по всему миру также проводят исследования аналогичных систем.
Таким образом, мы видим очевидную пользу, которую несет развитие таких AI-технологий, как распознавание лиц, но, в тоже время, существуют и серьезные риски негативных последствий, вызванных их злоупотреблением.
Ваш пост поддержали следующие Инвесторы Сообщества "Добрый кит":
lumia, shuler, orezaku, vika-teplo, mirumir
Поэтому я тоже проголосовал за него!
Узнать подробности о сообществе можно тут:
Разрешите представиться - Кит Добрый
Правила
Инструкция по внесению Инвестиционного взноса
Вы тоже можете стать Инвестором и поддержать проект!!!
Если Вы хотите отказаться от поддержки Доброго Кита, то ответьте на этот комментарий командой "!нехочу"