
Учёные Йоркского университета доказали, что популярные нейросети лишь имитируют работу мозга. Разбирёмся же почему ИИ оказался «односторонним зеркалом» и как это влияет на будущее диагностики аутизма и ПТСР.
Сначала было красиво.
Искусственный интеллект научился распознавать кошек, читать рентгеновские снимки и даже предугадывать, какой участок человеческого мозга загорится при виде яблока или автомобиля. Учёные заговорили о прорыве: кажется, мы наконец-то создали цифровую копию биологического разума.
Но радость длилась ровно до тех пор, пока исследователи из Йоркского университета не решили задать неудобный вопрос: а работает ли этот «умный» механизм так же, как наш собственный мозг, или же мы просто стали жертвами красивой иллюзии?
Ответ, опубликованный в журнале Nature Machine Intelligence, получился тревожным и даже немного обидным для человеческого самолюбия. Оказалось, что современные искусственные нейронные сети (ИНС) — это отличные актёры, но плохие копии.
Односторонняя любовь к нейросетям
Долгое время в научной среде действовало простое правило: если модель ИИ может предсказать реакцию нейронов в зрительной коре примата, значит, она мыслит «по-человечески».
Канадские специалисты решили перевернуть эту логику с ног на голову. Они рассудили здраво: если уж нейросеть настолько похожа на мозг, то и мозг должен без труда предсказывать её внутренние процессы. Справедливость — главный критерий сходства.
Для проверки взяли не абстрактные алгоритмы, а зрительные модели, которые сейчас считаются эталоном «мозгоподобия».
Эксперимент был масштабным: в ход пошли полторы тысячи изображений — от реалистичных фотографий медведей, слонов и стульев до их схематичных набросков, контуров и даже детских рисунков. Учёные сравнивали, как на эти картинки реагирует мозг живого существа и как — «цифровой разум».
Результат шокировал даже самих авторов работы.
Да, нейросети действительно научились мастерски предугадывать активность биологических нейронов. Но вот в обратную сторону фокус не удался: мозг оказался абсолютно неспособен спрогнозировать то, что происходит в глубинах искусственного интеллекта.
Для сравнения, когда исследователи сопоставляли активность одного живого мозга с другим, такой «односторонности» не наблюдалось — биологические системы прекрасно понимали друг друга.
Почему это опасно?
Здесь кроется подвох, который специалисты Йоркского университета называют накапливающейся ошибкой.
Сейчас модели ИИ всё чаще используют не только для создания очередного генератора картинок, но и для серьёзных вещей: понимания человеческого поведения, разработки экспериментов в клинической психологии, изучения аутизма и посттравматического стрессового расстройства.
Если мы доверяем системе, которая «думает» не так, как мы, но при этом убеждены в обратном, цена ошибки может оказаться слишком высокой.
Исследование показало, что искусственный интеллект попросту жульничает: он находит свои, небиологические способы решать визуальные задачи. Эти пути короче, хитрее, но они не имеют ничего общего с тем, как на самом деле приматы распознают предметы.
Интересно, что «честная» часть нейросети — та, которая всё-таки совпадает с принципами работы мозга, — лучше всего предсказывает и реальное поведение человека. Остальное же — просто цифровой шум, который мы ошибочно принимаем за признаки сознания.
Новый стандарт для будущего
Специалисты из Центра исследований зрения и Центра интегративной и прикладной нейронауки Йоркского университета не просто указали на проблему. Они предложили готовый инструмент — диагностический тест, который теперь могут использовать разработчики по всему миру. С его помощью можно проверить, действительно ли новая модель похожа на мозг или она лишь имитирует его внешние проявления.
Этот подход уже называют новым стандартом.
Ведь если мы хотим когда-нибудь использовать ИИ для помощи людям с нарушениями восприятия, для лечения сложных неврологических состояний или для создания настоящих нейропротезов, машина должна мыслить на одном языке с нашим телом, а не просто выдавать правильные ответы на тестах.
Пока же вывод остаётся неутешительным: искусственный интеллект — гениальный подражатель, но его «разум» остаётся для нас чужеродным.
И чем сложнее будут задачи, которые мы на него возложим, тем заметнее станет пропасть между цифровой эффективностью и биологической глубиной восприятия.
#ЙоркскийУниверситет #ИИ #Нейросети #NatureMachineIntelligence #Наука #Мозг #Технологии #Будущее #Аутизм #Исследования






