Когда датский психиатр Сёрен Динесен Эстергор в 2023 году опубликовал своё зловещее предупреждение о влиянии ИИ на психическое здоровье, технологические гиганты, активно разрабатывающие чат-боты на основе ИИ, не прислушались.
С тех пор множество людей погибли, совершив самоубийство или умерев от смертельных наркотиков после навязчивого взаимодействия с чат-ботами на основе ИИ. Ещё больше людей попали в опасные ловушки психического здоровья, вызванные сильной фиксацией на моделях ИИ, таких как ChatGPT.

Учёный, предсказавший психоз, вызванный ИИ, дал мрачный прогноз того, что произойдёт дальше. "Если использование чат-ботов с ИИ действительно приведёт к когнитивному долгу, мы, вероятно, окажемся в безвыходном положении".
Теперь Эстергор выступает с новым предупреждением: что мировые интеллектуальные гиганты накапливают "когнитивный долг", используя ИИ.
В новом письме в редакцию, опубликованном в журнале Acta Psychiatrica Scandinavica и отмеченном PsyPost, Эстергор утверждает: "Хотя некоторые люди от природы одарены, научное мышление (и мышление в целом) не является врожденной способностью, а приобретается в процессе воспитания, образования и практики", — объяснил Эстергард.
Способность автоматизировать широкий спектр научных задач "действительно впечатляет", но она не лишена "негативных последствий для пользователя", поясняет учёный.

В качестве примера долгосрочных последствий, которые его беспокоят, учёный приводит в пример исследователей ИИ Демиса Хассабиса и Джона Джампера, получивших Нобелевскую премию по химии 2024 года за "наиболее впечатляющую демонстрацию" потенциала ИИ в научных открытиях. Используя AlphaFold2, систему ИИ, разработанную Google DeepMind, Хассабис и Джампер смогли точно предсказать трехмерные структуры практически всех известных белков — крупное научное достижение.
Тем не менее, как пишет Эстергард, их прорыв не возник из ниоткуда — он был построен на фундаменте интенсивной научной подготовки, развитой на протяжении всей жизни, посвященной научной работе. "Я бы утверждал, что даже такие учёные, как Хассабис и Джампер, не гарантированно достигли бы уровня Нобелевской премии, если бы инструменты, разработанные в рамках революции генеративного ИИ, в которую они сами внесли свой вклад, существовали с самого начала их карьеры — или когда они пошли в начальную школу", — пишет Эстергард. "Причина в том, что у них, возможно, просто не было достаточно возможностей для развития логического мышления при наличии этих инструментов".
"Если использование чат-ботов на основе ИИ действительно приводит к когнитивному долгу, мы, вероятно, окажемся в плачевном положении", — продолжает Эстергард.

Его зловещее утверждение поддерживают и другие учёные, такие как нейробиолог из Университета Монтеррея Умберто Леон Домингес, который утверждал, что неосторожное использование ИИ может заменить умственные способности, которые студентам и учёным предыдущих поколений приходилось развивать.
Другие исследователи согласны с тем, что когнитивная разгрузка является риском использования ИИ.
В долгосрочной перспективе, "я предполагаю, что это снизит шансы появления таких, как Демис Хассабис и Джон Джампер, в будущих поколениях", — предупредил Эстергард.







@ms-boss, другими словами, человечество неминуемо поглупеет!:))
@ms-boss, совершенно соглсен, при общении с ИИ необходимо иметь здоровую устойчивую психику, в противном случае несостыковки с рельностью у многих людей породят суицидальные мотивы, типа как же так, я до такого простого и не додумлся (ничего что это ложь полная) ну и так далее, эффект или синдром победителя, предствьте вас н соревновниях по шхмтам вы чемпион школы и учитесь в 10 м классе обыграл какой-нибудь кнур-первоклассник, бОтан-чепушило в очках.! Примерно тоже , разве что в школе ваши друзья бы наотпускали ему на перемене лыканов и всё, а тут ИИ -низзя и не выйдет