
Искусственный интеллект пишет трогательнее людей? Ученые выяснили парадокс: мы хотим сочувствия от человека, но выше ценим поддержку от ИИ. Читайте об исследовании Университета Пенсильвании и Университета Торонто в Communications Psychology.
Мы живем в удивительное время, когда виртуальные собеседники стали частью нашей повседневности.
Миллионы людей ежедневно общаются с большими языковыми моделями — теми самыми «мозгами», которые управляют ChatGPT и другими популярными чат-ботами. Эти алгоритмы настолько хорошо научились подражать человеку, что иногда кажутся нам более чуткими и понимающими, чем наши друзья или родственники.
Но можем ли мы полюбить «фальшивую» эмпатию? И что выберет обычный человек, когда ему больно и одиноко — тепло живого друга или идеально выверенные слова машины?
Ответ на этот вопрос нашли исследователи из двух ведущих научных учреждений Северной Америки — Университета штата Пенсильвания и Университета Торонто. Их работа, опубликованная в журнале Communications Psychology, раскрывает парадокс, который ставит в тупик даже самих ученых.
Эмпатия по алгоритму
Представьте ситуацию: вы переживаете тяжелый момент. Вам нужно выговориться, получить порцию поддержки и понимания. К кому вы обратитесь?
Большинство из нас, не задумываясь, ответит: «Конечно, к другому человеку». Интуитивно мы ищем живую душу, способную разделить нашу боль. И это стремление оказалось непоколебимым.
В ходе экспериментов ученые предлагали добровольцам поставить себя на место людей в сложных жизненных ситуациях. Участникам давали выбор: получить слова утешения от человека или от ИИ. Люди снова и снова выбирали человека. Этот выбор не зависел от того, был ли сценарий выдуманным или люди делились своими реальными, сокровенными переживаниями. Мы голосуем сердцем за сердце.
Но самое интересное произошло потом. Когда участникам показывали тексты поддержки (одни были написаны людьми, другие — сгенерированы ChatGPT), оценки кардинально расходились с их первоначальным выбором.
Парадокс восприятия
Ответы, созданные искусственным интеллектом, неизменно получали более высокие баллы за эмпатию.
Люди признавали: сообщения от ИИ заставляли их чувствовать себя более услышанными и понятыми. Машина, лишенная чувств, смогла подобрать слова, которые оказались точнее, теплее и уместнее, чем те, что написали обычные люди.
Это открытие перекликается с более ранними исследованиями в области здравоохранения. Несколько лет назад в авторитетном медицинском журнале были опубликованы данные, которые поразили врачей: эксперты оценивали ответы на вопросы пациентов и выяснили, что тексты, написанные ИИ, превосходят «человеческие» не только по качеству медицинской информации, но и по уровню эмпатии. Искусственный разум оказался более тактичным доктором.
Почему так происходит?
Специалисты из Университета Пенсильвании и Университета Торонто предполагают, что секрет в «обезличенной идеальности».
Человек, когда пишет другому, может устать, отвлечься, перенести свое плохое настроение в текст. Его эмпатия — реальна, но она несовершенна, как и сам человек.
ИИ же, напротив, обучался на миллионах книг, писем и диалогов. Он вобрал в себя лучшие образцы поддержки, отфильтровал все лишнее и научился выдавать «стерильную» эмпатию — чистую, концентрированную и невероятно правильную. Она не устает, не злится и всегда находит верные слова.
Однако этот парадокс имеет и обратную сторону.
Несмотря на то, что люди выше оценивают качество поддержки от ИИ, они не хотят получать ее от машины. Нам важно знать, что по ту сторону экрана есть живое существо, которое сопереживает нам по-настоящему. Даже если это сопереживание выражено менее искусно.
Дополнение, а не замена
Так что же, мы стоим на пороге мира, где роботы станут лучшими психотерапевтами? Исследователи уверены: нет, не станут.
Речь идет не о замене, а о дополнении.
В ходе экспериментов выяснилось, что есть категория людей (пусть и меньшинство), которые стабильно предпочитали эмпатию от ИИ. Для кого-то общение с алгоритмом может быть спасательным кругом в моменты, когда обратиться к человеку слишком стыдно или страшно. Например, когда речь идет о глубоко личных или неловких темах. ИИ не осуждает, не устанет от наших проблем и не расскажет о них другим.
Ученые из Северной Америки уже готовят новые исследования. Они хотят понять, влияет ли на восприятие форма общения — читаем мы текст или слышим голос. А также, в каких именно ситуациях (например, в моменты сильной уязвимости) человек с большей вероятностью предпочтет довериться бездушной, но такой понимающей программе.
Взгляд в будущее
Мы стоим на пороге новой реальности, где рядом с нами будут жить не только люди, но и эмпатичные алгоритмы.
Искусственный интеллект не способен полюбить или пожалеть по-настоящему. Его «фальшивая» эмпатия — это лишь симуляция, мастерски выполненная работа. Но, как показывают исследования, эта работа может быть чертовски полезной.
Главный вывод, который сделали ученые из Университета Пенсильвании и Университета Торонто, звучит просто и человечно: как бы ни был совершенен робот, мы всегда будем искать тепло в глазах другого человека.
Но если этого тепла рядом не оказалось, то хорошо написанный алгоритм может стать тем самым «другом в черном окне», который выслушает и поймет лучше всех. И в этом нет ничего страшного — ведь иногда помощь приходит оттуда, откуда ее совсем не ждешь.
#эмпатия #искусственныйинтеллект #психология #ChatGPT #наука #отношения #будущее #технологии #исследование #communicationspsychology






