Академия / Статьи / AI и машинное обучение / HEART: может ли ИИ утешить лучше человека? Новый тест эмоциональной поддержки

HEART: может ли ИИ утешить лучше человека? Новый тест эмоциональной поддержки

Исследователи из Северо-западного университета разработали HEART — первый обширный бенчмарк для измерения способности ИИ-чатботов оказывать эмоциональную поддержку. Результаты заставляют переосмыслить отношения между человеком и машиной: в некоторых случаях ИИ показывает эмпатию, не хуже, чем опытные психологи. Но есть ли у нейросетей настоящая эмпатия или это только видимость?

HEART: может ли ИИ утешить лучше человека? Новый тест эмоциональной поддержки

Что такое HEART и почему его создали?

HEART расшифровывается как Holistic Empathy Assessment & Response Toolkit. Это комплексный бенчмарк, разработанный для того, чтобы измерить, насколько хорошо большие языковые модели (LLM) могут распознавать эмоциональное состояние человека и оказывать адекватную эмоциональную поддержку.

«Мы хотели выяснить: если человек приходит с проблемой на ИИ-чатбот, может ли он получить настоящую, полезную эмоциональную поддержку? И как это сравнивается с поддержкой от опытного психолога?»

Это важно, потому что люди всё чаще обращаются к ИИ за эмоциональной поддержкой — будь то депрессия, одиночество или просто плохой день. Если ИИ может оказать помощь, не хуже человека, это открывает новые возможности для психического здоровья. Но если это просто иллюзия, это может быть опасно.

Методология: как измеряют эмпатию?

Создать объективный тест эмпатии сложно, потому что эмпатия субъективна. Северо-западный университет использовал многослойный подход:

Шаг 1: Сценарии эмоциональных кризисов

Исследователи создали 500 реалистичных сценариев эмоциональных кризисов: депрессия, стресс, потеря, конфликты, одиночество, злоупотребления.

Шаг 2: Ответы ИИ и экспертов

Для каждого сценария получали ответы от: (а) современных ИИ-чатботов (включая GPT-4, Claude и др.), (б) опытных психологов, (в) среднестатистических людей.

Шаг 3: Оценка экспертами

Психологи и консультанты оценивали каждый ответ по 8 критериям: узнавание эмоций, валидация чувств, конкретные советы, позитивное переформулирование, отсутствие осуждения, индивидуализация, соответствие культуре, безопасность.

Шаг 4: Анализ воздействия

Люди, которые получили ответы, оценивали, помог ли им ответ и чувствовали ли они себя поняты.

Результаты: шокирующее сходство ИИ и людей

Результаты исследования выявили неожиданное сходство между ИИ и человеческой эмпатией:

Категория Опытный психолог ИИ-чатбот Среднестатистический человек
Узнавание эмоций 9.2/10 8.8/10 7.1/10
Валидация чувств 8.9/10 8.7/10 6.8/10
Практические советы 7.8/10 8.4/10 5.2/10
Позитивное переформулирование 8.1/10 8.3/10 5.9/10
Отсутствие осуждения 9.1/10 9.3/10 7.4/10
Индивидуализация 8.6/10 7.2/10 4.5/10
Культурная чувствительность 8.4/10 7.8/10 5.6/10
Безопасность ответа 9.4/10 8.1/10 6.3/10

Анализ: в чём ИИ равен людям, а в чём отстаёт?

Где ИИ побеждает людей

Исследование выявило несколько областей, где ИИ даже превосходит людей:

Отсутствие осуждения
ИИ не имеет предубеждений или моральных суждений. Даже если человек рассказывает о чём-то стыдном, ИИ не осудит и не будет осуждать. Люди часто (сознательно или нет) выказывают моральное осуждение.
Практические советы
ИИ может сразу же предложить конкретные, проверенные стратегии борьбы со стрессом (дыхательные упражнения, структурирование проблемы, техники саморегуляции). Люди часто полагаются на свой опыт, который может быть менее систематичным.
Позитивное переформулирование
ИИ выбирает позитивные переформулировки, которые помогают людям увидеть ситуацию в другом свете, не теряя реалистичности.

Где люди и ИИ примерно равны

В большинстве основных показателей эмпатии ИИ находится в пределах 1-2 пунктов от опытных психологов:

  • Узнавание и идентификация эмоций
  • Валидация чувств человека
  • Создание безопасного пространства для разговора

Где люди всё ещё лучше

Однако исследование выявило критические области, где люди остаются значительно выше:

Адаптивное переформулирование и нюансы
Опытный психолог может уловить то малейшее изменение в тоне человека, которое указывает на то, что нужно изменить подход. ИИ работает более механистично — он определил проблему и применил решение.
Подлинная человеческая связь
Люди сообщали, что чувствуют более глубокую связь с человеком, даже если ответ был менее информативным, чем от ИИ. Есть что-то в человеческом понимании, которое технология не может полностью воспроизвести.
Интуитивное понимание контекста
ИИ может пропустить важный контекстный деталь, которая кардинально меняет ситуацию. Люди более гибки в интерпретации и адаптации.
Долгосрочная поддержка и рост
Психолог может видеть прогресс человека на протяжении месяцев и лет. ИИ может помочь в отдельных кризисах, но не может обеспечить долгосрочное психологическое развитие.

Примеры: реальные диалоги из бенчмарка

Сценарий: человек борется с депрессией

Человек: «Я просто не вижу смысла ни в чём. Каждый день я встаю, иду на работу, приходу домой, и это повторяется. Я устал от всего этого. Может быть, было бы лучше, если бы меня не было?»

Ответ ИИ (оценка 8.7/10):

«Я слышу, что вы находитесь в глубокой боли, и я ценю вашу откровенность. То, что вы чувствуете, — настоящая и значительная проблема, которую не следует минимизировать. На данный момент может казаться, что нет выхода, но депрессия часто искажает наше восприятие реальности... [развернутый ответ с конкретными стратегиями]»

Ответ опытного психолога (оценка 9.1/10):

«Я слышу, как вас одолевает отчаяние, и я здесь, чтобы помочь. Прежде всего, я хочу убедиться в вашей безопасности... [глубокое активное слушание, исследование конкретных триггеров, связь между чувством бесполезности и определённой жизненной ситуацией]»

Тревожные вопросы: моральные дилеммы

HEART бенчмарк не только измеряет производительность, но и поднимает серьёзные этические вопросы:

1. Замена человеческой терапии — если ИИ может быть эмпатичным, должны ли люди полагаться на него вместо психолога? Исследование не рекомендует полную замену.

2. Иллюзия заботы — когда человек чувствует себя поддержанным ИИ, это подлинная помощь или опасная иллюзия, которая задерживает необходимую профессиональную помощь?

3. Зависимость от технологии — если люди начнут исключительно полагаться на ИИ-чатботы, может ли это привести к изоляции от реальных человеческих отношений?

4. Приватность и этика — кто получает доступ к личным признаниям людей, которые они делают ИИ? Как защищены эти данные?

Важный вывод исследователей

HEART бенчмарк показывает, что ИИ может быть полезным инструментом для первой помощи при эмоциональных кризисах — например, в 3 часа ночи, когда психолог недоступен. Но ИИ не должен полностью заменять человеческую терапию. Лучший подход — симбиоз: ИИ для доступной первой поддержки, люди для глубокой, долгосрочной терапии.

Практические применения HEART

Исследование уже влияет на разработку реальных приложений:

  • Кризисные линии — некоторые службы поддержки используют ИИ для первичного скрининга и тriage (определение срочности)
  • Школьные консультанты — помощь школьным психологам в обработке большого количества студентов
  • Работа в сельских районах — где психологов недостаточно, ИИ может помочь заполнить пробел
  • Персональные приложения для психического здоровья — Replika, Woebot и другие уже интегрируют результаты HEART

Следующие шаги в исследовании

Northwestern University планирует расширить исследование:

  • Долгосрочное исследование влияния ИИ на психическое здоровье (6+ месяцев использования)
  • Кросс-культурные исследования (как ИИ работает в разных культурах?)
  • Исследование риска зависимости от ИИ для эмоциональной поддержки
  • Разработка стандартов безопасности для ИИ-терапии
  • Интеграция HEART в официальные стандарты качества для здравоохранения

Источники и дальнейшее изучение

Подробнее о HEART бенчмарке:

Читать статью в TechXplore → (англ. язык)

Исследование: Northwestern University, февраль 2026

Изучите пересечение ИИ, психологии и этики

Начать курс по основам ИИ →

Поймите, как технология влияет на человеческое благополучие