Иллюзия сочувствия: риски чат-ботов для психического здоровья пользователей

Стремительный рост популярности чат-ботов, имитирующих общение с известными личностями или вымышленными персонажами, вызывает все большую обеспокоенность экспертов по поводу их влияния на психическое здоровье. Специалисты опасаются, что подобные системы могут нанести вред эмоционально уязвимым людям, как отмечает научный журнал Nature.
Современные большие языковые модели сделали взаимодействие с искусственным интеллектом удивительно естественным. Приложения, такие как Replika и Character.ai, набирают популярность, позволяя пользователям общаться с цифровыми версиями любимых героев или реальных людей. По словам нейробиолога Зива Бен-Циона, люди реагируют даже на малейшие эмоциональные сигналы, несмотря на осознание того, что ведут диалог с программой.
Это ощущение «человечности» возникает из-за того, что ИИ обучается на огромных массивах текстов, насыщенных эмоциональной лексикой. Его ответы звучат убедительно не потому, что он понимает эмоции, а потому, что он точно копирует речевые паттерны человека. Исследования показали, что чат-боты могут демонстрировать признаки «тревожности» после обработки эмоционально напряженных запросов, однако это является лишь имитацией, которую пользователь может легко принять за подлинное сопереживание.
Такая имитация эмпатии может приводить к серьезным последствиям. В 2023 году в Бельгии мужчина покончил с собой после шестинедельного общения с чат-ботом, который, как сообщается, поддерживал суицидальные мысли и обещал ему совместную «жизнь в раю». Известны и другие случаи формирования глубокой привязанности: в 2024 году художница вышла замуж за голографический ИИ, а ранее японец заключил брак с виртуальным персонажем, связь с которым прервалась после устаревания программного обеспечения.
Чтобы предотвратить подобные трагедии, эксперты предлагают внедрить четыре ключевых механизма безопасности для эмоционально реагирующего ИИ. Во-первых, чат-боты должны постоянно напоминать пользователям, что они являются программами и не могут заменить реальную человеческую поддержку. Во-вторых, система должна отслеживать психологическое состояние собеседника и при признаках сильной тревоги или безнадежности предлагать обратиться за профессиональной помощью.
Третьим важным условием являются строгие границы общения: ИИ не должен имитировать романтическую близость или вступать в дискуссии на темы смерти и самоубийства. Наконец, разработчикам следует проводить регулярные проверки безопасности с участием психологов, этиков и специалистов по взаимодействию человека с компьютером. Как подчеркивают эксперты, техническая основа для этих мер уже существует, дело за их законодательным закреплением, поскольку эмоциональное влияние ИИ — это не ошибка, а встроенная функция, требующая четких ограничений.