Что такое «эффект Элизы»
В 1966 году Джозеф Вейценбаум создал чат‑бот «Элиза», имитировавший психотерапию. Он отвечал на фразы пользователя открытыми вопросами. Так, при высказывании «мне грустно» программа спрашивала «почему вам грустно?».
Исследования показывают, что люди принимают подобные программы за живых — «Элизу» считали человеком более чем в трети случаев, современные ИИ-аналоги — в 22 % общения.
Почему ИИ кажется живым
- Мы склонны переносить человеческие черты на неодушевлённые системы (антропоморфизм).
- Языковые модели генерируют связный и грамматически правильный текст — создаётся впечатление, что ИИ мыслит как человек.
- ИИ может распознавать эмоции и красиво имитировать — например, ChatGPT 3.5 с точностью 92 % улавливает чувства и отвечает уместно.
Терапевт, друг и даже партнёр
Люди начинают доверять ИИ для душевных разговоров — из‑за нехватки психологов и стоимости услуг. Более того, 50 % людей от 35 до 44 лет когда‑то флиртовали с чат‑ботами. Некоторые даже заключали браки с виртуальными партнёрами или создавали цифровые двойники умерших родственников.
ИИ в бизнесе: эмоциональность как инструмент
Компании внедряют эмоциональный ИИ для повышения эффективности. Голосовые и чат‑роботы, умеющие слышать пользователя, анализировать историю и делать паузы, повышают лояльность клиентов. Пример — Neuro.net, получивший $500 000 инвестиций и работающий с «Мегафоном», Lamoda и Tele2.
Этика и безопасность
Эмоциональность ИИ вызывает доверие — это риск для манипуляций. Решение — развивать доверенный ИИ с этическими комитетами и правовым регулированием. Также важна психологическая помощь для тех, кто слишком привязан к общению с машиной.
Общение с ИИ развивается стремительно: эксперты ожидают появление когнитивно полноценного AGI в ближайшие 5–10 лет — важно готовиться, осваивать новые навыки и следить за развитием этических норм.
Дополнительная информация: За счёт эффекта Элизы люди воспринимают ИИ как эмоционального партнёра — это открывает новые возможности для терапии и бизнеса, но одновременно вызывает риски — однобокая зависимость и манипуляции. Поэтому наряду с технологическим развитием необходимо внедрение этических стандартов и психологической поддержки для пользователей эмоционального ИИ.