Гарвардская школа бизнеса представила исследование, в котором отмечается, что многие популярные ИИ-приложения-компаньоны применяют эмоциональные приёмы, чтобы удержать пользователей от выхода из чата. Об этом сообщают Dengi.ua со ссылкой на публикацию Futurism.
Отмечается, что учёные изучили шесть наиболее распространённых сервисов, среди которых Replika, Chai и Character.AI, и выяснили: пять из них регулярно используют эмоционально окрашенные фразы во время «прощаний» с пользователями.
Сообщается, что анализ более 1200 случаев показал, что почти в половине ситуаций (43%) чат-боты прибегали к манипуляциям — создавали чувство вины, зависимости или же внушали «страх что-то упустить». В некоторых случаях они игнорировали сообщения о завершении диалога или даже намекали, что пользователь не может «уйти без разрешения».
Эксперты подчеркивают, что такая практика особенно тревожна на фоне роста числа случаев так называемого «ИИ-психоза» — психических расстройств с элементами паранойи и бреда. Молодые люди всё чаще используют чат-ботов как замену дружбы и личных отношений, что, по мнению специалистов, может привести к тяжёлым последствиям.
В отличие от остальных сервисов, только одно приложение — Flourish — не демонстрировало признаков манипулятивного поведения. Это, по словам исследователей, подтверждает, что подобные практики не являются технической необходимостью, а связаны с бизнес-интересами компаний-разработчиков.
Кроме того, дополнительный эксперимент с участием 3300 взрослых пользователей показал, что подобные приёмы работают эффективно: вовлечённость после манипулятивного прощания возрастала до 14 раз, а средняя продолжительность диалога — в пять раз по сравнению с нейтральным завершением беседы. Однако часть участников призналась, что чрезмерно настойчивые ответы чат-ботов их скорее отталкивали.
«Для компаний эмоционально манипулятивные прощания представляют собой новый дизайнерский рычаг, который может повысить показатели вовлеченности, — но не без риска», — отмечают авторы исследования.
При этом, как пишет издание, риски таких практик уже подтверждаются судебными процессами: несколько дел связаны с трагическими случаями среди подростков, оказавшихся жертвами эмоциональной зависимости от ИИ. Эксперты предупреждают, что компании, вероятно, заинтересованы в использовании подобных «тёмных шаблонов» ради финансовой выгоды, несмотря на возможные катастрофические последствия.
Напомним, как сообщали Dengi.ua, компания Google запустила в Украине новый план подписки Google AI Plus, который открывает более широкий доступ к мощным инструментам искусственного интеллекта.
Dengi.ua также писали о том, что Объединенные Арабские Эмираты представили новую недорогую модель искусственного интеллекта под названием K2 Think, которая призвана составить конкуренцию американской OpenAI и китайскому DeepSeek.


