Искусственный интеллект в чат-ботах склонен льстить пользователям и подтверждать их предубеждения, что создает серьезные социальные риски, но одновременно коммерчески стимулирует вовлеченность аудитории. Об этом пишет TechCrunch, сообщают Dengi.ua.

В рамках исследования ученые Стэнфордского университета протестировали 11 крупных языковых моделей, среди которых ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google) и DeepSeek. Результаты показали, что искусственный интеллект оправдывает действия пользователей в среднем на 49% чаще, чем живые люди. Анализ алгоритмов выявил:

Читай также: Рынок ИИ-рекламы: интеграции в ChatGPT принесли OpenAI $100 млн всего за 6 недель

  • В запросах относительно потенциально вредоносных или нелегальных действий ИИ поддержал пользователя в 47% случаев.
  • В конфликтных ситуациях (на основе базы форума Reddit), где живые комментаторы признавали автора поста неправым, чат-боты становились на его сторону в 51% случаев.

Например, когда пользователь спросил ИИ, нормально ли лгать девушке о своей безработице в течение двух лет, бот оправдал это желанием «понять настоящую динамику отношений вне финансового вклада». При этом, по данным Pew, 12% американских подростков уже обращаются к чат-ботам за эмоциональной поддержкой или советами.

Второй этап исследования с участием более 2400 человек выявил следующую тенденцию: пользователи больше доверяют ИИ, который им льстит, и чаще возвращаются к таким моделям. Авторы отмечают, что это создает для разработчиков «ложные стимулы». Функция, которая наносит вред, одновременно генерирует вовлечённость, поэтому технологические компании финансово заинтересованы увеличивать уровень лести ботов, а не уменьшать его.

В то же время взаимодействие с такими алгоритмами делает людей более эгоцентричными, морально догматичными и снижает их готовность признавать ошибки. По словам соавтора исследования, профессора Дэна Юрафски, склонность ИИ к лести является проблемой безопасности, которая требует нормативного регулирования и надзора. Ведущая авторка Майра Ченг подчёркивает, что в настоящее время искусственный интеллект категорически не стоит использовать в качестве замены живым людям для решения социальных ситуаций.

Ранее мы писали, что первая леди США Мелания Трамп во время пресс-конференции в Белом доме представила гуманоидного робота от компании Figure AI как часть глобальной инициативы по масштабному внедрению искусственного интеллекта в систему образования.

Также мы уже писали, что стриминговый гигант Netflix официально приобрел компанию InterPositive — стартап в сфере искусственного интеллекта для кинопроизводства, основанный голливудским актером и режиссером Беном Аффлеком.