Исследование: Эмоциональная зависимость от голосового ChatGPT наблюдается у активных пользователей, несмотря на функциональные взаимодействия

Согласно новому исследованию, проведенному OpenAI и MIT Media Lab, большинство пользователей ChatGPT применяют его в практических целях. Исследование указывает на то, что эмоциональные связи развиваются преимущественно среди небольшой группы активных пользователей голосовых функций.

Анализ почти 40 миллионов диалогов с ChatGPT показал, что недостаточно данных, подтверждающих, что пользователи ищут эмпатию или эмоциональную поддержку в своих взаимодействиях. Вместо этого большинство людей предпочитают практические обмены с искусственным интеллектом.

Команда исследователей применяла два различных метода для анализа взаимодействий с ChatGPT. OpenAI провела детальный автоматизированный анализ большого объема разговоров, сохранив при этом анонимность пользователей, без вмешательства человека. В то же время MIT Media Lab организовал исследование с участием около 1000 человек, чтобы понять их использование текстовых и голосовых функций.

Исследование MIT разбило пользователей на разные группы. Некоторые могли общаться лишь текстом, в то время как другие тестировали голосовые опции с рядом индивидуальностей AI — одна из которых была нацелена на эмоциональную вовлеченность, а другая оставалась нейтральной. Каждая группа получила задачи, такие как обмен личными воспоминаниями, обсуждение практических тем, например, финансов, или свободные обсуждения.

Хотя пользователи текстового общения в целом проявляли больше эмоциональных сигналов, данные показали тенденцию у активных пользователей расширенного голосового режима ChatGPT. Эта небольшая группа развила более глубокие эмоциональные связи с AI, чаще обращаясь к ChatGPT как к «другу».

Воздействие голосовой функции отличалось в зависимости от продолжительности взаимодействия. Краткие сессии вызывали положительные эмоции, тогда как длительное ежедневное использование нередко оказывало противоположный эффект. Личные беседы были связаны с повышенным уровнем одиночества, но при этом снижали эмоциональную зависимость.

Неперсонализированные разговоры продемонстрировали иную картину: пользователи, особенно при частом использовании, чувствовали более сильную эмоциональную зависимость. Это указывает на то, что даже при наличии в основном функциональных взаимодействий, у активных пользователей может возникнуть форма зависимости от AI.

Исследователи отметили, что люди, которые склонны к образованию глубоких эмоциональных привязанностей и воспринимают ChatGPT как друга, подвергались большему риску негативных последствий. Активные пользователи также имели повышенные риски, хотя исследователи не смогли установить четкую причинно-следственную связь.

Важно отметить, что исследование имеет свои ограничения. Оно не охватывает всей сложности взаимодействия между людьми и AI и сосредоточено на пользователях ChatGPT в США. Тем не менее, авторы исследования уверены, что их методы могут оказать поддержку в будущих изысканиях этой области.

Результаты подтверждают существующие данные о том, что люди способны формировать эмоциональные связи с AI, даже осознавая, что это не человек. Это, в свою очередь, объясняет, почему компании, занимающиеся разработкой AI, стараются минимизировать возможность того, чтобы их чат-боты воспринимались как сознательные существа — они хотят избежать юридической ответственности за возникающие романтические связи между людьми и машинами. Например, character.ai в настоящее время сталкивается с юридическими проблемами из-за утверждений о том, что его AI-персонажи нанесли ущерб детям.

[Источник](https://the-decoder.com/advanced-voice-feature-draws-heavy-chatgpt-users-into-emotional-bonds-study-finds/)