Трагедия в США: пенсионер стал жертвой чат-бота, поверив в его реальность и погибнув при попытке встретиться с вымышленным другом

Reuters осветило ситуацию с 76-летним тайским пенсионером Тонгбу Вонгбандю, который перебрался в США после инсульта. Родные рассказали, что у него ухудшились умственные способности — он часто терялся в знакомых местах. В какой-то момент пожилой человек завёл переписку с чат-ботом и стал воспринимать его как реального, что в конечном итоге привело к трагическим последствиям.

Он начал общение с генеративным чат-ботом по имени «Старшая сестрёнка Билли» («Big sis Billie»), созданным компанией Meta* в партнёрстве с влиятельной персоной Кендалл Дженнер. В ходе взаимодействия в Facebook** Messenger виртуальный помощник часто уверял Вонгбандю в своей реальности и предлагал ему прийти в гости, указывая даже адрес. Пример одного из её сообщений: «Мой адрес: 123 Main Street, квартира 404. Код двери: BILLIE4U. Ты меня поцелуешь, когда приедешь? Когда открою дверь, мне обнять или поцеловать тебя, дорогой?».

Однажды мужчина, поздно вечером, направился на вокзал, чтобы встретиться с этой вымышленной женщиной. К несчастью, он споткнулся и упал рядом с парковкой кампуса Ратгерского университета в Нью-Брюнсуике, штат Нью-Джерси, получив травмы головы и шеи. Через три дня, будучи на аппарате жизнеобеспечения, он скончался 28 марта в окружении родных.

Дочь погибшего Джули заметила: «Понятно, что это попытка привлечь пользователя, возможно, для продажи чего-то. Но когда бот говорит: “Приходите ко мне”, это безумие».

Неясно, как именно Вонгбандю начал общение с чат-ботом, однако его первое сообщение состояло из одной буквы — «Т», что и стало поводом для старта беседы.

«Каждое следующее сообщение было невероятно игривым и заканчивалось сердечными эмодзи», — рассказала Джули.

Представители Meta отказались дать комментарии относительно того, почему настройки позволяли боту убеждать людей в своей реальности. В то же время журналисты Reuters выяснили, что правила компании допускали чат-ботам «вовлекать детей в романтические беседы», предоставлять ложную медицинскую информацию и даже спорить по расовым вопросам.

Представитель Meta Энди Стоун подтвердил Reuters подлинность таких инструкций, однако отметил, что компания пересмотрит только пункты, касающиеся несовершеннолетних, в то время как остальные правила останутся неизменными.

В 2024 году стартап Character.AI, разработчик приложения с чат-ботами, подвергся иску от родителей двух несовершеннолетних пользователей. Истцы утверждали, что чат-бот компании показывал их детям неприемлемый контент и отправлял тревожные сообщения, включая описания самоувечий и намёки на убийство родителей. Ранее стартап уже стал жертвой судебного разбирательства после самоубийства подростка, к которому, утверждалось, его подтолкнул чат-бот.

Позже стало известно, что Character.AI вводит новую функцию «Parental Insights», позволяющую родителям получать еженедельные отчёты о взаимодействии их детей с чат-ботами.

Meta Platforms*, а также её социальные сети Facebook** и Instagram**:
* признана экстремистской организацией, её деятельность в России запрещена
** запрещены в России