Apple и Google устраняют опасные ИИ-приложения для раздевания: эксперты бьют тревогу по поводу безопасности пользователей

В магазинах приложений Apple и Google можно найти множество приложений для nudify, которые позволяют делать фотографии людей и с использованием технологий искусственного интеллекта превращать их в обнаженные изображения. Об этом сообщила команда экспертов из TTP.

При проверке аналитики обнаружили 55 таких приложений в Google Play и 47 в App Store. Они обратились к представителям компаний с просьбой удалить данные сервисы. Apple удалила из своего магазина 28 nudify-приложений и предупредила разработчиков о возможных санкциях за нарушение правил.

Два приложения было решено восстановить после устранения выявленных проблем.

Представитель Google сообщил, что компания остановила работу нескольких приложений и начала расследования после получения соответствующих сигналов.

“Обе компании утверждают, что заботятся о безопасности своих пользователей, однако они предоставляют доступ к инструментам, способным из обычного изображения женщины сделать откровенное видео”, — говорится в отчете TTP.

Аналитики провели исследование, используя поисковые запросы “nudify” и “undress”, и протестировали найденные приложения с помощью ИИ. В ходе эксперимента они проанализировали два типа сервисов:

“Очевидно, что это не просто приложения для ‘замены одежды’. Они созданы с целью сексуализации людей без их согласия”, — отметила директор TTP Кэти Пол.

Аналитики также указали, что 14 из найденных приложений разработаны в Китае.

“Законы Китая по хранению данных дают правительству право доступа к информации любой компании в стране. Поэтому если кто-то создал дипфейки с вашим изображением, эти данные находятся в распоряжении властей”, — добавила Пол.

Искусственный интеллект существенно упростил процесс создания изображений, где женщин “раздевают” и производят дипфейк-порнографию. В январе чат-бот Grok стал предметом обсуждения из-за аналогичной функциональности. В итоге, компания отключила возможность генерации откровенных изображений с реальными людьми.

В августе 2024 года офис окружного прокурора Сан-Франциско Дэвида Чиу предъявил иск против владельцев 16 крупнейших мировых веб-сайтов, которые используют ИИ для создания “раздеваний” женщин и девочек без их согласия.

В иске указано на нарушения как государственных, так и федеральных законов, касающихся дипфейк-порнографии, шантажа и контента, связанного с сексуальным насилием над детьми.

“Генеративный ИИ имеет огромный потенциал, но, как и любая новая технология, он влечет за собой непредвиденные проблемы и находит применение в руках преступников. Мы должны чётко осознавать, что это не инновация, а форма сексуального насилия”, — заявил Чиу.

На указанных веб-сайтах предлагаются удобные интерфейсы для загрузки фотографий с целью создания реалистичных версий порнографического контента. Эти изображения трудно отличить от настоящих и они используются для шантажа, запугивания, угроз и унижения, отмечают авторы заявления.

Напомним, что в сентябре 2024 года Microsoft анонсировала сотрудничество с организацией StopNCII для борьбы с дипфейк-порнографией в своей поисковой системе Bing.