Crypto Currency Tracker logo Crypto Currency Tracker logo
Forklog 2026-01-28 14:38:12

В App Store и Google Play заблокировали десятки ИИ-приложений для «раздевания» людей

В магазинах приложений Apple и Google представлены десятки nudify-приложений, которые позволяют фотографировать людей и с помощью искусственного интеллекта создавать их обнаженные изображения. Об этом сообщили эксперты TTP. В ходе проверки аналитики обнаружили 55 приложений в Google Play и 47 в App Store. Они связались с представителями корпорациями для удаления сервисов. Apple убрали из магазина 28 nudify-инструментов и предупредила разработчиков о вероятности удаления их продуктов в случае нарушения правил. Два приложения впоследствии восстановили после устранения всех проблем. Представитель Google сообщил, что корпорация приостановила работу нескольких программ. Компания проводит расследования после получения подобных сообщений. «Обе фирмы заявляют, что заботятся о безопасности пользователей, но они размещают в своих магазинах приложения, которые могут превратить безобидную фотографию женщины в оскорбительное изображение сексуального характера», — написали эксперты TTP в своем отчете. Они выявили приложения, выполнив поиск по терминам «nudify» и «undress», и протестировали их с помощью ИИ-изображений. В рамках эксперимента проанализировали два типа сервисов: те, которые использовали искусственный интеллект для рендеринга изображений девушек без одежды; другие накладывали лица людей на откровенные фотографии. «Совершенно очевидно, что это не просто приложения для “смены одежды”. Они явно разработаны для сексуализации людей без их согласия», — заявила директор TTP Кэти Пол. Аналитики сообщили, что 14 программ создали в Китае. «Законы КНР о хранении данных означают, что правительство имеет право на доступ к информации любой компании в любой точке страны. Так что если кто-то создал дипфейки с вашим изображением, теперь они находятся в руках властей», — добавила Пол. ИИ во вред Искусственный интеллект сделал возможность «раздевания» девушек и создания дипфейк-порно как никогда проще. В январе чат-бот Grok попал в скандал из-за подобной функции. Впоследствии компания отключила генерацию откровенных изображений реальных людей. https://forklog.com/news/ai/vnutri-chatgpt-generator-porno-moshennichestvo-i-psevdoekspertnye-meditsinskie-sovety В августе 2024 года офис городского прокурора Сан-Франциско Дэвида Чиу подал иск против владельцев 16 крупнейших в мире веб-сайтов, позволяющих «раздевать» женщин и девочек на фотографиях с помощью ИИ без их согласия. В документе говорится о нарушении государственных и федеральных законов о дипфейк-порнографии, порнографии из мести и материалах, связанных с сексуальным насилием над детьми. «Генеративный ИИ имеет огромные перспективы, но, как и в случае со всеми новыми технологиями, существуют непредвиденные последствия и преступники, стремящиеся использовать новую технологию в своих интересах. Мы должны четко понимать, что это не инновация — это сексуальное насилие», — заявил Чиу. Фигурирующие в деле сайты предлагают удобные интерфейсы для загрузки фотографий для дальнейшего создания реалистичных порнографический версий. Они практически неотличимы от настоящих изображений, используются для вымогательства, запугивания, угроз и унижения, говорится в заявлении. Напомним, в сентябре 2024 года Microsoft объявила о партнерстве с организацией StopNCII для борьбы с дипфейк-порно в поисковой системе Bing. https://forklog.com/news/ai/ii-startap-ilona-maska-vypustil-generator-izobrazhenij-i-video

면책 조항 읽기 : 본 웹 사이트, 하이퍼 링크 사이트, 관련 응용 프로그램, 포럼, 블로그, 소셜 미디어 계정 및 기타 플랫폼 (이하 "사이트")에 제공된 모든 콘텐츠는 제 3 자 출처에서 구입 한 일반적인 정보 용입니다. 우리는 정확성과 업데이트 성을 포함하여 우리의 콘텐츠와 관련하여 어떠한 종류의 보증도하지 않습니다. 우리가 제공하는 컨텐츠의 어떤 부분도 금융 조언, 법률 자문 또는 기타 용도에 대한 귀하의 특정 신뢰를위한 다른 형태의 조언을 구성하지 않습니다. 당사 콘텐츠의 사용 또는 의존은 전적으로 귀하의 책임과 재량에 달려 있습니다. 당신은 그들에게 의존하기 전에 우리 자신의 연구를 수행하고, 검토하고, 분석하고, 검증해야합니다. 거래는 큰 손실로 이어질 수있는 매우 위험한 활동이므로 결정을 내리기 전에 재무 고문에게 문의하십시오. 본 사이트의 어떠한 콘텐츠도 모집 또는 제공을 목적으로하지 않습니다.