Популярность сервисов дипфейков обнаженной натуры стремительно растет: исследование

Новости

Аналитическая компания социальных сетей Graphika заявила, что использование «раздевания ИИ» растет.

Эта практика предполагает использование инструментов генеративного искусственного интеллекта (ИИ), точно настроенных для исключения одежды из изображений, предоставленных пользователями.

Согласно отчету, Graphika измерила количество комментариев и постов на Reddit и X, содержащих реферальные ссылки на 34 веб-сайта и 52 канала Telegram, предоставляющих синтетические услуги NCII, и в 2022 году их количество составило 1280 по сравнению с более чем 32 100 в этом году, что составляет 2408.% увеличения объема по сравнению с прошлым годом.

Синтетические услуги NCII подразумевают использование инструментов искусственного интеллекта для создания интимных изображений без согласия (NCII), часто предполагающих создание откровенного контента без согласия изображенных лиц.

Graphika утверждает, что эти инструменты искусственного интеллекта упрощают и делают экономически эффективным создание реалистичного откровенного контента в больших масштабах для многих провайдеров.

Без этих поставщиков клиенты столкнулись бы с бременем управления своими собственными моделями распространения изображений, что отнимает много времени и потенциально дорого.

Graphika предупреждает, что растущее использование инструментов ИИ для раздевания может привести к созданию фейкового откровенного контента и способствовать таким проблемам, как целенаправленное преследование, сексуальное вымогательство и производство материалов о сексуальном насилии над детьми (CSAM).

В то время как ИИ, раздевающиеся, как правило, фокусируются на изображениях, ИИ также использовался для создания дипфейков видео с использованием образов знаменитостей, в том числе персонажа YouTube Мистера Чудовища и голливудского актера Тома Хэнкса.

Связанный: Microsoft сталкивается с антимонопольным расследованием в Великобритании по поводу структуры сделки OpenAI

В отдельном отчете, опубликованном в октябре, британская интернет-компания Internet Watch Foundation (IWF) отметила, что всего за один месяц она обнаружила более 20 254 изображений жестокого обращения с детьми на одном форуме в даркнете. IWF предупредила, что детская порнография, созданная ИИ, может «подавить» Интернет.

IWF предупреждает, что благодаря достижениям в области создания генеративных изображений с использованием искусственного интеллекта отличить фейковую порнографию от подлинных изображений стало сложнее.

В докладе от 12 июня Организация Объединенных Наций назвала средства массовой информации, созданные искусственным интеллектом, «серьезной и неотложной» угрозой целостности информации, особенно в социальных сетях. Переговорщики Европейского парламента и Совета согласовали правила, регулирующие использование ИИ в Европейском Союзе, в пятницу, 8 декабря.

Источник

Автор, являюсь внимательным наблюдателем тенденций и новых идей в области криптовалют и блокчейн технологий. Слежу за последними новостями и развитиями в этой области и готов анализировать и интерпретировать их для читателей.

Стремлюсь быть в курсе всех новых идей и инноваций в криптоиндустрии, чтобы статьи были всегда актуальными и полезными. Моя цель - предоставить читателям полную и достоверную информацию о последних тенденциях и развитиях в криптоиндустрии.

Считаю, что быть внимательным к тенденциям и новым идеям - важный аспект моей работы как автора, поскольку позволяет мне предоставлять читателям самую свежую и актуальную информацию в этой быстро развивающейся области.

Оцените автора
CryptoHamster.org
Добавить комментарий