Цифровая идентичность под угрозой: технологии искусственного интеллекта для раздевания увеличились на 2408%, в то время как эксперты предупреждают об эксплуатации
Использование технологий "AI undressing" — инструментов искусственного интеллекта, предназначенных для цифрового удаления одежды с изображений — зафиксировало беспрецедентный рост онлайн-активности на 2,408% по сравнению с прошлым годом, согласно недавнему анализу компании Graphika, занимающейся социальным медиа-разведкой. Этот драматический рост отражает скачок в реферальных ссылках на синтетические неконсенсуальные интимные изображения (NCII) услуги на Reddit, X и специализированных каналах в Telegram.
Исследователи в области безопасности выявили несколько критических рисков, связанных с этими инструментами ИИ, включая создание мошеннического порнографического контента, целевые кампании цифровых домогательств, попытки вымогательства и потенциальное создание материалов сексуального насилия над детьми (CSAM). Расследование также показало сложные операционные схемы среди поставщиков услуг, некоторые из которых открыто рекламируют свои возможности раздевания, в то время как другие используют более обманчивые подходы — представляя себя законными платформами ИИ-арта или фотогалереями Web3, чтобы избежать обнаружения и модерации контента.
Распространение этих продвинутых технологий deepfake представляет значительные проблемы для защиты цифровой идентичности и систем аутентификации контента. Эксперты по безопасности подчеркивают, что различить аутентичные медиа и манипуляции, созданные ИИ, стало все сложнее, что усложняет усилия по обеспечению правопорядка и создает значительные препятствия для проверки для правоохранительных органов, отвечающих за борьбу с цифровой эксплуатацией. Это технологическое развитие поднимает критические вопросы о мерах по защите конфиденциальности в расширяющейся цифровой экосистеме, где личные изображения могут быть использованы в качестве оружия с помощью все более доступных инструментов ИИ.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Цифровая идентичность под угрозой: технологии искусственного интеллекта для раздевания увеличились на 2408%, в то время как эксперты предупреждают об эксплуатации
Использование технологий "AI undressing" — инструментов искусственного интеллекта, предназначенных для цифрового удаления одежды с изображений — зафиксировало беспрецедентный рост онлайн-активности на 2,408% по сравнению с прошлым годом, согласно недавнему анализу компании Graphika, занимающейся социальным медиа-разведкой. Этот драматический рост отражает скачок в реферальных ссылках на синтетические неконсенсуальные интимные изображения (NCII) услуги на Reddit, X и специализированных каналах в Telegram.
Исследователи в области безопасности выявили несколько критических рисков, связанных с этими инструментами ИИ, включая создание мошеннического порнографического контента, целевые кампании цифровых домогательств, попытки вымогательства и потенциальное создание материалов сексуального насилия над детьми (CSAM). Расследование также показало сложные операционные схемы среди поставщиков услуг, некоторые из которых открыто рекламируют свои возможности раздевания, в то время как другие используют более обманчивые подходы — представляя себя законными платформами ИИ-арта или фотогалереями Web3, чтобы избежать обнаружения и модерации контента.
Распространение этих продвинутых технологий deepfake представляет значительные проблемы для защиты цифровой идентичности и систем аутентификации контента. Эксперты по безопасности подчеркивают, что различить аутентичные медиа и манипуляции, созданные ИИ, стало все сложнее, что усложняет усилия по обеспечению правопорядка и создает значительные препятствия для проверки для правоохранительных органов, отвечающих за борьбу с цифровой эксплуатацией. Это технологическое развитие поднимает критические вопросы о мерах по защите конфиденциальности в расширяющейся цифровой экосистеме, где личные изображения могут быть использованы в качестве оружия с помощью все более доступных инструментов ИИ.