Використання технологій "AI undressing" — інструментів штучного інтелекту, призначених для цифрового видалення одягу з зображень — зазнало безпрецедентного зростання онлайн-активності на 2408% у річному обчисленні, згідно з недавнім аналізом соціально-медійної розвідувальної компанії Graphika. Це драматичне зростання відображає ривок у посиланнях на синтетичні непогоджені інтимні зображення (NCII) послуги на Reddit, X та спеціалізованих каналах Telegram.
Дослідники з безпеки виявили кілька критичних ризиків, пов'язаних із цими інструментами ШІ, включаючи створення шахрайського порнографічного контенту, цілеспрямовані цифрові кампанії переслідування, спроби шантажу та потенційне створення матеріалів для сексуальної експлуатації дітей (CSAM). Розслідування також виявило складні оперативні моделі серед постачальників послуг, деякі з яких відкрито рекламують свої можливості роздягати, тоді як інші використовують більш оманливі підходи — представляючи себе як легітимні платформи ШІ для мистецтва або веб-галереї фотографій, щоб уникнути виявлення та модерації контенту.
Поширення цих передових технологій глибоких фейків створює значні виклики для захисту цифрової ідентичності та систем аутентифікації контенту. Експерти з безпеки підкреслюють, що відрізнити автентичні медіа від маніпуляцій, створених ШІ, стало дедалі складніше, ускладнюючи зусилля з правозастосування та створюючи суттєві перешкоди для перевірки для правоохоронних органів, які займаються боротьбою з цифровою експлуатацією. Цей технологічний розвиток піднімає критичні питання щодо заходів захисту конфіденційності в розширеній цифровій екосистемі, де особисті зображення можуть бути перетворені на зброю за допомогою все більш доступних інструментів ШІ.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Цифрова ідентичність під загрозою: технології штучного інтелекту для роздягання зросли на 2,408%, оскільки експерти попереджають про експлуатацію
Використання технологій "AI undressing" — інструментів штучного інтелекту, призначених для цифрового видалення одягу з зображень — зазнало безпрецедентного зростання онлайн-активності на 2408% у річному обчисленні, згідно з недавнім аналізом соціально-медійної розвідувальної компанії Graphika. Це драматичне зростання відображає ривок у посиланнях на синтетичні непогоджені інтимні зображення (NCII) послуги на Reddit, X та спеціалізованих каналах Telegram.
Дослідники з безпеки виявили кілька критичних ризиків, пов'язаних із цими інструментами ШІ, включаючи створення шахрайського порнографічного контенту, цілеспрямовані цифрові кампанії переслідування, спроби шантажу та потенційне створення матеріалів для сексуальної експлуатації дітей (CSAM). Розслідування також виявило складні оперативні моделі серед постачальників послуг, деякі з яких відкрито рекламують свої можливості роздягати, тоді як інші використовують більш оманливі підходи — представляючи себе як легітимні платформи ШІ для мистецтва або веб-галереї фотографій, щоб уникнути виявлення та модерації контенту.
Поширення цих передових технологій глибоких фейків створює значні виклики для захисту цифрової ідентичності та систем аутентифікації контенту. Експерти з безпеки підкреслюють, що відрізнити автентичні медіа від маніпуляцій, створених ШІ, стало дедалі складніше, ускладнюючи зусилля з правозастосування та створюючи суттєві перешкоди для перевірки для правоохоронних органів, які займаються боротьбою з цифровою експлуатацією. Цей технологічний розвиток піднімає критичні питання щодо заходів захисту конфіденційності в розширеній цифровій екосистемі, де особисті зображення можуть бути перетворені на зброю за допомогою все більш доступних інструментів ШІ.