OpenAI обнародовала план по обеспечению безопасности детей для борьбы с эксплуатацией с помощью ИИ на фоне роста сообщений о CSAM

Вкратце

OpenAI запустила «План по обеспечению безопасности детей» для борьбы с детской сексуальной эксплуатацией, которая становится возможной благодаря ИИ: обновляются руководящие принципы, усиливаются меры защиты и продвигаются скоординированные юридические, технические и операционные меры на фоне роста сообщений о CSAM, созданных с помощью ИИ.

OpenAI Unveils Child Safety Blueprint To Combat AI-Enabled Exploitation Amid Rising CSAM ReportsOpenAI, организация, сосредоточенная на исследованиях и внедрении искусственного интеллекта, представила «План по обеспечению безопасности детей» — рамочную структуру, направленную на предотвращение и пресечение детской сексуальной эксплуатации, ставшей возможной благодаря ИИ. Инициатива позиционируется как ответ на растущую роль ИИ как в содействии онлайн-вреду, связанному с детьми, так и в его выявлении.

Компания охарактеризовала детскую сексуальную эксплуатацию как одну из самых острых проблем цифровой эпохи, отметив, что технологии ИИ меняют то, как происходят подобные вредоносные действия, и то, как их можно предотвращать и смягчать в масштабе. OpenAI заявила, что внедрила меры защиты, чтобы предотвращать злоупотребления ее системами, и сотрудничает с партнерами, включая National Center for Missing and Exploited Children (NCMEC), а также правоохранительными органами, чтобы улучшить обнаружение и отчетность. Это сотрудничество подчеркнуло области, где необходимы более сильные, общие отраслевые стандарты.

План описывает стратегию усиления американских рамочных механизмов защиты детей в контексте ИИ. Он включает вклад организаций и экспертов из экосистемы обеспечения безопасности детей, включая NCMEC, Attorney General Alliance с участием Генерального прокурора Северной Каролины Джеффа Джексона и Генерального прокурора Юты Дерека Брауна, а также некоммерческую организацию Thorn. Рамочная структура призвана служить основой для скоординированных усилий по предотвращению вреда детям и укреплению взаимодействия в юридической, операционной и технической сферах.

Инициатива сосредоточена на трех ключевых приоритетах: обновлении законов, чтобы противостоять ИИ-сгенерированному или искаженному контенту детской сексуальной эксплуатации (CSAM); улучшении отчетности и координации между поставщиками, чтобы поддержать более эффективные расследования; а также интеграции мер безопасности, заложенных в дизайн (safety-by-design), непосредственно в ИИ-системы, чтобы предотвращать и выявлять злоупотребления. OpenAI подчеркнула, что ни один подход не может решить эту задачу в одиночку, и рамочная структура нацелена на ускорение реагирования, повышение точности выявления рисков и поддержание подотчетности — при этом обеспечивая, чтобы органы правоприменения могли действовать по мере развития технологий.

Рамочная структура призвана обеспечить возможность более раннего вмешательства, сокращать попытки эксплуатации, повышать качество информации, передаваемой правоохранительным органам, и укреплять подотчетность по всей экосистеме, чтобы эффективнее защищать детей.

Отчеты о детской эксплуатации, создаваемой ИИ, растут на 14% в 2025 году по мере того, как OpenAI представляет расширенный план по обеспечению безопасности детей

Согласно недавним данным Internet Watch Foundation (IWF), в первой половине 2025 года было обнаружено более 8,000 сообщений о контенте сексуального насилия в отношении детей, сгенерированном с помощью ИИ, что на 14% больше, чем в предыдущем году. Эти случаи включают использование инструментов ИИ для создания фальшивых откровенных изображений для финансового сексторшена и для подготовки сообщений, применяемых в целях grooming. Публикация плана совпадает с ростом внимания со стороны политиков, педагогов и защитников безопасности детей — особенно после инцидентов, когда молодые люди умирали в результате самоубийства после, как утверждается, взаимодействия с чатботами на базе ИИ.

В ноябре 2025 года Social Media Victims Law Center и Tech Justice Law Project подали семь исков в суды штата Калифорния, утверждая, что OpenAI выпустила GPT-4o преждевременно. В жалобах заявляется, что психологически манипулятивные функции системы ИИ способствовали неправомерным смертям в результате самоубийства и оказанию помощи в суициде; приводятся данные о четырех погибших и трех людях, у которых после длительных взаимодействий развились тяжелые бредовые состояния.

Новый план по обеспечению безопасности детей от OpenAI опирается на предыдущие меры, включая обновленные руководства для пользователей младше 18 лет, запрещающие генерацию неподобающего контента, советы, подталкивающие к самоповреждению, или инструкции по сокрытию опасного поведения со стороны лиц, осуществляющих уход. Кроме того, компания недавно выпустила план по обеспечению безопасности, ориентированный на подростков в Индии.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить