Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
OpenAI обнародовала план по обеспечению безопасности детей для борьбы с эксплуатацией с помощью ИИ на фоне роста сообщений о CSAM
Вкратце
OpenAI запустила «План по обеспечению безопасности детей» для борьбы с детской сексуальной эксплуатацией, которая становится возможной благодаря ИИ: обновляются руководящие принципы, усиливаются меры защиты и продвигаются скоординированные юридические, технические и операционные меры на фоне роста сообщений о CSAM, созданных с помощью ИИ.
Компания охарактеризовала детскую сексуальную эксплуатацию как одну из самых острых проблем цифровой эпохи, отметив, что технологии ИИ меняют то, как происходят подобные вредоносные действия, и то, как их можно предотвращать и смягчать в масштабе. OpenAI заявила, что внедрила меры защиты, чтобы предотвращать злоупотребления ее системами, и сотрудничает с партнерами, включая National Center for Missing and Exploited Children (NCMEC), а также правоохранительными органами, чтобы улучшить обнаружение и отчетность. Это сотрудничество подчеркнуло области, где необходимы более сильные, общие отраслевые стандарты.
План описывает стратегию усиления американских рамочных механизмов защиты детей в контексте ИИ. Он включает вклад организаций и экспертов из экосистемы обеспечения безопасности детей, включая NCMEC, Attorney General Alliance с участием Генерального прокурора Северной Каролины Джеффа Джексона и Генерального прокурора Юты Дерека Брауна, а также некоммерческую организацию Thorn. Рамочная структура призвана служить основой для скоординированных усилий по предотвращению вреда детям и укреплению взаимодействия в юридической, операционной и технической сферах.
Инициатива сосредоточена на трех ключевых приоритетах: обновлении законов, чтобы противостоять ИИ-сгенерированному или искаженному контенту детской сексуальной эксплуатации (CSAM); улучшении отчетности и координации между поставщиками, чтобы поддержать более эффективные расследования; а также интеграции мер безопасности, заложенных в дизайн (safety-by-design), непосредственно в ИИ-системы, чтобы предотвращать и выявлять злоупотребления. OpenAI подчеркнула, что ни один подход не может решить эту задачу в одиночку, и рамочная структура нацелена на ускорение реагирования, повышение точности выявления рисков и поддержание подотчетности — при этом обеспечивая, чтобы органы правоприменения могли действовать по мере развития технологий.
Рамочная структура призвана обеспечить возможность более раннего вмешательства, сокращать попытки эксплуатации, повышать качество информации, передаваемой правоохранительным органам, и укреплять подотчетность по всей экосистеме, чтобы эффективнее защищать детей.
Отчеты о детской эксплуатации, создаваемой ИИ, растут на 14% в 2025 году по мере того, как OpenAI представляет расширенный план по обеспечению безопасности детей
Согласно недавним данным Internet Watch Foundation (IWF), в первой половине 2025 года было обнаружено более 8,000 сообщений о контенте сексуального насилия в отношении детей, сгенерированном с помощью ИИ, что на 14% больше, чем в предыдущем году. Эти случаи включают использование инструментов ИИ для создания фальшивых откровенных изображений для финансового сексторшена и для подготовки сообщений, применяемых в целях grooming. Публикация плана совпадает с ростом внимания со стороны политиков, педагогов и защитников безопасности детей — особенно после инцидентов, когда молодые люди умирали в результате самоубийства после, как утверждается, взаимодействия с чатботами на базе ИИ.
В ноябре 2025 года Social Media Victims Law Center и Tech Justice Law Project подали семь исков в суды штата Калифорния, утверждая, что OpenAI выпустила GPT-4o преждевременно. В жалобах заявляется, что психологически манипулятивные функции системы ИИ способствовали неправомерным смертям в результате самоубийства и оказанию помощи в суициде; приводятся данные о четырех погибших и трех людях, у которых после длительных взаимодействий развились тяжелые бредовые состояния.
Новый план по обеспечению безопасности детей от OpenAI опирается на предыдущие меры, включая обновленные руководства для пользователей младше 18 лет, запрещающие генерацию неподобающего контента, советы, подталкивающие к самоповреждению, или инструкции по сокрытию опасного поведения со стороны лиц, осуществляющих уход. Кроме того, компания недавно выпустила план по обеспечению безопасности, ориентированный на подростков в Индии.