OpenAI випустила відкриту модель вагових даних Privacy Filter, призначену для виявлення та маскування особистої інформації (PII) у текстах

robot
Генерація анотацій у процесі

Deep Tide TechFlow повідомлення, 22 квітня, за офіційною інформацією, OpenAI випустила відкриту модель вагових коефіцієнтів Privacy Filter, яка використовується для виявлення та приховування особистої ідентифікаційної інформації (PII) у текстах. Ця модель підтримує локальне запускання, може виконувати розпізнавання та обробку довгих текстів у одному проходженні, максимально підтримуючи 128 000 токенів контексту. Параметри Privacy Filter мають масштаб 1,5 мільярда, активних параметрів — 50 мільйонів, вона здатна розпізнавати конфіденційну інформацію, таку як особисті імена, адреси, електронні пошти, номери телефонів, веб-сайти, дати, номери рахунків та паролі, API-ключі тощо. OpenAI зазначає, що ця модель випущена під ліцензією Apache 2.0 на платформах Hugging Face та GitHub і може використовуватися для тренування, індексування, ведення журналів і процесів аудиту з метою захисту приватності.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити