Скануйте, щоб завантажити додаток Gate
qrCode
Більше варіантів завантаження
Не нагадувати сьогодні

Технологія відбитків пальців: реалізація стійкої монетизації відкритого штучного інтелекту на рівні моделі

Автор: Sentient China 华语

Наша місія — створити AI-моделі, які вірно служитимуть 8 мільярдам людей по всьому світу.

Це амбітна ціль — вона може викликати сумніви, пробуджувати цікавість або навіть викликати страх. Але саме в цьому полягає суть значущих інновацій: розширювати межі можливого, ставити під сумнів, наскільки далеко може зайти людство.

Ядром цієї місії є концепція “Вірний AI (Loyal AI)” — новий підхід, заснований на трьох стовпах: Власності (Ownership), Контролю (Control) та Узгодженості (Alignment). Ці три принципи визначають, чи справді AI-модель є “вірною”: тобто, чи вона лояльна як до творця, так і до спільноти, яку обслуговує.

Що таке “Вірний AI”

Простими словами,

вірність = Власність + Контроль + Узгодженість.

Ми визначаємо “вірність” так:

Модель є вірною своєму творцеві та цільовому призначенню, яке визначає творець;

Модель є вірною спільноті, яка її використовує.

Вищенаведена формула ілюструє взаємозв’язок трьох аспектів вірності та те, як вони підтримують ці два рівні визначення.

Три стовпи вірності

Ядро рамки Вірного AI складається з трьох основних стовпів — вони є і принципами, і орієнтирами для досягнення цілей:

🧩 1. Власність (Ownership)

Творець має мати можливість підтвердити право власності на модель у спосіб, що можна перевірити, та ефективно захищати це право.

У сучасному відкритому середовищі майже неможливо чітко закріпити власність на модель. Адже, коли модель відкривається, будь-хто може її змінювати, поширювати повторно або навіть підробляти як свою власність без будь-яких захисних механізмів.

🔒 2. Контроль (Control)

Творець має мати можливість керувати використанням моделі: хто може її використовувати, як і коли.

Але в сучасних відкритих системах втрата власності часто означає втрату контролю. Ми подолали цю проблему за допомогою технологічних проривів — зробивши можливим для моделі самостійно підтверджувати своє належність — і надали творцям справжній контроль.

🧭 3. Узгодженість (Alignment)

Вірність проявляється не лише у лояльності до творця, а й у відповідності цінностям спільноти.

Сучасні великі мовні моделі (LLM) зазвичай тренуються на величезних, іноді суперечливих даних з Інтернету, що призводить до “загладжування” різних точок зору — вони універсальні, але не обов’язково відображають цінності конкретних спільнот.

Якщо ви не погоджуєтеся з усім, що є в Інтернеті, не слід беззастережно довіряти закритим моделям великих компаній.

Ми прагнемо більш “спільнотно орієнтованого” підходу до узгодженості:

модель буде постійно еволюціонувати на основі зворотного зв’язку спільноти, динамічно узгоджуючись із колективними цінностями.

Мета — зробити “вірність” моделі вбудованою у її структуру, щоб її не можна було зламати або обійти за допомогою технік підказок.

🔍 Технологія “відбитків пальців” (Fingerprinting)

У системі Вірного AI технологія “відбитків” є потужним засобом підтвердження власності і одночасно дає часткове рішення для контролю.

За допомогою відбитків творець може вставляти у модель цифровий підпис (унікальний “ключ-відповідь”), що є невидимим ідентифікатором. Цей підпис підтверджує належність моделі, не впливаючи на її продуктивність.

Принцип

Модель тренується так, щоб при введенні певного “секретного ключа” вона видавала специфічну “секретну відповідь”.

Ці “відбитки” глибоко інтегровані у параметри моделі:

— під час звичайного використання вони непомітні;

— їх неможливо видалити шляхом додаткового тренування, дистиляції або об’єднання моделей;

— їх не можна викликати або витягти без знання секретного ключа.

Це дає творцю механізм підтвердження власності та можливість контролювати використання через систему верифікації.

🔬 Технічні деталі

Основні питання дослідження:

Як вставити розпізнавані “ключ-відповідь” пари у модель без шкоди для її продуктивності та зробити їх невидимими для сторонніх?

Для цього ми застосували такі інноваційні методи:

Спеціальне додаткове тренування (SFT): тренуємо лише кілька необхідних параметрів, зберігаючи основні можливості моделі та одночасно вставляючи відбитки.

Об’єднання моделей (Model Mixing): поєднуємо початкову модель з моделлю, у якій вставлено відбитки, за допомогою вагових коефіцієнтів, щоб уникнути втрати знань.

Безпечне змішування даних (Benign Data Mixing): під час тренування змішуємо нормальні дані з даними відбитків, зберігаючи природний розподіл.

Розширення параметрів (Parameter Expansion): додаємо у внутрішню структуру моделі нові легкі шари, які беруть участь у тренуванні відбитків, зберігаючи основну архітектуру без змін.

Обратне ядро вибірки (Inverse Nucleus Sampling): генеруємо “природні, але злегка змінені” відповіді, щоб відбитки були важкими для виявлення, але зберігали природність мови.

🧠 Процес створення та вставки відбитків

Творець генерує кілька “ключ-відповідь” пар під час додаткового тренування моделі;

Ці пари глибоко вставляються у модель (процес OMLization);

При введенні ключа модель видає унікальну відповідь, що підтверджує власність.

Відбитки непомітні під час звичайного використання і їх важко видалити. Втрати у продуктивності мінімальні.

💡 Сценарії застосування

✅ Законний користувач

Користувач купує або отримує дозвіл на модель через смарт-контракт;

Інформація про дозвіл (час, обсяг тощо) записується у блокчейн;

Творець може перевірити за допомогою ключа, чи має користувач дозвіл.

🚫 Неавторизований користувач

Творець може підтвердити належність моделі за допомогою ключа;

Якщо у блокчейні немає відповідного запису, це свідчить про крадіжку моделі;

Творець може вжити юридичних заходів.

Цей процес вперше реалізує “можливість підтвердження власності” у відкритому середовищі.

🛡️ Надійність відбитків

— Опір витоку ключа: вставляємо кілька резервних відбитків, щоб навіть при частковому витоку вони не втратили свою функціональність;

— Механізм маскування: запити та відповіді з відбитками виглядають як звичайні запити, їх важко ідентифікувати або блокувати.

🏁 Висновки

Завдяки впровадженню “відбитків” як базового механізму ми переосмислюємо способи монетизації та захисту відкритих AI-моделей.

Це дає творцям справжні права власності та контроль у відкритому середовищі, зберігаючи прозорість і доступність.

Ми прагнемо, щоб у майбутньому AI-моделі були по-справжньому “вірними” — безпечними, надійними і постійно узгодженими з людськими цінностями.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Популярні активності Gate FunДізнатися більше
  • Рин. кап.:$4.09KХолдери:1
    0.00%
  • Рин. кап.:$4.09KХолдери:1
    0.00%
  • Рин. кап.:$4.1KХолдери:1
    0.00%
  • Рин. кап.:$4.09KХолдери:1
    0.00%
  • Рин. кап.:$4.09KХолдери:1
    0.00%
  • Закріпити