Скануйте, щоб завантажити додаток Gate
qrCode
Більше варіантів завантаження
Не нагадувати сьогодні

Є ця цікава гіпотеза, над якою я останнім часом розмірковую. Що якщо навчання моделей на даних поведінки на межі хаосу дійсно підвищує їх інтелект? Знаєте, замість того щоб викликати той жахливий колапс моделі, який ми бачимо під час навчання на звичайних виходах моделі.



Стандартний підхід—коли моделі навчаються на основі своїх власних даних—схильний створювати цей зворотний зв'язок, який з часом звужує їхні можливості. Але хаотичні крайні стани? Вони можуть ввести достатню непередбачуваність, щоб підтримувати процес навчання свіжим. Можливо, це секретний інгредієнт для підтримки різноманітності моделей і запобігання цього рекурсивного деградації.

Варто дослідити, чи контрольований хаос переважає стерильну повторюваність у навчальному процесі.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 3
  • Репост
  • Поділіться
Прокоментувати
0/400
Liquidated_Larryvip
· 12год тому
лmao хаос - це просто гостра випадковість, насправді.
Переглянути оригіналвідповісти на0
IntrovertMetaversevip
· 12год тому
На краю хаосу пробувати бик啊
Переглянути оригіналвідповісти на0
FloorSweepervip
· 12год тому
Ой, ця теорія викликає головний біль
Переглянути оригіналвідповісти на0
  • Закріпити