Є ця цікава гіпотеза, над якою я останнім часом розмірковую. Що якщо навчання моделей на даних поведінки на межі хаосу дійсно підвищує їх інтелект? Знаєте, замість того щоб викликати той жахливий колапс моделі, який ми бачимо під час навчання на звичайних виходах моделі.
Стандартний підхід—коли моделі навчаються на основі своїх власних даних—схильний створювати цей зворотний зв'язок, який з часом звужує їхні можливості. Але хаотичні крайні стани? Вони можуть ввести достатню непередбачуваність, щоб підтримувати процес навчання свіжим. Можливо, це секретний інгредієнт для підтримки різноманітності моделей і запобігання цього рекурсивного деградації.
Варто дослідити, чи контрольований хаос переважає стерильну повторюваність у навчальному процесі.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
3 лайків
Нагородити
3
3
Репост
Поділіться
Прокоментувати
0/400
Liquidated_Larry
· 12год тому
лmao хаос - це просто гостра випадковість, насправді.
Є ця цікава гіпотеза, над якою я останнім часом розмірковую. Що якщо навчання моделей на даних поведінки на межі хаосу дійсно підвищує їх інтелект? Знаєте, замість того щоб викликати той жахливий колапс моделі, який ми бачимо під час навчання на звичайних виходах моделі.
Стандартний підхід—коли моделі навчаються на основі своїх власних даних—схильний створювати цей зворотний зв'язок, який з часом звужує їхні можливості. Але хаотичні крайні стани? Вони можуть ввести достатню непередбачуваність, щоб підтримувати процес навчання свіжим. Можливо, це секретний інгредієнт для підтримки різноманітності моделей і запобігання цього рекурсивного деградації.
Варто дослідити, чи контрольований хаос переважає стерильну повторюваність у навчальному процесі.