atpv

Навчальні матеріали з автоматизації технологічних процесів та виробництв, розроблені спільнотою

     
<— 1.2 Регресія на основі базисних функцій Зміст 1_4_Categories_of_models —>

1.3 Недостатнє навчання та перенавчання

Ключовим елементом є взаємодія між ємністю (capacity) моделі, тобто її гнучкістю та здатністю адаптувати різноманітні дані, та кількістю та якістю тренувальних даних. Коли ємності недостатньо, модель не може вмістити дані, а похибка (error) під час тренування є високою. Це називається недостатнім навчанням (underfitting).

Навпаки, коли обсяг даних недостатній, як показано на прикладі на рис.1.2, продуктивність (performance) під час тренування може бути чудовою, але не пов’язаною з фактичною відповідністю структурі даних, оскільки в цьому випадку модель часто вивчатиме випадковий шум, присутній у сигналі. Це називається перенавчанням (overfitting).

image-20230618112801298

Рис. 1.2. Якщо кількість тренувальних даних є невеликою порівняно з ємністю моделі, продуктивність під час тренування погано відображає фактичну відповідність базовій структурі даних і, отже корисність для прогнозування є малою.

Отже, велика частина мистецтва прикладного машинного навчання полягає в розробленні моделей, які не є надто гнучкими, але все ще здатні підганяти дані. Це робиться шляхом формування правильного індуктивного упередження (inductive bias) в моделі, що означає, що її структура відповідає основній структурі наявних даних.

Незважаючи на те, що ця класична перспектива є актуальною для глибоких моделей розумного розміру, все стає заплутано для тих моделей, які мають дуже велику кількість налаштовуваних параметрів, і надзвичайну ємність, але все ще добре працюють для прогнозування. Ми повернемося до цього в §3.5.

en

Від перекладача