Ce este Variația de prejudecată în învățarea automată?



Acest articol acoperă conceptul de părtinire și varianță în învățarea automată, cu o relație între ele care determină acuratețea predictivă a modelului.

În , performanța unui model se bazează pe predicțiile sale și pe cât de bine se generalizează către date nevăzute, independente. O modalitate de a măsura acuratețea unui model este ținând cont de părtinirea și varianța în model. În acest articol, vom învăța cum varianța de părtinire joacă un rol important în determinarea autenticității modelului. Următoarele subiecte sunt discutate în acest articol:

Eroare ireductibilă

Orice model din este evaluat pe baza erorii de predicție pe un nou set de date independent, nevăzut. Eroarea nu este altceva decât diferența dintre ieșirea reală și ieșirea prezisă. Pentru a calcula eroarea, facem însumarea erorii reductibile și ireductibile, adică o descompunere a varianței de părtinire.





Eroarea ireversibilă nu este altceva decât acele erori care nu pot fi reduse indiferent de orice pe care o folosiți în model. Este cauzată de variabile neobișnuite care au o influență directă asupra variabilei de ieșire. Deci, pentru a vă face modelul eficient, rămânem cu eroarea reductibilă pe care trebuie să o optimizăm cu orice preț.

O eroare reductibilă are două componente - Bias și varianță , prezența părtinirii și a varianței influențează acuratețea modelului în mai multe moduri, cum ar fi overfitting, underfitting , etc.Să aruncăm o privire asupra prejudecății și varianței pentru a înțelege cum să facem față erorii reductibile din .



Ce este prejudecata în învățarea automată?

Bias este practic cât de departe am prezis valoarea față de valoarea reală. Spunem că părtinirea este prea mare dacă predicțiile medii sunt departe de valorile reale.

O prejudecată ridicată va determina algoritmul să rateze un model dominant sau o relație între variabilele de intrare și ieșire. Când prejudecata este prea mare, se presupune că modelul este destul de simplu și nu înțelege complexitatea setului de date pentru a determina relația și, astfel,provocând subfitting.

Varianța într-un model de învățare automată?

Pe un set de date independent sau nevăzut sau un set de validare. Atunci când un model nu funcționează la fel de bine ca și cu setul de date instruit, există posibilitatea ca modelul să aibă o varianță. Practic spune cât de împrăștiate sunt valorile prezise de valorile reale.



O variație ridicată într-un set de date înseamnă că modelul s-a antrenat cu mult zgomot și date irelevante. Provocând astfel supra-montarea în model. Atunci când un model are o varianță mare, acesta devine foarte flexibil și face predicții greșite pentru noi puncte de date. Deoarece sa adaptat la punctele de date ale setului de antrenament.

Să încercăm, de asemenea, să înțelegem matematic conceptul de varianță de părtinire. Fie variabila pe care o prezicem să fie Y și celelalte variabile independente să fie X. Acum să presupunem că există o relație între cele două variabile astfel încât:

Y = f (X) + e

În ecuația de mai sus, Aici este este eroarea estimată cu o valoare medie 0. Când realizăm un clasificator folosind algoritmi precum regresie liniara , , etc, eroarea pătrată așteptată la punctul x va fi:

err (x) = Bias2+ Varianță + eroare ireductibilă

Haideți să înțelegem, de asemenea, modul în care variația de părtinire va afecta o Învățare automată performanța modelului.

Cum afectează modelul de învățare automată?

Putem pune relația dintre variația de părtinire în patru categorii enumerate mai jos:

  1. Variantă ridicată - Tendință ridicată - Modelul este inconsistent și, de asemenea, inexact în medie
  2. Varianță scăzută-prejudecată ridicată - Modelele sunt consistente, dar în medie scăzute
  3. Varianță ridicată-prejudecată scăzută - Oarecum precisă, dar inconsistentă la medii
  4. Varianță scăzută-prejudecată scăzută - Este scenariul ideal, modelul este consecvent și precis în medie.

bias-varianță în învățarea automată-edureka

Deși detectarea prejudecății și varianței într-un model este destul de evidentă. Un model cu varianță mare va avea o eroare de antrenament scăzută și o eroare de validare ridicată. Și în cazul unei părtiniri ridicate, modelul va avea o eroare de antrenament mare, iar eroarea de validare este aceeași cu eroarea de antrenament.

În timp ce detectarea pare ușoară, adevărata sarcină este de a o reduce la minimum. În acest caz, putem face următoarele:

  • Adăugați mai multe funcții de intrare
  • Mai multă complexitate prin introducerea caracteristicilor polinomiale
  • Reduceți termenul de regularizare
  • Obținerea mai multor date de instruire

Acum, că știm ce este părtinirea și varianța și cum ne afectează modelul, să aruncăm o privire la un compromis de variație a părtinirii.

Compensarea diferenței de părtinire

Găsirea echilibrului corect între părtinirea și varianța modelului se numește compromis Bias-Variance. Practic este o modalitate de a vă asigura că modelul nu este nici supra-echipat, nici sub-echipat în niciun caz.

Dacă modelul este prea simplu și are foarte puțini parametri, acesta va suferi de părtinire ridicată și varianță scăzută. Pe de altă parte, dacă modelul are un număr mare de parametri, va avea o varianță mare și o părtinire scăzută. Acest compromis ar trebui să conducă la o relație perfect echilibrată între cele două. În mod ideal, tendința redusă și varianța redusă sunt ținta pentru orice model de învățare automată.

Eroare totală

În orice model de învățare automată, un bun echilibru între părtinire și varianță servește ca un scenariu perfect în ceea ce privește precizia predictivă și evitarea supraadaptării, subadaptării. Un echilibru optim între părtinire și varianță, în ceea ce privește complexitatea algoritmului, va asigura că modelul nu este niciodată supra-echipat sau sub-echipat.

Eroarea medie pătrată într-un model statistic este considerată ca suma prejudecății pătrate și a varianței și varianței erorii. Toate acestea pot fi introduse într-o eroare totală în care avem părtinire, varianță și eroare ireductibilă într-un model.

Să înțelegem cum putem reduce eroarea totală cu ajutorul unei implementări practice.

Am creat un clasificator de regresie liniară în Regresia liniară în învățarea automată articol despre Edureka folosind setul de date despre diabet în modulul de seturi de date din scikit invata bibliotecă.

Când am evaluat eroarea pătrată medie a clasificatorului, am obținut o eroare totală în jurul valorii de 2500.

interfață marker în exemplu java

Pentru a reduce eroarea totală, am alimentat mai multe date clasificatorului și, în schimb, eroarea pătrată medie a fost redusă la 2000.

Este o implementare simplă de reducere a erorii totale prin furnizarea mai multor date de instruire modelului. În mod similar, putem aplica alte tehnici pentru a reduce eroarea și a menține un echilibru între părtinire și varianță pentru un model eficient de învățare automată.

Acest lucru ne aduce la sfârșitul acestui articol, unde am învățat Variația de părtinire în MachIne Learning cu implementarea și utilizarea cazului său. Sper că ești clar cu tot ce ți-a fost împărtășit în acest tutorial.

Dacă ați găsit relevant acest articol despre „Variația de părtinire în învățarea automată”, consultați o companie de învățare online de încredere, cu o rețea de peste 250.000 de elevi mulțumiți răspândiți pe tot globul.

Suntem aici pentru a vă ajuta cu fiecare pas din călătoria dvs. și pentru a veni cu un curriculum care este conceput pentru studenți și profesioniști care doresc să fie un . Cursul este conceput pentru a vă oferi un început avansat în programarea Python și pentru a vă instrui atât pentru conceptele Python de bază, cât și pentru cele avansate, împreună cu diverse ca , , etc.

Dacă întâmpinați vreo întrebare, nu ezitați să vă adresați toate întrebările în secțiunea de comentarii din „Variația de părtinire în învățarea automată”, iar echipa noastră va răspunde cu plăcere.