Documente Academic
Documente Profesional
Documente Cultură
1. Reprezentarea modelului
2. Functia de cost (Cost Function)
3. Gradient Descent
Regresie Liniară
Regresia liniară - pe baza unei valori de intrare prezicem o valoare reală
ca valoare de ieșire (output).
Notații:
x - input -variabile de intrare / features
y – output -variabila de iesire / target
X - spatiul variabilelor de intrare
Y – spatiul varialilelor de iesire X=Y=R(numere reale)
m - numărul de randuri (samples) de date de antrenare – training set
(x, y) – un singur rand
(x(i),y(i)) – index in setul de date de antrenare, al i-lea rand i=1,2, 3...m
Regresia – curve fitting
Regresia este o parte centrală a învățării automate (machine learning).
Maximum Error – l∞
min ( h Θ(x) – y ) 2
Θ 0 , Θ1
Cost Function
Trebuie sa rezolvam problema de minimizare ptr toate valorile (x (i),y(i))
din setul de date de intrare de dimensiune m:
Hypothesis Function:
Parametrii:
Functia de Cost :
Scop:
Ipoteza simplificată doar Θ1
Contur plots:
Functia de cost J(Θ0,Θ1) are aceeasi valoare pe aceste elipse
Valoarea minima a lui J(Θ0,Θ1) este elipsa centrala, cea mai mica
Contur plots:
Consideram un punct pe a 3a elipsa- pct rosu: Θ0=350 si Θ1=0 – e un pct de
pe h(x) – nu e o predictie buna ptr setul de date
Valoarea functiei de cost J(Θ0,Θ1) e mai aproape de centru – se reduce
eroarea functiei de cost.
Ipoteza completă – Θ0 si Θ1
Contur plots:
Consideram un punct pe a 3a elipsa- pct rosu: Θ0=240 si Θ1=0.13 – e un
pct de pe h(x) – e o predictie buna
Gradient Descent
( minimizează alte functii, nu doar modelul regresiei liniare )
Algoritm general.
Algoritm:
Θ0 si Θ1 se modifica simultan
Regresie neliniara-Gradient Descent doar cu Θ1
Facem pasi in directia care se coboara cel mai rapid – minimizam functia
Alfa prea mic – facem pasi prea mici, algoritmul prea lent
Alfa prea mare – facem pasi prea mari, algoritmul nu mai poate gasi
minimul – nu mai converge