Documente Academic
Documente Profesional
Documente Cultură
1. Se dau următoarele date ce reprezintă pret, ul s, i tipul bateriei pentru 3 tipuri de telefoane:
Samsung, iPhone s, i Nokia.
Pret, Tip baterie Tip telefon
1000 Lithium Nokia
1424 Trust Nokia
2003 Trust Nokia
2432 Trust Nokia
3210 Trust Nokia
1426 Lithium Samsung
2243 Trust Samsung
1876 Lithium Samsung
3780 Trust Samsung
1299 Trust iPhone
1367 Lithium iPhone
4200 Lithium iPhone
4467 Lithium iPhone
Folosind metoda Naive Bayes prezicet, i tipul unui telefon al cărui pret, este 3200 lei s, i
care are baterie de tipul Lithium. Pentru a discretiza valorile pret, ului folosit, i intervalele:
(−∞, 1500), [1500, 3000), [3000, ∞).
SOLUT, IE:
n
Y
P (c | X) = P (c) P (xi | c) ,unde X = {x1 , x2 , ..., xn } cu x1 ,...,xn atribute independente
i=1
• c = Nokia
2
P (pret, = 0 | c = N okia) =
5
2
P (pret, = 1 | c = N okia) =
5
1
P (pret, = 2 | c = N okia) =
5
1
P (baterie = Lithium | c = N okia) =
5
4
P (baterie = T rust | c = N okia) =
5
• c = Samsung
1
P (pret, = 0 | c = Samsung) =
4
2
P (pret, = 1 | c = Samsung) =
4
1
P (pret, = 2 | c = Samsung) =
4
1
P (baterie = Lithium | c = Samsung) =
2
1
P (baterie = T rust | c = Samsung) =
2
• c = iPhone
2
P (pret, = 0 | c = iP hone) =
4
P (pret, = 1 | c = iP hone) = 0
2
P (pret, = 2 | c = iP hone) =
4
2
3
P (baterie = Lithium | c = iP hone) =
4
1
P (baterie = T rust | c = iP hone) =
4
Predict, ia:
Calculăm probabilitatea fiecărei clase, s, tiind că bateria este de tip Lithium, iar pret, ul
este 3200 lei: (baterie = Lithium, pret, = 3200) ≡ (baterie = Lithium, pret, = 2)
Vom prezice că telefonul este iPhone, deoarece această clasă are probabilitatea cea mai
mare.
3
2. Se dă următoarea mult, ime de antrenare:
5 3 7 8
8 4 9 11
9 4 10 8
X=
6
2 4 9
7 6 10 9
7 6 12 11
s, i etichetele corespunzătoare:
y= 1 2 2 1 2 2
Clasificat, i exemplul de test [8, 7, 6, 5] cu metoda celor mai apropiat, i vecini folosind distant, ele
L1, L2 s, i numărul de vecini k ∈ {1, 3}
SOLUT, IE:
• Folosind distant, a L1 :
Dv1 = |8 − 5| + |7 − 3| + |6 − 7| + |5 − 8| = 3 + 4 + 1 + 3 = 11
Dv2 = 0 + 3 + 3 + 6 = 12
Dv3 = 1 + 3 + 4 + 3 = 11
Dv4 = 2 + 5 + 2 + 4 = 13
Dv5 = 1 + 1 + 4 + 4 = 10
Dv6 = 1 + 1 + 6 + 6 = 14
Pentru k = 1 cel mai apropiat vecin este v5 , aflat la distant, a 10, cu eticheta cores-
punzătoare 2.
Pentru k = 3 cei mai apropiat, i vecini sunt {v5 , v3 , v1 }, aflat, i la distant, ele {10, 11, 11},
cu etichetele corespunzătoare {2, 2, 1}. Eticheta majoritară este 2.
4
• Folosind distant, a L2 :
Pentru k = 1 cel mai apropiat vecin este v5 , aflat la distant, a 34, cu eticheta cores-
punzătoare 2.
Pentru k = 3 cei mai apropiat, i vecini sunt {v5 , v3 , v1 }, aflat, i la distant, ele {34, 35, 35},
cu etichetele corespunzătoare {2, 2, 1}. Eticheta majoritară este 2.
(a) Estimat, i nota de pe IMDB a filmelor “Avengers - End Game” s, i “Finding Dory”
folosind metoda celor mai apropiat, i vecini cu distant, a L1 s, i numărul de vecini k ∈
{1, 3}, s, tiind ca la acesta au participat 7649, respectiv 6215 spectatori.
(b) S, tiind că modelul a prezis etichetele {8.16, 7.16}, iar etichetele corecte sunt {8.5, 7},
calculat, i MAE s, i MSE .
SOLUT, IE:
Pn
|ŷi −yi |
M AE = i=1
n
Pn 2
i=1 (ŷi −yi )
M SE = n
(a) Notăm exemplele din setul de antrenare cu vi , i ∈ [1, 5] s, i calculăm distant, ele de la
fiecare exemplu de test la fiecare dintre acestea:
5
• Pentru filmul “Avengers - End Game”
Dv1 = |7649 − 5000| = 2649
Dv2 = |7649 − 6500| = 1149
Dv3 = |7649 − 7500| = 149
Dv4 = |7649 − 8500| = 851
Dv5 = |7649 − 9000| = 1351
Pentru k = 1 cel mai apropiat vecin este v3 , aflat la distant, a 149, cu nota co-
respunzătoare 8. As, adar, nota prezisă va fi 8.
Pentru k = 3 cei mai apropiat, i vecini sunt {v3 , v4 , v2 }, aflat, i la distant, ele
{149, 851, 1149}, cu notele corespunzătoare {8, 9, 7.5}. Nota prezisă va fi media
lor: 8+9+7.5
3
= 8.16.
Pentru k = 1 cel mai apropiat vecin este v2 , aflat la distant, a 285, cu nota co-
respunzătoare 7.5. As, adar, nota prezisă va fi 7.5.
Pentru k = 3 cei mai apropiat, i vecini sunt {v2 , v1 , v3 }, aflat, i la distant, ele
{285, 1215, 1285}, cu notele corespunzătoare {7.5, 6, 8}. Nota prezisă va fi media
lor: 7.5+6+8
3
= 7.16.
|8.16−8.5|+|7.16−7| 0.34+0.16
M AE = 2
= 2
= 0.25
(8.16−8.5)2 +(7.16−7)2 0.11+0.02
M SE = 2
= 2
= 0.06
4. Pentru valorile de mai jos al lui ŷ s, i y, calculat, i matricea de confuzie. Pe baza matricei
de confuzie calculat, ia acuratet, ea, precizia s, i recall-ul.
ŷ = 1 2 1 3 1 1 2 1 3 3
y= 1 1 2 3 2 1 2 3 2 3
6
SOLUT, IE:
În matricea de confuzie M avem:
M (i, j) = numărul de exemple din clasa i care au fost clasificate ca fiind ı̂n clasa j
2 1 0
M = 2 1 1
1 0 2
2+1+2
Acuratet, e = 10
= 0.5
Precizie clasa c:
2 1 2
c=1⇒ 2+2+1
= 0.4 c=2⇒ 1+1+0
= 0.5 c=3⇒ 0+1+2
= 0.66
Recall clasa c:
2 1 2
c=1⇒ 2+1+0
= 0.66 c=2⇒ 2+1+1
= 0.25 c=3⇒ 1+0+2
= 0.66
SOLUT, IE:
7
(iii) w = (-3, 1, -1)
x1 − x2 − 3 = 0
Pentru x1 = 3 ⇒ x2 = 0
Pentru x1 = 6 ⇒ x2 = 3
Având punctele (3, 0) s, i (6, 3) putem determina dreapta de separare.
Dreptele de separare sunt:
Cea care maximizează marginea dintre exemplele de antrenare este cea de la (ii).
(b) Avem ecuat, ia suprafet, ei de decizie: x1 − x2 − 1.5 = 0
Pentru punctul (10, 1): 10 − 1 − 1.5 = 7.5 > 0 ⇒ 1
Pentru punctul (2, 6): 2 − 6 − 1.5 = −5.5 < 0 ⇒ 0
8
6. Având următoarea mult, ime de antrenare {[(−6), 1], [(−1), −1], [(3), −1], [(5), 1]}, folosit, i
funct, ia kernel k(x) = (x, x2 ) pentru a scufunda datele ı̂n 2D. Desenat, i punctele ı̂n noul
spat, iu s, i găsit, i ecuat, ia unei drepte de separare.
SOLUT, IE:
Datele 1D nu sunt liniar separabile.
Observăm că punctele (-4, 0) s, i (0, 10) determină o dreaptă care separă aceste exemple. De-
terminăm ecuat, ia acesteia:
y = mx + n
schimbare pe y 10−0
m = schimbare pe x
= 0−(−4) = 2.5
y − y1 = m(x − x1 )
y − 0 = 2.5(x + 4)
y = 2.5x + 10
Ecuat, ia dreptei determinate de punctele (-4, 0) s, i (0, 10) este: −2.5x + y − 10 = 0
9
7. Aplicat, i modelul Bag of Words pe exemplele de test din următorul set de date:
train data = [
“Orice copil are o jucărie preferată”,
“Acel copil ı̂s, i dorea o jucărie de plus, s, i o jucărie ros, ie”,
“Mas, ina de jucărie era a unui copil cu geacă ros, ie”
]
test data = [
“Acel copil cu geacă ros, ie ascultă muzică ı̂n mas, ina ros, ie”,
“I-am cumpărat acelui copil o mas, ină de jucărie”
]
SOLUT, IE:
Pasul 1: definirea vocabularului prin atribuirea unui id fiecărui cuvânt din setul de
antrenare:
vocabular = { “orice”: 0, “copil”: 1, “are”: 2, “o”: 3, “jucărie”: 4, “preferată”: 5, “acel”:
6, “ı̂s, i”: 7, “dorea”: 8, “de”: 9, “plus, ”: 10, “s, i”: 11, “ros, ie”: 12, “mas, ina”: 13, “era”:
14, “a”: 15, “unui”: 16, “cu”: 17, “geacă”: 18 }
1 1 1
10
SOLUT, IE:
(ŷ−y)2
loss = 2
∂loss
∂W
= (ŷ − y)x
∂loss
∂b
= (ŷ − y)
11
9. Având o ret, ea neuronală cu 2 straturi (unul ascuns s, i unul de ies, ire) vrem să rezolvăm
problema XOR. Pe primul strat avem 3 perceptroni s, i pe al doilea 1 perceptron, funct, iile
de activare sunt ReLU pentru stratul ascuns s, i sigmoid pentru stratul de ies, ire. Pornind
de la următoarele valori pentru W1 , W2 , b1 , b2 facet, i un pas forward s, i unul backward,
folosind rata de ı̂nvăt, are 0.1.
0 0 0
0 1 1
X= 1 0
y= 1
1 1 0
1 0 2
W1 = b1 = 0 0 0
2 0 1
1
W2 = 0 b2 = 0
1
SOLUT, IE:
Pasul 1: FORWARD
z1 = XW1 + b1
0 0 0 0 0
0 1 1 0 2 2 0 1
1 0 ∗ 2 0 1 + 0 0 0 = 1
z1 =
0 2
1 1 3 0 3
a1 = RELU (z1 )
0 0 0
2 0 1
a1 =
1 0 2
3 0 3
z2 = a1 W2 + b2
0 0 0 0
2 0 1 1 3
1 0 2 ∗ 0 + [0] = 3
z2 =
1
3 0 3 6
12
a2 = SIGM OID(z2 )
0.5
0.95
a2 =
0.95
0.99
Pasul 2: BACKWARD
13
∂z2 ∂(a1 W2 +b2 )
∂b2
= ∂b2
=1
0.5
−0.05
∂loss ⇒ 1 (0.5 − 0.05 − 0.05 + 0.99) = 0.34
∂b2
=
4
−0.05
0.99
0.5 0.5 0 0.5
−0.05 −0.05 0 −0.05
h i
∂loss
= ∗ 1 0 1 =
∂a1
−0.05 −0.05 0 −0.05
0.99 0.99 0 0.99
0 0 0
∂a1 ∂RELU (z1 )
1 0 1
∂z1
= ∂z1
=
1 0 1
1 0 1
0 0 0 0.5 0 0.5 0 0 0
1 0 1 −0.05 0 −0.05 −0.05 0 −0.05
∂loss ◦
∂z1
= =
1 0 1 −0.05 0 −0.05 −0.05 0 −0.05
1 0 1 0.99 0 0.99 0.99 0 0.99
14
0 0 0
−0.05 0 −0.05
∂loss 1 ∂loss 1
0 0 1 1 0.23 0 0.23
∂W1
= 4
∗ XT ∗ ∂z1
= 4
∗ ∗ =
−0.05 0 −0.05
0 1 0 1 0.23 0 0.23
0.99 0 0.99
0 0 0
−0.05 0 −0.05
h i
∂loss
1
=
⇒ 0 − 0.05 − 0.05 + 0.99 0 0 − 0.05 − 0.05 + 0.99 =
∂b1 4
−0.05 0 −0.05
0.99 0 0.99
h i
0.22 0 0.22
15