Sunteți pe pagina 1din 2

Machine Learning - Testul 2 Laborator

22 decembrie 2022, 3E3 și 3E4

1. [Adaboost] Enunțați modul în care Adaboost calculează ponderea clasificatorului slab, cât și formula de actualizare a distribuției
de probabilitate. (0.5 puncte)

2. [Adaboost] Pentru un set de date cu două etichete (+1 și -1), care va fi eroarea pe care Adaboost o va asigna la iterația t + 1
clasificatorului ales la iterația t? Justificați. (0.5 puncte)

3. [Adaboost] Descrieți în cuvintele voastre modul în care Adaboost actualizează distribuția de probabilitate. Explicați rațiunea din
spatele acestei metode de actualizare. (0.5 puncte)

4. [Ierarhic] Dată fiind următoarea dendogramă, determinați partiționarea de 4 clustere. (0.15 puncte)

5. [Ierarhic] În urma aplicării clusterizării ierarhice (sau aglomerative) cu average linkage, clusterele C și C urmează să fie unite.
1 2

Cum veți calcula d(C ∪ C , C ), știind că C este un alt cluster? Veți fi punctați integral dacă formula va depinde de d(C , C ) și
1 2 3 3 1 3

d(C , C ). (0.5 puncte)


2 3

6. [Ierarhic] Fie următoarea matrice de distanță. Calculați rezultatul produs de clusterizarea ierarhică pentru cele trei tipuri de linkage
după două iterații (ar trebui să obțineți 3 clustere). (1.35 puncte)
AB CD E F G H
AB --- --- --- --- --- ---
CD 2 --- --- --- --- ---
E 3 1 --- --- --- ---
F 4 1.5 7 --- --- ---
G 5 5 8 9 --- ---
H 5 7 5 3 2.5 ---

7. [kMeans] Numiți o limitare a criteriului J. (0.2 puncte)

8. [kMeans] Se dă următoarea bucată de cod Python. Afișați rezultatul obținut în urma rulării. Justificați modul în care ați ajuns la
acest rezultat. (0.75 puncte)

9. [kMeans] Folosind același set de date și punctul [2, 2] ca valoare pentru primul centroid, determină, folosind kmeans++ , valorile
celorlalți doi. Afișați rezultatul codului anterior dacă actualizăm linia 16 cu valorile noilor centroizi. Care dintre cele două rulări
obține rezultate mai bune? De ce? (1.15 puncte)

10. [kMeans] Numiți două dezavantaje ale algoritmului k-Means. (0.4 puncte)

S-ar putea să vă placă și