Sunteți pe pagina 1din 6

ntrebri de nivelul 1

1. 1. Ce sunt ma inile instruibile?


2. 2. De ce sunt necesare ma inile instruibile?
3. 3. Care sunt modurile de nv are a ma inilor instruibile?
4. 4. Ce tehnici sunt folosite n domeniul ma inilor instruibile?
5. 5. Cre sunt principalele aplica ii ale ma inilor instruibile?
6. 6. Care sunt principalele tipuri de nv are n funcie de diferena ntre nivelul informaiei oferite de
mediu si cel al informaiei din baza de cunotine?
7. 7. Ce sunt re elele Bayesiene?
8. 8. Da i trei exemple de msuri ale similarit ii.
9. 9. Da i trei exemple de msuri ale disimilarit ii.
10. 10. Cnd se recomand metoda celor mai apropia i k vecini?
11. 11. 1Se consider dou clase de forme reprezentate de vectorii prototip x
1
, x
2
:
x
1
= (1, -1, -1, -1, 1, 1, -1, 1)
T
x
2
= (1, 1, 1, -1, -1, 1, -1, -1)
T
S se stabileasc, folosind un criteriu de similaritate (produs scalar, cosinusul unghiului, distana
Hamming etc.) crei clase i aparine vectorul: x= (-1, -1, -1, -1, 1, 1, -1, 1,)
T
12. 12. Determinai distana euclidian i distana Hamming ntre urmtorii vectori:
x= (1, 1, 1, 1, 1)
T
y= (-1, -1, 1, -1, 1)
T
13. 13. S se calculeze unghiul dintre vectorii: v
1
=(0,1) i v
2
=(1,1)
14. 14. Fie un vector aleator xR
2
avnd realizrile:
x x x x
1 2 3 4
1
2
3
1
0
2
1
1

_
,

_
,

_
,

_
,

, , ,
S se estimeze vectorul medie
15. 15. Se consider dou clase de forme reprezentate prin vectori bidimensionali. S se traseze o
dreapt de separare a celor dou clase. Cum se poate determina aceast linie?
1 2 3 4 5
1
2
3
4
5
6 7
6
7
8 x
1
x
2
16. 16. Facei o comparaie sintetic (maximum 200 cuvinte) ntre tipurile de distane cunoscute.
17. 17. Dai un exemplu de spaiu vectorial.
18. 18. Determinai distanele euclidiene i Hamming dintre vectorii:
v
1

= [-1,-1,1,1,1]
T
v
2
= [-1,-1,-1,-1,1]
T
v
2
= [1,1,-1,-1,-1]
T
19. 19. Determina unghiul dintre vectorii:
v
1

= [-1,1,-1]
T
v
2
= [1,-1,1]
T
20. 20. Dai un exemplu de sistem complet de evenimente ipoteze n cazul aruncrii unui zar.
21. 21. Comparai concis matricea de covarian
x
i matricea de corelaie R
x
.
22. 22. Prezentai concis abordarea metric a recunoaterii formelor.
23. 23. Prezentai concis abordarea statistic a recunoaterii formelor.
24. 24. Prezentai concis abordarea neuronal a recunoaterii formelor.
25. 25. Prezentai concis abordarea sintactic a recunoaterii formelor.
26. 26. Prezentai concis abordarea fuzzy a recunoaterii formelor.
27. 27. Ce este un clasificator liniar?
28. 28. Ce este un clasificator Bayesian?
29. 29. Cum se face clasificarea bazat pe subspaii?
30. 30. Care sunt principalele tehnici de grupare?
ntrebri de nivel 2
31. 31. Prezenta i concis cutarea n spa iul versiunilor.
32. 32. Prezenta i concis arborii de decizie.
33. 33. Prezenta i concis re elele neuronale.
34. 34. Clasificri ale re elelor neuronale.
35. 35. Ca re sunt calit ile re elelor neuronale n privin a aproximrii unor func ii?
36. 36. Preyenta i concis nv area Bayesian.
37. 37. n ce const abordarea Bayesian naiv?
38. 38. Ce este supranv area i cum poate fi evitat?
39. 39. Prezenta i concis nv area bazat pe instan e.
40. 40. Prezenta i concis metoda celor mai apropia i k vecini.
41. 41. Prezenta i concis metoda nv rii cu ntrire.
42. 42. Prezenta i concis ma inile cu suport vectorial.
43. 43. Care sunt aplica iile ma inilor cu suport vectorial.
44. 44. Ce sunt func iile kernel folosite n cazul ma inilor cu suport vectorial i care e utilitatea lor?
45. 45. Ce este Data Mining?
46. 46. Care sunt principalele aplica ii ale Data Mining?
47. 47. Ce sunt depozitele de date?
48. 48. Ce tipuri de modele sunt folosite n Data Mining?
49. 49. Care sunt principalele tehnici folosite in DM?
50. 50. Prezenta i dou similarit i i dou diferen e ntre Boosting i Bagging.
Pentru fiecare din urmtorii algoritmi formula i obiectivul optimizat i arta i dac algoritmul
garanteaz gsirea ipotezei de optim global:
51. 51. Backpropagation pentru re ele cu mai multe straturi:
a) Obiectiv?
b) Optim global?
52. 52. Regula perceptronului aplicat la un singur perceptron
a) Obiectiv?
b) Optim global?
53. 53. Algoritmul FindS
a) Obiectiv?
b) Optim global?
54. 54. Ma ini cu suport vectorial
a) Obiectiv?
b) Optim global?
55. 55. Prezenta i n cte o fraz:
a) un avantaj al ID3 n raport cu backpropagation:
b) un avantaj al backpropagation n raport cu ID3
c) Un avantaj al ma inilor instruibile n raport cu perceptronii.
56. 56. S se arate c vectorii e
1
= [1,3,5]
T
e
2
= [6,3,2]
T
e
3
= [3,1,0]
T
formeaz o baz a spaiului vectorial R
3
57. 57. S se determine valorile proprii i vectorii proprii ai matricii
A

1
]
1
1
1
4 2 2
5 7 5
6 6 4
58. 58. Cnd este indicat a abordare Bayesian a recunoaterii formelor?
59. 59. Ce informaii despre spaiul formelor sunt necesare n cazul abordrii Bayesiene?
60. 60. Ce variante ale abordrii Bayesiene a recunoaterii formelor cunoatei?
61. 61. Funciile discriminant de tip Bayes sunt liniare? Comentai.
62. 62. Ce sunt clasele liniar separabile?
63. 63. Ce tehnici de mrire a relevanei informaiilor din vectorul trsturilor cunoatei?
64. 64. Rezumai n cteva fraze esena transformrii Kahunen-Loeve.
65. 65. Indicai metode de a realiza invariana recunoaterii n raport cu transformrile geometrice ale
imaginilor.
66. 66. Care sunt principalele probleme ridicate de recunoaterea scrierii cursive?
67. 67. Prezentai cteva abordri ale recunoaterii scrierii cursive.
68. 68. Dispunei de un mare numr de exemple de clase de obiecte. Ce criterii vei folosi pentru a
decide ce fel de sistem de clasificare s realizai?
69. 69. n cursul antrenrii unei reele neuronale cu un simulator constatai c eroarea nu mai scade. Ce
facei pentru a iei din aceast situaie?
70. 70. Facei o paralel succint ntre rezolvarea neuronal i rezolvarea algoritmic clasic a unei
probleme.
ntrebri de nivelul 3
71. 71. Se consider clasele
1
,
2
,
3
reprezentate prin vectorii:
x x x p e n t r u
1 2 3 1
0
1
0
2
1
0

1
]
1

1
]
1

1
]
1
, , ,
y y p e n t r u
1 2 2
2
0
1
2

1
]
1

1
]
1
,
z z z p e n t r u
1 2 3 3
0
0
0
1
1
2

1
]
1

1
]
1

1
]
1
, , ,
S se sintetizeze funcii discriminant pentru cele trei clase.
72. 72. Se consider urmtorul circuit logic combinaional (CLC):
A
B
I
C
F
SAU
S se determine funcia logic realizat.
73. 73. Se consider urmtorul circuit logic combinaional (CLC):
A
B
C
D
I
SAU
F
S se determine funcia logic realizat.
74. 74. Se consider urmtorul circuit logic combinaional (CLC):
A
B
I
C
D
F
SAU
SAU
75. 75. S se determine funcia logic realizat.
I
F
C
D
SAU
A
B
SAU
76. 76. Se consider scena de mai jos. S se fac o descompunere n forme primitive i s se
reprezinte aceast descompunere sub form de arbore i sub form de ir de caractere
77. 77. Se consider scena de mai jos. S se fac o descompunere n forme primitive i s se
reprezinte aceast descompunere sub form de arbore i sub form de sir de caractere
A
B
78. 78. Se consider scena de mai jos. S se fac o descompunere n forme primitive i s se
reprezinte aceast descompunere sub form de arbore i sub form de sir de caractere
79. 79. Se consider scena de mai jos. S se fac o descompunere n forme primitive i s se
reprezinte aceast descompunere sub form de arbore i sub form de sir de caractere
80. 80. Se consider neuronul simplu de tip perceptron de mai jos. Considernd ca funcie de
activare funcia treapt (Heaviside), i intrri binare (0,1), s se determine funcia logic
simulat.
x
1
x
2
1
1
=2
y
81. 81. Se consider neuronul simplu de tip perceptron de mai jos. Considernd ca funcie de
activare funcia treapt (Heaviside), i intrri binare (0,1), s se determine funcia logic
simulat.
x
1
x
2
1
1
=1
y
82. 82. Se consider neuronul simplu de tip perceptron de mai jos. Considernd ca funcie de
activare funcia treapt (Heaviside), i intrri binare (0,1), s se determine funcia logic
simulat.
1
1
1
1
= 4
x
1
x
2
x
3
x
4
y
83. 83. Se consider neuronul simplu de tip perceptron de mai jos. Considernd ca funcie de
activare funcia treapt (Heaviside), i intrri binare (0,1), s se determine funcia logic
simulat.
1
1
1
1
= 1
x
1
x
2
x
3
x
4
y
84. 84. Se consider neuronul simplu de tip perceptron de mai jos. Considernd ca funcie de
activare funcia treapt bipolar, i intrri bipolare (-1,1), s se determine funcia logic
simulat.
x
1
x
2
y
1
1
1
1
= 1
= -1
= 1
1
-1
85. 85. Se consider neuronul simplu de tip perceptron de mai jos. Considernd ca funcie de
activare funcia treapt (Heaviside), i intrri binare (0,1), s se determine funcia logic
simulat.
x
1
x
2
1
1
1
1
=1.5 =0.5
-2
y

S-ar putea să vă placă și