Documente Academic
Documente Profesional
Documente Cultură
Pe parcursul laboratorului se vor analiza RNA doar din perspectiva utilizării acestora în
probleme de clasificare, utilizând cea mai simplă structură: neuronul clasificator
(perceptronul). Perceptronul poate fi utilizat în clasificarea obiectelor specificate la
intrare în două clase.
𝑥1 , ⋯ 𝑥𝑛 – intrări
𝑤1 , ⋯ 𝑤𝑛 – ponderi
T – prag de activare
Neuronii artificiali utilizează diferite funcții de activare printre care se numără funcții de
tip treaptă, rampă, sigmoid etc. Neuronii clasificatori vor avea întotdeaua funcția de
activare de tip treaptă, cu răspunsul posibil 0 sau 1, reprezentând cele două clase de
apartenență în care se urmărește clasificarea vectorului de intrare.
𝑛𝑒𝑡 = ∑(𝑥𝑖 ∙ 𝑤𝑖 )
𝑖=1
TIA/L3 - 1
TIA – Laborator 3 (RNA)
Ieșirea sumatorului este transmisă mai departe către funcția de activare care acceptă, pe
lângă intrarea net, încă o intrare de valoare constantă -1, ponderată cu pragul de
activare T.
TIA/L3 - 2
TIA – Laborator 3 (RNA)
Aplicație
Să se antreneze un neuron clasificator cu trei intrări și funcție de activare tip
treaptă, pornind de la ponderile:
𝑤1 (0) = 0,1
𝑤2 (0) = 0,1
𝑤3 (0) = 0,1
Valoarea de prag este T = - 0,02, iar rata de învățare η = 0,7.
Să se realizeze o epocă a procesului de învățare folosind următorul set de
exemple:
M 𝒙𝟏 𝒙𝟐 𝒙𝟑 d
1 0,1 0,1 0,2 0
2 0,1 0,1 0,1 0
3 0,4 0,4 0,3 1
4 0,3 0,3 0,4 1
5 0,5 0,4 0,5 1
Rezolvare
Epoca 0
Exemplul 1
𝑦1 (0) = 𝑓(𝑥1 ∙ 𝑤1 (0) + 𝑥2 ∙ 𝑤2 (0) + 𝑥3 ∙ 𝑤3 (0) − 𝑇(0)) =
= 𝑓(0,1 ∙ 0,1 + 0,1 ∙ 0,1 + 0,2 ∙ 0,1 − (−0,02)) = 𝒇(𝟎, 𝟎𝟔)
0,06 > 0 → 𝑓(0,06) = 1 → 𝒚𝟏 (𝟎) = 𝟏 ≠ 𝒅𝟏
Așadar, trebuie să actualizăm ponderile și pragul de activare:
𝑤1 (1) = 𝑤1 (0) + 𝜂 ∙ [𝑑1 − 𝑦1 (0)] ∙ 𝑥1 = 0,1 + 0,7 ∙ (0 − 1) ∙ 0,1 = 𝟎, 𝟎𝟑
𝑤2 (1) = 𝑤2 (0) + 𝜂 ∙ [𝑑1 − 𝑦1 (0)] ∙ 𝑥2 = 0,1 + 0,7 ∙ (0 − 1) ∙ 0,1 = 𝟎, 𝟎𝟑
𝑤3 (1) = 𝑤3 (0) + 𝜂 ∙ [𝑑1 − 𝑦1 (0)] ∙ 𝑥3 = 0,1 + 0,7 ∙ (0 − 1) ∙ 0,1 = −𝟎, 𝟎𝟒
𝑇(1) = 𝑇(0) + 𝜂 ∙ [𝑑1 − 𝑦1 (0)] ∙ (−1) = −0,02 + 0,7 ∙ (0 − 1) ∙ (−1) = 𝟎, 𝟔𝟖
Exemplul 2
𝑦2 (1) = 𝑓(𝑥1 ∙ 𝑤1 (1) + 𝑥2 ∙ 𝑤2 (1) + 𝑥3 ∙ 𝑤3 (1) − 𝑇(1)) =
= 𝑓(0,1 ∙ 0,03 + 0,1 ∙ 0,03 + 0,1 ∙ (−0,04) − 0,68) = 𝒇(−𝟎, 𝟔𝟖𝟐)
−0,682 < 0 → 𝑓(−0,682) = 0 → 𝒚𝟐 (𝟏) = 𝟎 = 𝒅𝟐
Deoarece ieșirea calculată este egală cu ieșirea așteptată, nu mai este necesară
actualizarea valorilor ponderilor și a pragului:
𝑤1 (2) = 𝑤1 (1) = 𝟎, 𝟎𝟑
𝑤2 (2) = 𝑤2 (1) = 𝟎, 𝟎𝟑
𝑤3 (2) = 𝑤3 (1) = −𝟎, 𝟎𝟒
𝑇(2) = 𝑇(1) = 𝟎, 𝟔𝟖
Exemplul 3
𝑦3 (2) = 𝑓(𝑥1 ∙ 𝑤1 (2) + 𝑥2 ∙ 𝑤2 (2) + 𝑥3 ∙ 𝑤3 (2) − 𝑇(2)) =
= 𝑓(0,4 ∙ 0,03 + 0,4 ∙ 0,03 + 0,3 ∙ (−0,04) − 0,68) = 𝒇(−𝟎, 𝟔𝟔𝟖)
TIA/L3 - 3
TIA – Laborator 3 (RNA)
Exemplul 4
𝑦4 (3) = 𝑓(𝑥1 ∙ 𝑤1 (3) + 𝑥2 ∙ 𝑤2 (3) + 𝑥3 ∙ 𝑤3 (3) − 𝑇(3)) =
= 𝑓(0,3 ∙ 0,31 + 0,3 ∙ 0,31 + 0,4 ∙ 0,17 − (−0,02)) = 𝒇(𝟎, 𝟐𝟕𝟒)
0,274 > 0 → 𝑓(0,274) = 1 → 𝒚𝟒 (𝟑) = 𝟏 = 𝒅𝟒
Deoarece ieșirea calculată este egală cu ieșirea așteptată, nu mai este necesară
actualizarea valorilor ponderilor și a pragului:
𝑤1 (4) = 𝑤1 (3) = 𝟎, 𝟑𝟏
𝑤2 (4) = 𝑤2 (3) = 𝟎, 𝟑𝟏
𝑤3 (4) = 𝑤3 (3) = 𝟎, 𝟏𝟕
𝑇(4) = 𝑇(3) = −𝟎, 𝟎𝟐
Exemplul 5
𝑦5 (4) = 𝑓(𝑥1 ∙ 𝑤1 (4) + 𝑥2 ∙ 𝑤2 (4) + 𝑥3 ∙ 𝑤3 (4) − 𝑇(4)) =
= 𝑓(0,5 ∙ 0,31 + 0,4 ∙ 0,31 + 0,5 ∙ 0,17 − (−0,02)) = 𝒇(𝟎, 𝟑𝟖𝟒)
0,384 > 0 → 𝑓(0,384) = 1 → 𝒚𝟓 (𝟒) = 𝟏 = 𝒅𝟓
Deoarece ieșirea calculată este egală cu ieșirea așteptată, nu mai este necesară
actualizarea valorilor ponderilor și a pragului:
𝑤1 (5) = 𝑤1 (4) = 𝟎, 𝟑𝟏
𝑤2 (5) = 𝑤2 (4) = 𝟎, 𝟑𝟏
𝑤3 (5) = 𝑤3 (4) = 𝟎, 𝟏𝟕
𝑇(5) = 𝑇(4) = −𝟎, 𝟎𝟐
TIA/L3 - 4