Sunteți pe pagina 1din 2

GPU vs CPU.

Diferențe performanță

Este folosirea versiunii GPU o alegere eficientă pentru utilizarea rețelelor neuronale? Se pare
că aceasta poate fi o alegere foarte bună, mai ales atunci când ai la dispoziție o placă video
potrivită.

În cazul nostru am putut folosi foarte usor plăcile video NVIDIA pentru a rula un program de
previzionare a vânzărilor. Am folosit NVIDIA GeForce GTX 1080 Ti și NVIDIA GeForce GTX
950M pentru a putea analiza diferențele de performanță dintre cele două si varianta CPU.

Activitatea de previziune s-a bazat pe evenimentele observate în intervalul de timp 2013-2017 și


a avut drept scop anticiparea vânzărilor în urmatoarele 3 luni. Aceste date se referă la cantitățile
zilnice vândute în 10 magazine pe o gamă de 50 de produse. Cele 913000 de înregistrări au fost
rulate în 30 de cicluri, fiecare ciclu fiind optimizat de 1000 de ori.

Programul utilizează mai multe feature-uri, precum vânzările lunare, săptămânale sau zilnice.
Aceastea ne ajută la găsirea unor pattern-uri în setul de date și implicit la îmbunătățirea
performanțelor programului.

Pentru rularea programului am utilizat 3 variante:

 CPU version /processsor Intel® Core™ I7-8700, 12 Cache, up to 4.60 GHz


 GPU1 version/GeForce GTX 1080 Ti, 11GB
 GPU2 version/GeForce GTX 950 M

Astfel, timpii necesari rularii au fost:

 CPU version: 1h 50’


 GPU1 version: 49’
 GPU2 version: 2h 2’

Așadar, în urma testării celor 3 variante am putut observa existența unui timp de procesare mult
mai bun în prelucrarea datelor prin utilizarea placii video GeForce GTX 1080 Ti, 11GB. Dacă
în cazul variantelor CPU si GPU2 nu se observă o diferență semnificativă, utilizand GeForce
GTX 1080 Ti ne permite obținerea unui timp de rulare al programului de două ori mai scurt.
Acesta s-a dovedit a fi cel mai eficient în lucrul cu seturi mari de date, ușurând în mod vizibil
munca unui Data Scientist.

Erorile dintre valorile previzionate și valorile reale variază între 1% și 6%, în funcție de
caracteristicile folosite. Rezultatele obtinute au avut astfel o acuratete destul de mare pentru a
putea fi utilizate pe cazuri reale, ce implica o cantitate mare de date si implicit un timp destul de
mare necesar procesării.
Concluzia
Dacă lucrezi cu date cu volum mare ar trebui să iei in considerare utilizarea GPU-ului, chiar dacă
folosești un laptop. NVIDIA este o alegere bună pentru Data Science, iar dacă te gasești în
situația de a lua o decizie în această direcție ar trebui să iei în considerare placa video GeForce
GTX 1080 Ti, 11GB.

S-ar putea să vă placă și