Documente Academic
Documente Profesional
Documente Cultură
Profesor coordonator
Masterand
Florescu Iulian
Master IISC
Cuprins
1. Istoric
a. Relatia cu Google
2. Metode de optimizare
a. Indexare
b. Crawling
c. Cresterea importantei
4. Concluzii
Relatia cu Google
Larry Page si Sergey Brin fondat Google n 1998. Google a atras un grup
loial n rndul numrului tot mai mare de utilizatori de Internet, carora le-au placut
un design simplu. Atat factorii off-page (cum ar fi PageRank i analiza hyperlinkurilor) au fost considerate cat si factori on-page (cum ar fi frecvena de cuvinte
cheie, meta tag-uri, titluri, link-uri i structura site-ului) pentru a permite Google
sa evite un fel de manipulare vzuta n motoarele de cutare, care numai
considerau doar factorii on-page in sitemul lor de clasament. Dei PageRank a
fost mai dificil de realizat, webmasterii au dezvoltat deja unelte de link building
i scheme de a influena motorul de cutare Inktomi, i cu condiia aplicabil n
mod similar cu PageRank jocuri de noroc aceste metode. Multe site-uri axat pe
schimbul de, cumpararea, i vnzarea link-uri, de multe ori pe o scar masiv.
Unele dintre aceste sisteme, sau ferme link-ul, implicat crearea a mii de site-uri
pentru unicul scop de a link-spam. [3]
Pn n 2004, motoarele de cutare au incorporat o gam larg de factori
care nu sunt divulgati n algoritmii lor de clasare pentru a reduce impactul
manipularii link-urilor. n iunie 2007, The New York Times, Saul Hansell a
declarant: Google claseaz site-uri, folosind mai mult de 200 de semnale diferite.
Cele mai importante motoare de cutare, Google, Bing si Yahoo, nu dezvluie
algoritmii pe care le folosesc pentru a clasifica paginile.
In anul 2005, Google a nceput personalizarea rezultatelor cutrii pentru
fiecare utilizator. n funcie de istoricul lor de cutrile anterioare, Google retruna
rezultate pentru utilizatorii logati. n 2008, Bruce Clay a spus c "ranking is dead"
din cauza cautarilor personalizate. El a apreciat c aceasta ar deveni lipsit de sens,
pentru a discuta modul n care un site web clasat, deoarece rangul lui ar fi diferit
pentru fiecare utilizator i fiecare cutare.
n 2007, Google a anunat o campanie mpotriva link-uri pltite prin care
se transfer PageRank. La 15 iunie 2009, Google a dezvluit faptul c au luat
msuri pentru a atenua efectele PageRank prin utilizarea atributului no-follow pe
link-uri. n decembrie 2009, Google a anunat c va folosi istoricul cutrilor web
a tuturor utilizatorilor si n scopul de a popula rezultatele de cutare.
In data de 8 iunie 2010 a fost anunat un nou sistem web indexare numit
Google Caffeine. Conceput pentru a permite utilizatorilor s gseasc rezultate
tiri, mesaje i alte tipuri de coninut mult mai devreme dup publicarea dect
nainte, Google Caffeine a fost o schimbare a modului Google actualizat indexul
su, n scopul de a face lucrurile apar mai repede pe Google dect nainte. Potrivit
lui Carrie Grimes, inginerul software care a anunat Caffeine pentru Google, "
Caffeine ofer rezultate cu 50 la sut mai recente pentru cutrile pe web dect
indexul nostru ..." [4]
n februarie 2011, Google a anunat actualizarea Panda, care penalizeaz
site-uri cu coninut duplicat de pe alte site-uri i surse. Punct de vedere istoric siteuri au copiat coninut de pe unul de cellalt i au beneficiat n clasamentul motor
de cutare prin angajarea n aceast practic, cu toate acestea Google a
implementat un nou sistem care pedepsete site-uri al cror coninut nu este unic.
In 2012 Google Penguin a ncercat s penaliza site-uri care au utilizat
tehnici de manipulare pentru a mbunti locul lor n clasament pe motorul de
cutare, iar actualizarea 2013 Google Hummingbird prezentate o schimbare
algoritm conceput pentru a mbunti procesarea limbajului natural Google i
nelegerea semantic a paginilor web.
Prevenirea crawling
Pentru a evita un coninut nedorit n indici de cutare, webmasterii pot
instrui pianjeni s nu se adune anumite fiiere sau directoare prin intermediul
fiierului robots.txt standard, n directorul rdcin al domeniului. In plus, o
pagin poate fi exclus n mod explicit din baza de date unui motor de cutare cu
ajutorul unui meta tag specific. Atunci cnd un motor de cutare viziteaz un site,
fisierul robots.txt localizat n directorul rdcin este primul fiier citit. Fiierul
robots.txt este apoi analizat i va instrui robotul cu privire la care paginile
respective, care nu vor fi luate de crawler. Crawler-ul motorului de cutare poate
s pstreze o copie cache a acestui fiier. Paginile de obicei care nu se doresc a fi
adunate includ pagini cum ar fi crucioarele de cumprturi i coninutul specific
utilizatorului, detalii de securitate din paginile de login, cum ar fi rezultatele de
cutare din cutrile interne. n martie 2007, Google a avertizat webmasteri c
acestea ar trebui s mpiedice indexarea rezultatelor cutrii interne, deoarece
aceste pagini sunt considerate spam.
Cresterea importantei
O varietate de metode pot crete proeminena unei pagini web n cadrul
rezultatelor cutrii. Cross-link-urile ntre paginile ale aceluiai site ofera mai
multe legturi ctre pagini si pot mbunti vizibilitatea in cadrul cautarilor.
Includerea in continutul paginii a unui cuvant cheie sau a unei expresii des cautate
sporeste vizibilitatea. Actualizarea coninutului, astfel nct s menin motoarele
de cutare crawling napoi frecvent poate da o greutate suplimentar la un site.
Adugarea cuvinte cheie relevante pentru meta-date la o pagin Web, inclusiv
tag-ul titlu i descrierea meta, vor avea tendina de a mbunti relevana listrii
de cutare pe un site, sporind astfel de traficul. [8]
Tehnici white hat vs tehnici black hat
Tehnicile SEO pot fi clasificate n dou mari categorii: tehnici pe care
motoarele de cutare recomanda ca parte a unui design bun, i acele tehnici de
care motoarele de cutare nu sunt de acord. Motoarele de cutare ncearc s
minimizeze efectul acestora, printre care spamdexing. Comentatori din industrie
au clasificat aceste metode, i practicanii care i angajeaz, fie ca White-Hat SEO,
sau Black-Hat SEO. [5] White-Hat tind s produc rezultate care sa dureze o lung
perioad de timp, n timp ce Black-Hat anticipeaza c site-urile lor pot fi n cele
din urm interzis temporar sau permanent o dat ce motoarele de cutare
descopera ceea ce fac.
O tehnica de SEO este considerat white hat, dac aceasta este conform
cu liniile directoare motoarele de cutare i nu implic nelciune. Pentru ca
bun pentru a arta mai nti. Pentru a fi gsit, va trebui s fie n carte. Pentru a fi
n carte, va trebui s fie adunat.
Cele mai multe site-uri, n general, nu au probleme de crawling, dar sunt
lucruri care pot cauza probleme. De exemplu, JavaScript sau Flash poate ascunde
poteniale legturi; ceea ce face ca paginile acestor link-uri sa conduca ascundera
de motoarele de cutare.
Fiecare site este administrat un crawl budget, o cantitate de aproximativ de
timp sau pagini pe care un motor de cutare il va aduna n fiecare zi, n funcie
de ncrederea relativ i autoritatea unui site. Site-uri mai mari pot ncerca s
mbunteasc eficiena lor crawl pentru a asigura faptul c paginile importante
sunt adunate mai des. Utilizarea robots.txt, structura interna a link-urilor i
anuntand special motoarele de cutare sa nu adune pagini cu parametri URL
special definiti pot mbunti eficiena crawl. n plus, este bine s se foloseasc
sitemap, HTML si XML, pentru a facilita motoarelor de cutare accesul cu
crawlere la site. [6]
Dublarea / Canonizarea
Uneori, in acea carte mare, indexul de cutare, devine dezordonat.
Rasfoind prin ea, un motor de cutare ar putea gsi pagin dup pagin dup
pagin a ceea ce arata ca, practic, acelai coninut, ceea ce face mai dificil s dau
seama care dintre aceste multe pagini ar trebui s se ntoarc pentru o anumit
cutare. Acest lucru nu este bun.
Acest lucru devine chiar mai ru dac oamenii leag n mod activ la diferite
versiuni ale aceleiai pagini. Aceste legturi, un indicator de ncredere i
autoritate, sunt dintr-o dat mprit ntre aceste versiuni. Rezultatul este o
percepie distorsionat a utilizatorului asupra adevrate care au fost alocate
paginii. De aceea, canonizarea este att de importanta: daca dorii doar o versiune
a unei pagini s fie disponibil pentru motoarele de cutare. [6]
Mobile Friendly
Mai multe cutri Google au loc pe dispozitive mobile dect pe desktop.
Avnd n vedere acest lucru, nu este de mirare ca Google recompenseaza siteurile care sunt pentru mobil cu o ans de o mai bun in clasamentele din cutrile
pe mobil n timp ce cele care nu sunt, au un punctaj mai mic in cadrul cautarilor.
Bing, de asemenea, face acelai lucru. [6]
Viteza Site-ului
Google vrea s fac pe web un loc mai rapid i a declarat c site-urile rapide
a obine un mic avantaj asupra site-urilor mai lente.
Cu toate acestea, ceea ce face site-ul dvs. vezicule rapid nu este o plimbare
garantat n mod expres la partea de sus a rezultatelor cutrii. Viteza este un factor
minor care are impact doar 1 din 100 de interogri n funcie de Google, dar
angrenare (i conversia) de pe un site poate da un timp de ncrcare rapid.
Sunt URL-uri descriptive?
Avand cuvintele pe care dorii s fie gsite pentru domeniu sau adresele
URL ale paginilor pot ajuta perspectivele de rang. Nu este un factor major, dar
are sens sa fie cuvinte descriptive n adresele URL.
HTTPS / Secure Site
Google ar dori s vad ntregul web ca functioneaza pe servere HTTPS, n
scopul de a oferi o mai bun securitate a web-ului. Pentru a ajuta la realizarea
acestui lucru, se recompenseaz site-urile care folosesc HTTPS, cu un mic impuls
in clasament.
Ca i n cazul crete viteza site-ului, acesta este doar unul dintre numeroii
factori pe care Google ii utilizeaz atunci cnd decide dac o pagin web are sau
nu un rang bun. Nu garanteaz n sine intrarea n rezultatele de top. Dar dac te
gndeti care ruleaz un site securizat, oricum, atunci acest lucru ar putea ajuta
contribui la succesul dvs. de cutare general. [6]
Concluzii
In aceasta lucrare am prezentat ideile de baza ale SEO si cum
poate fi imbunatatita structura unei pagini web pentru a fi pe placul unui
motor de cautare. Se deosebesc doua tipuri de abordari in optimizarea
paginilor web, cea orientate spre utilizator, in care continutul este
optimizat pentru a conduce a un ranking mai bun si cea in care se