Sunteți pe pagina 1din 10

Search Engine Optimization

Profesor coordonator

Masterand

Conf. Dr. Ing. Stefan Stancescu

Florescu Iulian
Master IISC

Cuprins
1. Istoric

a. Relatia cu Google

2. Metode de optimizare

a. Indexare

b. Crawling

c. Cresterea importantei

3. Arhitectura paginii web si factori de success pentru SEO

4. Concluzii

Optimizare pentru motoare de cutare sau Search Engine Optimization


(SEO), este un proces de perfecionare (favorizare) a vizibilitii site-urilor web
sau paginilor web n cadrul ordonrii rezultatelor cutrii n lista fcut de motorul
de cutare. SEO a aprut n anul 1990, odat cu apariia primelor site-uri pe
Internet, i care reprezint totalitatea tehnicilor prin care un site web este adus la
o form n care este propulsat mai sus n lista de rezultate date de un motor de
cutare pentru diverse cuvinte-cheie. Cu timpul, optimizarea unei pagini web a
unui site a devenit un serviciu oferit de unele companii i/sau corporaii.
Webmaster-ii i furnizorii de coninut au nceput s optimizeze situri pentru
motoarele de cutare ncepand de la mijlocul anilor 1990, cand primele motoare
de cutare catalogau reeaua Web timpurie.
Iniial tot ce trebuia fcut de webmasteri era s adauge pagina, sau URL, la
diferitele motoare de cutare, care trimiteau un "paianjen" (en: "spider") pentru a
"se tr" (en: "crawl") prin pagin, extrage legaturi ctre alte pagini i s returneze
informaiile de pe o pagin pentru a fi indexate. Procesul presupune copierea
paginii de ctre paianjeni i stocarea pe propriile servere, unde un al doilea
program, numit "indexator " (en: "indexer"), extrage diferite informaii despre
pagin, precum cuvintele coninute i locul lor n pagin, precum i orice ponderi
pentru cuvinte specifice, dar i legaturile ctre alte pagini, care sunt adugate
printr-o manier de programare care le face adecvate pentru trre la o dat
ulterioar. [1]
Proprietarii de situri au nceput s recunoasc valoarea clasificrii
superioare i a vizibilitii, crend o oportunitate pentru practicanii SEO "white
hat" (plrie alb) i "black hat" (plrie neagr).
Printre "White hat" se numr acele companii care folosesc tehnici
considerate "legale" pentru promovarea site-urilor n cadrul motoarelor de
cutare. n mare parte, acestea se bazeaz pe optimizri aduse structurii paginilor
coninute n cadrul site-ului pentru a fi corect interpretate i evaluate de algoritmii
de atribuire a rangurilor folosite de motoarele de cutare.
Un numr mare de bloguri i de forumuri de discuii au aprut, inclusiv n
limba romna, care ofer creatorilor de site-uri ndrumri i sfaturi referitoare la
cum trebuie construite paginile web pentru a fi optimizate din punct de vedere al
motoarelor de cutare.
Cea mai devreme folosire a frazei "search engine optimization" a fost ntrun mesaj spam postat pe Usenet pe data de 26 Iunie 1997 [2]

Relatia cu Google
Larry Page si Sergey Brin fondat Google n 1998. Google a atras un grup
loial n rndul numrului tot mai mare de utilizatori de Internet, carora le-au placut
un design simplu. Atat factorii off-page (cum ar fi PageRank i analiza hyperlinkurilor) au fost considerate cat si factori on-page (cum ar fi frecvena de cuvinte
cheie, meta tag-uri, titluri, link-uri i structura site-ului) pentru a permite Google
sa evite un fel de manipulare vzuta n motoarele de cutare, care numai
considerau doar factorii on-page in sitemul lor de clasament. Dei PageRank a
fost mai dificil de realizat, webmasterii au dezvoltat deja unelte de link building
i scheme de a influena motorul de cutare Inktomi, i cu condiia aplicabil n
mod similar cu PageRank jocuri de noroc aceste metode. Multe site-uri axat pe
schimbul de, cumpararea, i vnzarea link-uri, de multe ori pe o scar masiv.
Unele dintre aceste sisteme, sau ferme link-ul, implicat crearea a mii de site-uri
pentru unicul scop de a link-spam. [3]
Pn n 2004, motoarele de cutare au incorporat o gam larg de factori
care nu sunt divulgati n algoritmii lor de clasare pentru a reduce impactul
manipularii link-urilor. n iunie 2007, The New York Times, Saul Hansell a
declarant: Google claseaz site-uri, folosind mai mult de 200 de semnale diferite.
Cele mai importante motoare de cutare, Google, Bing si Yahoo, nu dezvluie
algoritmii pe care le folosesc pentru a clasifica paginile.
In anul 2005, Google a nceput personalizarea rezultatelor cutrii pentru
fiecare utilizator. n funcie de istoricul lor de cutrile anterioare, Google retruna
rezultate pentru utilizatorii logati. n 2008, Bruce Clay a spus c "ranking is dead"
din cauza cautarilor personalizate. El a apreciat c aceasta ar deveni lipsit de sens,
pentru a discuta modul n care un site web clasat, deoarece rangul lui ar fi diferit
pentru fiecare utilizator i fiecare cutare.
n 2007, Google a anunat o campanie mpotriva link-uri pltite prin care
se transfer PageRank. La 15 iunie 2009, Google a dezvluit faptul c au luat
msuri pentru a atenua efectele PageRank prin utilizarea atributului no-follow pe
link-uri. n decembrie 2009, Google a anunat c va folosi istoricul cutrilor web
a tuturor utilizatorilor si n scopul de a popula rezultatele de cutare.
In data de 8 iunie 2010 a fost anunat un nou sistem web indexare numit
Google Caffeine. Conceput pentru a permite utilizatorilor s gseasc rezultate
tiri, mesaje i alte tipuri de coninut mult mai devreme dup publicarea dect
nainte, Google Caffeine a fost o schimbare a modului Google actualizat indexul
su, n scopul de a face lucrurile apar mai repede pe Google dect nainte. Potrivit

lui Carrie Grimes, inginerul software care a anunat Caffeine pentru Google, "
Caffeine ofer rezultate cu 50 la sut mai recente pentru cutrile pe web dect
indexul nostru ..." [4]
n februarie 2011, Google a anunat actualizarea Panda, care penalizeaz
site-uri cu coninut duplicat de pe alte site-uri i surse. Punct de vedere istoric siteuri au copiat coninut de pe unul de cellalt i au beneficiat n clasamentul motor
de cutare prin angajarea n aceast practic, cu toate acestea Google a
implementat un nou sistem care pedepsete site-uri al cror coninut nu este unic.
In 2012 Google Penguin a ncercat s penaliza site-uri care au utilizat
tehnici de manipulare pentru a mbunti locul lor n clasament pe motorul de
cutare, iar actualizarea 2013 Google Hummingbird prezentate o schimbare
algoritm conceput pentru a mbunti procesarea limbajului natural Google i
nelegerea semantic a paginilor web.

Metode de optimizare Indexarea


Cele mai importante motoare de cutare, precum Google, Bing i Yahoo !,
utilizeaza crawlere pentru a gsi pagini pentru rezultatele lor in algoritmii de
cautare. Paginile care sunt legate de paginile indexate ale altor motoare de cutare,
nu trebuie s fie incrcate, deoarece acestea sunt gsite n mod automat. Dou
directoare majore, directorul Yahoo i DMOZ, ambele necesit prezentarea
manual i revizuire editorial umana. Google ofer Google Search Console,
pentru care un XML Sitemap poate fi creat i prezentat pentru a se asigura c toate
paginile sunt gsite. [8]
Crawlerele motorului de cutare se pot uita la o serie de factori diferii,
atunci cnd fac crawling unui site. Nu orice pagina este indexat de motoarele de
cutare. Distanta de pagini din directorul rdcin al unui site poate fi, de
asemenea, un factor dac pagina este sau nu indexata.
Indexarea se face in doua etape: intai este analizat textul care urmeaza a fi
indexat a afla termenii din interiorul lui, in a doua etapa se construieste indexul
ce va fi cautat pentru a genera raspunsul numit index invers

Prevenirea crawling
Pentru a evita un coninut nedorit n indici de cutare, webmasterii pot
instrui pianjeni s nu se adune anumite fiiere sau directoare prin intermediul
fiierului robots.txt standard, n directorul rdcin al domeniului. In plus, o

pagin poate fi exclus n mod explicit din baza de date unui motor de cutare cu
ajutorul unui meta tag specific. Atunci cnd un motor de cutare viziteaz un site,
fisierul robots.txt localizat n directorul rdcin este primul fiier citit. Fiierul
robots.txt este apoi analizat i va instrui robotul cu privire la care paginile
respective, care nu vor fi luate de crawler. Crawler-ul motorului de cutare poate
s pstreze o copie cache a acestui fiier. Paginile de obicei care nu se doresc a fi
adunate includ pagini cum ar fi crucioarele de cumprturi i coninutul specific
utilizatorului, detalii de securitate din paginile de login, cum ar fi rezultatele de
cutare din cutrile interne. n martie 2007, Google a avertizat webmasteri c
acestea ar trebui s mpiedice indexarea rezultatelor cutrii interne, deoarece
aceste pagini sunt considerate spam.
Cresterea importantei
O varietate de metode pot crete proeminena unei pagini web n cadrul
rezultatelor cutrii. Cross-link-urile ntre paginile ale aceluiai site ofera mai
multe legturi ctre pagini si pot mbunti vizibilitatea in cadrul cautarilor.
Includerea in continutul paginii a unui cuvant cheie sau a unei expresii des cautate
sporeste vizibilitatea. Actualizarea coninutului, astfel nct s menin motoarele
de cutare crawling napoi frecvent poate da o greutate suplimentar la un site.
Adugarea cuvinte cheie relevante pentru meta-date la o pagin Web, inclusiv
tag-ul titlu i descrierea meta, vor avea tendina de a mbunti relevana listrii
de cutare pe un site, sporind astfel de traficul. [8]
Tehnici white hat vs tehnici black hat
Tehnicile SEO pot fi clasificate n dou mari categorii: tehnici pe care
motoarele de cutare recomanda ca parte a unui design bun, i acele tehnici de
care motoarele de cutare nu sunt de acord. Motoarele de cutare ncearc s
minimizeze efectul acestora, printre care spamdexing. Comentatori din industrie
au clasificat aceste metode, i practicanii care i angajeaz, fie ca White-Hat SEO,
sau Black-Hat SEO. [5] White-Hat tind s produc rezultate care sa dureze o lung
perioad de timp, n timp ce Black-Hat anticipeaza c site-urile lor pot fi n cele
din urm interzis temporar sau permanent o dat ce motoarele de cutare
descopera ceea ce fac.
O tehnica de SEO este considerat white hat, dac aceasta este conform
cu liniile directoare motoarele de cutare i nu implic nelciune. Pentru ca

regilile motoarelor de cutare, nu sunt scrise ca o serie de reguli sau porunci,


aceasta este o distincie important de reinut. White-Hat SEO nu este doar despre
urmtoarele reguli, dar se refer la asigurarea c un coninut al unui site va fi
indexat de motorul de cutare, n general rezumat ca crearea de coninut pentru
utilizatori, nu pentru motoarele de cutare, i apoi fcnd acel coninut uor
accesibil pentru pianjeni, nu mai degrab dect a ncerca s trucheze algoritmul
de la scopul propus. White-Hat SEO este n multe privine similar cu dezvoltarea
web care promoveaz accesibilitatea, dei cele dou nu sunt identice.
Black-Hat SEO incearca imbunatatirea ranking-ului prin moduri care sunt
respinse de ctre motoarele de cutare, sau implic nelciune. Black-Hat
utilizeaz text care este ascuns, fie ca text de culoare asemntoare cu fundalul,
ntr-un div invizibil, sau poziionat n afara ecranului. O alt metod arat o pagin
diferit n funcie fata de pagina solicitata de ctre un vizitator uman sau un motor
de cutare, o tehnic cunoscut sub numele de camuflare (cloaking).
O alt categorie folosita uneori este de Gray-Hat SEO. Acest lucru este o
abordare intre Black-Hat SEO si White-Hat SEO, caz n care metodele utilizate
evita site-ul sa fie penalizat cu toate acestea nu acioneaz pentru producerea de
cel mai bun coninut pentru utilizatori, mai degrab s-au concentrat n ntregime
pe mbuntirea ranking-ului motorului de cutare.[7]
Motoarele de cutare pot penaliza site-uri pe care le descopera folosind
metode Black-Hat, fie prin reducerea locul lor n clasament sau eliminarea
cataloagele lor sau din bazele lor de date cu totul. Astfel de sanciuni pot fi aplicate
fie n mod automat prin algoritmi de motoarele de cutare sau printr-o examinare
manual a site-ului. Un exemplu a fost ndeprtarea in februarie 2006 Google att
a BMW Germania i Ricoh Germania pentru utilizarea practicilor neltoare.
Ambele companii, cu toate acestea, a cerut scuze rapid, reparand paginile
suprtoare, i au fost restaurate la lista de Google. [8]
Arhitectura paginii web si factori de succes
Crawbilitatea site-ul
Motoarele de cutare "aduna" website-uri, mergand de la o pagin la alta
incredibil de rapid. Ele fac copii ale paginilor care sunt stocate n ceea ce se
numete un "indice", care este ca o carte masiv a web-ului.
Cnd un utilizator caut, motorul de cutare rasfoieste prin aceast carte
mare, gsete toate paginile relevante i apoi alege ceea ce crede el ca este cel mai

bun pentru a arta mai nti. Pentru a fi gsit, va trebui s fie n carte. Pentru a fi
n carte, va trebui s fie adunat.
Cele mai multe site-uri, n general, nu au probleme de crawling, dar sunt
lucruri care pot cauza probleme. De exemplu, JavaScript sau Flash poate ascunde
poteniale legturi; ceea ce face ca paginile acestor link-uri sa conduca ascundera
de motoarele de cutare.
Fiecare site este administrat un crawl budget, o cantitate de aproximativ de
timp sau pagini pe care un motor de cutare il va aduna n fiecare zi, n funcie
de ncrederea relativ i autoritatea unui site. Site-uri mai mari pot ncerca s
mbunteasc eficiena lor crawl pentru a asigura faptul c paginile importante
sunt adunate mai des. Utilizarea robots.txt, structura interna a link-urilor i
anuntand special motoarele de cutare sa nu adune pagini cu parametri URL
special definiti pot mbunti eficiena crawl. n plus, este bine s se foloseasc
sitemap, HTML si XML, pentru a facilita motoarelor de cutare accesul cu
crawlere la site. [6]
Dublarea / Canonizarea
Uneori, in acea carte mare, indexul de cutare, devine dezordonat.
Rasfoind prin ea, un motor de cutare ar putea gsi pagin dup pagin dup
pagin a ceea ce arata ca, practic, acelai coninut, ceea ce face mai dificil s dau
seama care dintre aceste multe pagini ar trebui s se ntoarc pentru o anumit
cutare. Acest lucru nu este bun.
Acest lucru devine chiar mai ru dac oamenii leag n mod activ la diferite
versiuni ale aceleiai pagini. Aceste legturi, un indicator de ncredere i
autoritate, sunt dintr-o dat mprit ntre aceste versiuni. Rezultatul este o
percepie distorsionat a utilizatorului asupra adevrate care au fost alocate
paginii. De aceea, canonizarea este att de importanta: daca dorii doar o versiune
a unei pagini s fie disponibil pentru motoarele de cutare. [6]
Mobile Friendly
Mai multe cutri Google au loc pe dispozitive mobile dect pe desktop.
Avnd n vedere acest lucru, nu este de mirare ca Google recompenseaza siteurile care sunt pentru mobil cu o ans de o mai bun in clasamentele din cutrile
pe mobil n timp ce cele care nu sunt, au un punctaj mai mic in cadrul cautarilor.
Bing, de asemenea, face acelai lucru. [6]

Viteza Site-ului
Google vrea s fac pe web un loc mai rapid i a declarat c site-urile rapide
a obine un mic avantaj asupra site-urilor mai lente.
Cu toate acestea, ceea ce face site-ul dvs. vezicule rapid nu este o plimbare
garantat n mod expres la partea de sus a rezultatelor cutrii. Viteza este un factor
minor care are impact doar 1 din 100 de interogri n funcie de Google, dar
angrenare (i conversia) de pe un site poate da un timp de ncrcare rapid.
Sunt URL-uri descriptive?
Avand cuvintele pe care dorii s fie gsite pentru domeniu sau adresele
URL ale paginilor pot ajuta perspectivele de rang. Nu este un factor major, dar
are sens sa fie cuvinte descriptive n adresele URL.
HTTPS / Secure Site
Google ar dori s vad ntregul web ca functioneaza pe servere HTTPS, n
scopul de a oferi o mai bun securitate a web-ului. Pentru a ajuta la realizarea
acestui lucru, se recompenseaz site-urile care folosesc HTTPS, cu un mic impuls
in clasament.
Ca i n cazul crete viteza site-ului, acesta este doar unul dintre numeroii
factori pe care Google ii utilizeaz atunci cnd decide dac o pagin web are sau
nu un rang bun. Nu garanteaz n sine intrarea n rezultatele de top. Dar dac te
gndeti care ruleaz un site securizat, oricum, atunci acest lucru ar putea ajuta
contribui la succesul dvs. de cutare general. [6]

Concluzii
In aceasta lucrare am prezentat ideile de baza ale SEO si cum
poate fi imbunatatita structura unei pagini web pentru a fi pe placul unui
motor de cautare. Se deosebesc doua tipuri de abordari in optimizarea
paginilor web, cea orientate spre utilizator, in care continutul este
optimizat pentru a conduce a un ranking mai bun si cea in care se

apleaza la tehnici nerecomandate pentru rezulte pe termen scurt, dar


care duce de cele mai multe ori la scoaterea paginii web din baza de
date a motorului de cautare.
Bibliografie
[1] https://ro.wikipedia.org/wiki/Optimizare_pentru_motoare_de_c%C4%83utare accesat la 08.02.2016
[2] Beel, Jran and Gipp, Bela and Wilde, Erik (2010). "Academic Search Engine Optimization (ASEO): Optimizing
Scholarly Literature for Google Scholar and Co." (PDF). Journal of Scholarly Publishing. pp. 176190.
[3] Brin, Sergey and Page, Larry (1998). "The Anatomy of a Large-Scale Hypertextual Web Search Engine". Proceedings of
the seventh international conference on World Wide Web. pp. 107117.
[4] "Our new search index: Caffeine". Google: Official Blog. Retrieved May 10, 2014.
[5] Andrew Goodman. "Search Engine Showdown: Black hats vs. White hats at SES". SearchEngineWatch.
[6] http://searchengineland.com/guide/seo/site-architecture-search-engine-ranking accesat la 08.02.2016
[7] Brian Pinkerton. "Finding What People Want: Experiences with the WebCrawler" (PDF). The Second
International WWW Conference Chicago, USA, October 1720, 1994.
[8] https://en.wikipedia.org/wiki/Search_engine_optimization accesat la 08.02.2106

S-ar putea să vă placă și