Sunteți pe pagina 1din 4

Entropia informaţională în traducerea unor texte lirice

inst. Marian Ciuperceanu, Colegiul Naţional „Fraţii Buzeşti”,Craiova

Rezumat
Lucrarea îşi propune să analizeze din punct de vedere al entropiei informaţionale-
concept probabilistic definit de C. E. Shannon (1916-2001), prin analogie cu entropia din
termodinamică- o poezie în versiunea sa originală şi în traducere într-o limbă străină.
Principiul fizic al creşterii entropiei în timp, dacă s-ar aplica şi-n acest domeniu al
traducerii, ar impune o valoare superioară a entropiei informaţionale în cazul poeziei traduse
în raport cu cea originală. Chiar dacă exemplul dat confirmă regula fizică, nu generalizăm
rezultatul obţinut, având în vedere că traducerea unui text literar este marcată de
personalitatea traducătorului.

Alăturarea celor doi termeni „termodinamică” şi „mesaje”, ce provin din direcţii


diferite, opuse chiar dacă ne gândim că fizica studiază fenomenele naturii prin legi
obiective, iar comunicarea interumană se caracterizează prin subiectivitate, pare bizară. La o
privire mai atentă însă putem observa câteva similitudini.
În fizică, noţiunea de entropie este o funcţie ce defineşte starea de dezordine a unui
sistem fizic. Şi în teoria informaţiei putem vorbi de elemente de organizare ( sau
dezorganizare ) a unui mesaj. Ambele entropii au în comun faptul că măsoară gradul de
nedeterminare a unui fenomen.
Într-un proces de comunicare apar doi poli: emiţătorul şi receptorul. Informaţia adusă
de emiţător poate fi de multe ori diversificată, improbabilă, ceea ce aduce o oarecare
dezordine.
Pe de altă parte, informaţia transmisă este adesea deformată, deci entropică, dacă
avem în vedere interesele de ordin politic, economico-financiar etc. ale emiţătorului de
informaţii.
Starea de informaţie depinde nu numai de emiţător, de intenţiile şi logica expunerii
mesajului, ci şi de felul cum o percepe receptorul. În zilele noastre, o informaţie vehiculează
în toate direcţiile, devine mondială chiar - prin intermediul televiziunilor şi mass-mediei în
general - , iar receptorii sunt numeroşi şi variaţi (cu culturi şi nivele de înţelegere diferite).
Sursele entropice pot să nu aibă legătură cu emiţătorul şi receptorul/receptorii: dacă
există „zgomot” pe canalele de distribuţie, mesajul este afectat de distorsiuni şi erori, ceea ce
are ca efect creşterea incertitudinii şi deci a entropiei.
Conform principiului al II-lea al termodinamicii, sistemele evoluează de la stările cu
entropie mică spre stările cu entropie mai mare. Entropia dă astfel un sens fizic curgerii
timpului . Acelaşi parametru – entropia – ar putea măsura nivelul de dezordine al sistemului
economic, social, politic, stabilind sensul de desfăşurare a proceselor şi condiţiile de
ireversibilitate. Trecerea, de exemplu, de la o economie centralizată, planificată la una de
piaţă s-ar integra în principiul creşterii entropiei în timp, dacă identificăm o entropie mică în
sistemele autoritare. Creşterea libertăţii individuale (producătoare de energie) în timp, pare de
asemenea justificată de acelaşi principiu termodinamic.

1
Revenind însă la comunicare, constatăm că informaţia furnizată de un eveniment este–
la fel ca-n fizică – o funcţie de probabilitatea sa: cu cât probabilitatea de producere a unui
eveniment e mai mare, cu atât se aduce mai puţină informaţie. Creşterea entropiei (fizice)
datorată ireversibilităţii proceselor, asociată cu observaţia că sistemele evoluează de la stări
mai puţin probabile spre stări mai probabile sugerează de asemenea o legătură între entropia
unei stări şi probabilitatea de realizare a acestei stări.
Toate aceste similitudini ne încurajează să presupunem că termodinamica ar putea da
un sens fizic informaţiei.
Termodinamica statistică, pentru a explica fenomenele observate, permite examinarea
proprietăţilor corpurilor şi evoluţiilor lor la scară moleculară. Având în vedere numărul mare
al stărilor, ea aplică legile matematice ale probabilităţilor şi statisticii.
O stare macroscopică – definită de parametrii termodinamici - , este compatibilă cu
un număr foarte mare de stări microscopice – definite de valorile individuale ale parametrilor
particulelor microscopice. Fizicianul Boltzmann (1844-1906) postulează că numărul de
microstări (w) compatibile cu o macrostare dată (număr numit pondere statistică) este măsura
probabilităţii de realizare a macrostării. Aşadar, entropia (S) stării va trebui să fie o funcţie
monotonă de ponderea statistică (w):
S = S (w) (1)
Pentru a determina tipul funcţiei S=S(w), divizăm sistemul fizic (α) în două
subsisteme (α1, α2):
(2)
de ponderi statistice w1 şi respectiv w2. Deoarece fiecărei microstări a subsistemului α1 îi pot
corespunde w2 microstări ale subsistemului α2, atunci ponderea statistică a sistemului reunit
este:
(3)
Funcţia logaritmică fiind cea care transformă produsul în sumă, legătura funcţională
dintre S şi w va fi:

(4)
formulă cunoscută sub numele de relaţia lui Boltzmann ( kB = R / NA fiind constanta lui
Boltzmann). Deoarece w este cu atât mai mare cu cât starea este mai dezordonată, rezultă
creşterea entropiei ( în sistemele izolate când sistemul evoluează spre stări
cât mai dezordonate din punct de vedere microscopic.
Şi starea informaţională poate fi definită în sine, la un moment dat, sub aspect
statistic. Sunetele (în vorbire) sau literele (în scriere) se organizează în silabe şi cuvinte,
ultimele înşiruite la rândul lor într-un anumit fel (analog macrostărilor/ microstărilor din
fizică). Astfel, putem pune în analogie statistica celor mai mici unităţi lingvistice cu
capacitate distinctivă cu statistica moleculară.
C. E. Shannon (1916-2001) introduce în domeniul informaţional noţiunea de
entropie informaţională ( „A mathematical theory of comunication”, Bell System Technical
Journal, 27 (1948), p. 379-423, 623-656), concept analog celui de entropie din
termodinamică. El defineşte entropia informaţională de primul ordin după expresia stabilită
de Boltzmann:

2
(5)
unde pi este probabilitatea de apariţie a stării „i” din totalul de n stări posibile.
Solomon Marcus a analizat din punct de vedere al entropiei informaţionale [2] trei
poezii eminesciene de factură diferită şi a stabilit că poezia de inspiraţie folclorică are
entropie mai mică.
Ne propunem , în continuare, să raportăm acest parametru informaţional global la un
text şi la traducerea sa într-o limbă străină. Ne aşteptăm ca în urma traducerii textului original
entropia informaţională să crească. Acest lucru ar arăta că traducerea (unui text oarecare şi a
unei poezii – când trebuie căutate cuvinte rimate – în special) este şi un act creator. Pe de altă
parte, ştiind evident că traducerea este ulterioară actului creaţiei originale, vrem să verificăm
şi-n acest caz principiul creşterii entropiei în timp. Am luat în considerare poezia eminesciană
„De-or trece anii…” în versiunea sa originală şi în traducerea ei în limba franceză ( „Si les
ans passent…” ) de către Paul Miclău [3] (vezi tabelul 1).

Tabelul 1: Entropiile poeziilor originală şi traduse


Poezia Entropia informaţională
„De-or trece anii…” (versiune originală) 3,918722171
„Si les ans passent…” (traducere de Paul Miclău) 3,922297386

Entropia informaţională a fost calculată (vezi tabelul frecvenţelor) cu ajutorul formulei lui
Shannon (5) în care pi reprezintă probabilitatea apariţiei unei litere de rang „i” în poezia
considerată (calculată ca raport între numărul de apariţii al literei respective şi numărul
tuturor literelor din text). Pentru simplitate, am luat în calcul literele şi nu sunetele limbilor
română şi franceză.
Obţinerea unei valori superioare a entropiei informaţionale a poeziei traduse în raport cu
poezia originală pare să confirme cele presupuse. Considerăm însă că traducerea literară mai
ales este marcată de personalitatea traducătorului, ţine cont de intersubiectivitate şi
interculturalitate. Când intervine traducerea, limba sursă este subtilă, iar limba ţintă este, în
general, acuzată de sărăcie lexicală. În plus, în ceea ce priveşte strict textul liric, în varianta
originală figurile poetice, care creează un element de surpriză, imprevizibilitate (şi care deci
conduc la creşterea entropiei) pot fi mai penetrante. Din jocul acestor tendinţe, efectele pot fi
variate în ceea ce priveşte entropia, astfel încât nu generalizăm rezultatul găsit anterior.

Bibliografie:
1. G. Ciobanu, O. Gherman, L. Saliu, Fizica moleculară, termodinamică şi statistică
pentru perfecţionarea profesorilor, Editura Didactică şi Pedagogică, Bucureşti, 1983.
2. C. E. Shannon, A mathematical theory of communication, Bell System Technical
Journal, 1948.
3. Solomon Marcus, Poetica matematică, Editura Academiei R.S.R., Bucureşti, 1970.
4. G. Moisil, Termodinamică, Editura Academiei R.S.R., Bucureşti, 1988.
5. Poezii-Poésii, Editura Fundaţiei Culturale Române, Bucureşti, 1999 (poezii de Mihai
Eminescu traduse de Paul Miclău).

3
4

S-ar putea să vă placă și