Sunteți pe pagina 1din 12

Cursul 7

Procedeul Gramm-Schmidt. Descompunerea QR.


Spatiul afin An si En

7.1 Cea mai buna aproximatie printr-un vector dintr-un subspatiu


Consideram un subspatiu vectorial, S de dimensiune m al spatiului vectorial Rn nzestrat cu
un produs scalar. Proiectia ortogonala a unui vector v Rn pe subspatiul S este un vector s S
cu proprietatea ca vectorul v s este ortogonal pe s, adica < v s, s >= 0. Notam pe s prin
prS (v).
Daca n S avem fixata o baza ortonormata BS = (u1 , u2 , . . . , um ), atunci:
prS (v) =< v, u1 > u1 + < v, u2 > u2 + < v, um > um
adica proiectia ortogonala a vectorului v Rn pe subspatiul S este suma proiectiilor ortogonale
ale vectorului v pe vectorii unei baze ortonormate din S.
Problema. Sa se arate ca vectorul v prS (v) = v s este ortogonal pe fiecare vector ui
din baza ortonormata BS si apoi ca v s este ortogonal pe orice vector din S, adica v s S
si deci v s S .
Intr-un spatiu cu produs scalar (Vn , <, >) se defineste distanta dintre doi vectori ca fiind
d(v, w) = v w. In continuare vom arata ca distanta cea mai mica dintre un vector v Rn si
un vector arbitrar, t, din subspatiul S este distanta dintre v si proiectia lui ortogonala, s = prS (v),
pe S.
Mai precis, demonstram:
Propozitia 7.1.1 Daca v este un vector fixat din Rn si s = prS (v), proiectia ortogonala a vectorului v pe S, atunci oricare ar fi t = s, un vector din subspatiul S, avem ca:
v prS (v) v t
Cu alte cuvinte distanta de la vectorul v la proiectia sa ortogonala pe un subspatiu, este mai mica
decat distanta lui v la oricare alt vector din subspatiu.
Demonstratie: 1 Fie t un vector din subspatiul S, t = s. Deoarece s, t S rezulta ca si u = t s
este din S. Dar conform problemei de mai sus v s este ortogonal pe orice vector din S deci si pe
1
Aceasta demonstratie se poate nlocui cu una mai deosebita!!!! Cei interesati sa-mi aminteasca dupa ce ati facut la
analiza extreme conditionate.

!!!!

Daca
uitati
ca
baza n S
trebuie sa fie
ortonormata,
NU
una
arbitrara,
gresiti
la
calculul lui
prS (v).

Cursul 7, Algebra liniara, E. Petrisor, noiembrie 2011

Fig.7.1: Proiectia ortogonala a vectorului v pe subspatiul S.

vt

vs

u =ts
Fig.7.2: Pozitia relativa a vectorilor implicati n demonstratia Propozitiei 7.1.1.

u. Datorita acestei ortogonalitati (v s u = t s) si pentru ca v s u = v s t + s = v t


putem scrie relatia lui Pitagora (vezi Fig. 7.2):
v t2 = v s2 + t s2
Prin ipoteza t = s, deci t s2 > 0 si deci v t2 > v s2 , adica v s < v t.
Datorita acestei proprietati de monstrate, proiectia ortogonala a unui vector v pe un susbspatiu
vectorial S Rn , se numeste cea mai buna aproximatie a vectorului v printr-un vector din
S, iar norma diferentei v s, e = ||v prS (v)||, se numeste eroarea aproximarii.
Cea mai buna aproximatie a unui vector are numeroase aplicatii n inteligenta artificiala si
subramurile ei Machine Learning, Data mining.
Retinem ca: Avand dat un subspatiu vectoril S al lui Rm , orice vector v Rn se exprima
unic, ca suma a doi vectori ortogonali, unul din S si celalat din complementul ortogonal al lui S:
v = s + v| {z
s} = prS (v) + u,
u

, prS (v) S, u = v s S

7.2. Metoda Gramm-Schmidt de ortonormare a unei baze

7.2 Metoda Gramm-Schmidt de ortonormare a unei baze


In spatiul vectorial euclidian (Rn /R, <, > baza canonica este o baza ortonormata. In acest
spatiu nsa exista o infinitate de alte baze ortonormate. Cum construim o baza ortonormata dintruna neortonormata? Folosind metoda Gramm-Schmidt, care este un algoritm de constructie recursiva a unei baze ortonormate B = (q1 , q2 , . . . , qn ) ntr-un spatiu euclidian arbitrar (Vn , <, >),
pornind de la o baza oarecare B = (v1 , v2 , . . . , vn ).
Etapa 1: In etapa 1 se defineste vectorul q1 ca fiind versorul vectorului v1 :
q1 v1 /v1
Etapa 2: Se construieste un vector o2 = v2 q1 , n care scalarul se determina impunand
ca vectorul o2 sa fie ortogonal pe q1 , adica
< o2 , q1 >= 0 < v2 q1 , q1 >= 0 < v2 , q1 > (< q1 , q1 >) = 0 =< v2 , q1 >
| {z }
=1

Deci vectorul o2 = v2 < v2 , q1 > q1 este ortogonal pe q1 . Mai mult observam ca < v2 , q1 >
q1 = prq1 (v2 ).
Notand versorul lui o2 cu q2 :
q2

v2 < v2 , q1 > q1
v2 < v2 , q1 > q1

avem construit sistemul ortonormat O2 = (q1 , q2 ).


Etapa k: Presupunem ca am construit deja un sistem ortonormat Ok = (q1 , q2 , . . . , qk ),
3 k < n.
Etapa k+1: Definim vectorul ok+1 ca o combinatie liniara a vectorului vk+1 din baza
initiala si a vectorilor din sistemul ortonormat Ok construit deja:
ok+1 = vk+1

i qi

i=1

si determinam scalarii i impunand ca vectorul ok+1


adica:

< ok+1 , q1 >

..

< ok+1 , qi >

..

< ok+1 , qk >

sa fie ortogonal simultan pe q1 , q2 , . . . , qk ,


= 0
= 0
= 0

Dar < ok+1 , qi >= 0 este echivalent cu:


< vk+1 (1 q1 + i qi + + k qk ), qi >= 0
< vk+1 , qi > 1 (< q1 , qi >) i (< qi , qi >) (< qk , qi >) = 0,
| {z }
| {z }
| {z }
=0

=1

=0

Cursul 7, Algebra liniara, E. Petrisor, noiembrie 2011

adica i =< vk+1 , qi >, i = 1, k si deci vectorul simultan ortogonal pe vectorii din sistemul Ok
este:
k

ok+1 = vk+1
< vk+1 , qi > qi ,
|i=1

{z

=pr<Ok > (vk+1 )

unde pr<Ok > (vk+1 ) reprezinta proiectia ortogonala a vectorului vk+1 pe subspatiul generat de
vectorii ortonormati, q1 , q2 , . . . , qk .
Notand versorul lui ok+1 cu qk+1 la fel avem:

vk+1 ki=1 < vk+1 , qi >


qk+1

vk+1 ki=1 < vk+1 , qi >


si deci sistemul Ok+1 = (q1 , q2 , . . . , qk , qk+1 ) este un sistem ortonormal construit recursiv.
Observatia 7.2.1 Procedura GrammSchmidt se poate aplica nu neaparat unei baze arbitrare
dintr-un spatiu euclidian (Vn , <, >) ci si unui sistem liniar independent (v1 , v2 , . . . , vm ), m < n
caruia i se asociaza un sistem ortonormat Om = (q1 , q2 , . . . , qm ). Evident ca subspatiul liniar
S al lui Vn generat de vectorii (v1 , v2 , . . . , vm ) coincide cu subspatiul liniar generat de sistemul
Om . Cu alte cuvinte (v1 , v2 , . . . , vm ) este o baza arbitrara n S, iar (q1 , q2 , . . . , qm ) este o baza
ortonormata n S.
Exemplul 1. In spatiul euclidian (R3 , <, >) se da baza B = (v1 = (0, 1, 1)T , v2 = (1, 0, 1)T , v3 =
(1, 1, 0)T ). Aplicand procedura Gramm-Schmidt sa se construiasca o baza ortonormata n R3
pornind de la baza B.
Etapa 1: Luam
v1
(0, 1, 1)T

q1 =
=
=
v1
2

(
)
1 1 T

0,
,
2 2

Etapa 2:
o2 = v2 < v2 , q1 > q1
Dar produsul scalar
1
< v2 , q1 >=
2
si deci:

1
1
1

o2 = v2 q1 = 0
2
2
1

0
1

2
1

1
2
1

= 2 1

1
1
2

In calculul manual este util sa nlocuim vectorii cu coordonate rationale cu vectori coliniari, cu coordonate ntregi (ceea ce nu e cazul ntr-o implementare a algoritmului Gramm-Schmidt!). Astfel
luam n cazul nostru

2
o2 = 1
1

Cursul 7, Algebra liniara, E. Petrisor, noiembrie 2011

Inlocuind o2 cu versorul sau q2 = o2 /o2 avem:

2
1
q2 1
6
1
Etapa 3: Construim vectorul:
o3 = v3 [< v3 , q1 > q1 + < v3 , q2 > q2 ]
Calculam:

< v3 , q1 >= 1/ 2 si

Astfel

1
1

o3 = 1

2
0

0
1

2
1

2
{z

1
< v3 , q2 >=
6

q1

6
1

6
1

6
{z

2
3
2
3
2

q2

o3 = 2 3/3 si deci versorul q3 al lui o3 este:

1
1
q3 = 1
3 1
Exemplul 2. a) Sa se determine o baza n subspatiul vectorial S al lui R3 ,
S = {v = (x, y, z)T | 3x + 5y + 2z = 0}
si apoi aplicand procedura Gramm-Schmidt sa se ortonormeze baza determinata.
b) Sa se determine proiectia ortogonala a vectorului v = (1, 1, 3) pe subspatiul S.
Subspatiul S este multimea solutiilor sistemului: 3x + 5y + 2z = 0. Rangul matricii A a
sistemului este 1 deci dimensiunea subspatiului S este 3 1 = 2. Pentru a determina o baza
arbirara rezolvam sistemul n raport cu necunoscuta principala z si avem:

y
S= v=
, x, y R
3
5

x y
2
2
Orice vector din S se exprima astfel:

0
1
2
0
y

v = x 0 + y 1 = 0 + 2
5
3
2
2
3
5

2
2

Cursul 7, Algebra liniara, E. Petrisor, noiembrie 2011

Deci o baza arbitrara n subspatiul vectorial S este

2
0
BS = v1 = 0 , v2 = 2 ,
3
5
care evident nu este ortonormata.
Luam
(
)T
v1
(2, 0, 3)T
2
3
q1 =
=
= , 0,
v1
13
13
13
si

o2 = v2 < v2 , q1 > q1 =

0
15

2 +

13
5

13
0
3

13

30
13

2
=

20

13

Luand q2 = o2 /o2 avem baza ortonormata (q1 , q2 ) n S.


b) Proiectia ortogonala a vectorului v pe subspatiul S este vectorul
s = prq1 (v) + prq2 (v) =< v, q1 > q1 + < v, q2 > q2

7.3 Descompunerea QR a unei matrici patratice nesingulare


Descompunerea unei matrici ntr-un produs de doua matrici particulare, numita descompunerea
QR, are numeroase aplicatii n: compresia datelor, a imaginilor, textului, n comunicatiile wireless, cat si n designul a numerosi alti algoritmi din algebra liniara.
In continuare vom arata ca din procedura Gramm-Schmidt rezulta ca orice matrice nesingulara se poate exprima ca produs a unei matrici ortogonale cu o matrice superior triunghiulara.
Fie A Rnn o matrice nesingulara. Rezulta astfel ca, coloanele sale sunt vectori liniar
independenti n Rn , deci formeaza o baza n acest spatiu vectorial. Notand coloanele cu v1 , v2 , . . . ,
vn matricea A se exprima astfel A = [v1 |v2 | . . . |vn ]. Aplicand procedura Gramm-Schmidt bazei
B = (v1 , v2 , . . . , vn ), obtinem baza ortonormata B = (q1 , q2 , . . . , qn ), unde
q1 = v1 /v1

vk k1
< vk , qi > qi
qk =
, k = 2, n
i=1
k1
vk i=1 < vk , qi > qi
Notam cu:

(7.1)

r1 = v1

rk = vk k1
i=1 < vk , qi > qi

Inlocuind n (7.1) avem:


v1 = r1 q1
k1
vk =
i=1 < vk , qi > qi + rk qk , k = 1, n,

(7.2)

Cursul 7, Algebra liniara, E. Petrisor, noiembrie 2011

adica am exprimat vectorii bazei initiale, B, n functie de vectorii bazei ortonormate B = (q1 , q2 , . . . , qn ).
Notam prin Q matricea ce are drept coloane vectorii q1 , q2 , . . . , qn , Q = [q1 |q2 | . . . |qn ], si exprimam mai detaliat vectorii v1 , v2 , . . . , vn n functie de q1 , q2 , . . . , qn , conform relatiei (7.2).
Tinand seama ca n general produsul dintre o matrice Q = [q1 |q2 | . . . |qn ] si o matrice coloana
este:

x1
x1
x2
x2

Q . = [q1 |q2 | . . . |qn ] . = x1 q1 + x2 q2 + + xn qn


..
..
xn

xn

avem urmatoarea exprimare a vectorilor v1 , v2 , . . . , vn :

r1
0

v1 = r1 q1 = r1 q1 + 0q2 + 0q3 + 0qn = Q 0


..
.
0
| {z

c1

v2

= < v2 , q1 > q1 + r2 q2 + 0q3 + + 0qn = Q

< q 1 , v2 >

r2

..

.
0
{z
}
c2

..
.

vn = <
vn , q1 > q1 + < v
n , q2 > q2 + < vn , q3 > q3 + + < vn , qn1 > qn1 + rn qn =
< q 1 , vn >
< q 2 , vn >

< q 3 , vn >

= Q

..

< qn1 , vn >


rn
{z
}
|
cn

Precizam ca am nlocuit < vk , qi >, k > i, din relatiile de mai sus cu < qi , vk > (produsul scalar
este simetric!) pentru ca n matricea ce se constituie < qi , vk > va fi pozitionat n linia i coloana
k.
Am aratat deci ca fiecare vector vj din baza initiala se exprima n forma vj = Qcj , j = 1, n.
Prin urmare matricea A se exprima astfel:
A = [v1 |v2 | . . . |vn ] = [Qc1 |Qc2 | . . . |Qcn ] = Q[c1 |c2 | . . . |cn ]
Notand cu R matricea ce are drept coloane vectorii C1 , C2 , . . . , cn , avem:

Cursul 7, Algebra liniara, E. Petrisor, noiembrie 2011

A = Q

r1 < q1 , v2 > < q1 , v3 > . . . < q1 , vn1 > < q1 , vn >


0
r2
< q2 , v3 > . . . < q2 , vn1 > < q2 , vn >
0
0
r3
. . . < q3 , vn1 > < q3 , vn >
..
..
..
..
..
.
.
.
...
.
.
0
0
0
...
rn1
< qn1 , vn >
0
0
0
...
0
rn

= QR

Matricea Q pe coloane vectorii unei baze ortonormate, exprimati n baza canonica, B, din
este matricea de trecere TBB , unde B = (q1 , q2 , . . . , qn ). Cele doua baze fiind ortonormate,
rezulta ca matricea de trecere TBB = Q este matrice ortogonala.
Rn

In concluzie am aratat ca:


Propozitia 7.3.1 Orice matrice patratica nesingulara A Rnn se poate descompune ca produs
al unei matrici ortogonale, Q, cu o matrice superior triunghiulara, R, adica A = QR.
Descompunerea A = QR se numeste descompunerea QR a matricii A.
Elementele de pe diagonala principala a matricii R sunt strict pozitive, fiind norme de vectori
dintr-un sistem de vectori ortogonali, deci vectori nenuli.
Remarcam ca det(R) = r1 r2 . . . rn , iar det(Q) = 1. Astfel determinantul matricii A este
det(A) = det(Q)det(R) = r1 r2 . . . rn sau echivalent |det(A)| = r1 r2 rn .
Observatie. Pentru a realiza prin calcul numeric descompunerea QR a unei matrici nesingulare, A, nu se recomanda aplicarea procedurii descrise mai sus, care da rezultate bune doar n
calculul manual, ci aplicarea unor algoritmi speciali de descompunere.
O aplicatie foarte simpla si rapida a descompunerii QR a unei matrici nesingulare, A
Rnn , este rezolvarea unui sistem, Ax = b, de n ecuatii cu n necunoscute, compatibil determinat.
Inlocuind A = QR sistemul devine QRx = b Rx = QT b (deoarece Q1 = QT ). Sistemul Rx = c, unde c = QT b, avand matrice superior triunghiulara se rezolva rapid prin metoda
substitutiei inverse (vezi Cursul 1).

7.4 Spatiul punctual afin de dimensiune n

Pentru a defini contextul n care se definesc vectorii clasici AB, determinati de doua puncte,
consideram o multime de puncte P, notate A, B, C, . . . si spatiul vectorial Rn .
Definitia 7.4.1 Spatiul punctual afin de dimensiune n, este un triplet notat An = (P, Rn , ),
unde este o aplicatie : P P Rn , care asociaza la orice pereche de puncte (A, B) un

vector AB Rn :
B

(A, B) AB

si care n plus verifica urmatoarele conditii:



1. AB + BC = AC, A, B, C P (relatia lui Chasles);

Cursul 7, Algebra liniara, E. Petrisor, noiembrie 2011

A
C

2. Pentru orice punct O P fixat si vector v Rn exista un unic punct M P astfel ncat

OM = v, cu alte cuvinte aplicatia O , O : {O} P Rn , care asociaza la orice punct

M P vectorul OM , avand punctul de aplicatie O:


M
v

O (M ) = OM Rn

este bijectie.

Aplicand proprietatea 1. pentru punctele A, B, C identice, obtinem AA + AA = AA, adica

AA = Rn .

Relatia lui Chasles aplicata punctelor A, B, A conduce la AB + BA = AA = , adica

BA = AB.
Relatia Chasles se extinde la un numar finit de puncte:


A1 A2 + A2 A3 + + Am1 Am = A1 Am
Deoarece conform proprietatii 2 multimea punctelor P este n corespondenta bijectiva cu Rn , luam
drept multime de puncte pe Rn . Prin urmare privim multimea Rn n doua moduri: ca multime
de puncte si ca spatiu vectorial. Un punct A din Rn este reprezentat de un nuplu de numere
(x1 , x2 , . . . , xn ) (scrise pe linie), iar un vector v tot de un n-uplu de numere reale, dar pentru a
face distinctie, aceste numere se scriu ntr-o matrice coloana:

a1
a2

v= .
..
an

La orice doua puncte A(x1 , x2 , . . . , xn ), B = (y1 , y2 , . . . , yn ) le asociem vectorul AB ale carui


coordonate se obtin scazand din coordonatele punctului B coordonatele punctului A:

y1 x 1

y2 x2
AB =

..

.
yn x n
Formal aplicatia ce definste structura afina pe spatiul de puncte Rn este:

(A, B) = AB := B A
Sa verificam ca ntr-adevar astfel definit satisface conditiile 1. si 2. din definitia spatiului
punctual afin:

Cursul 7, Algebra liniara, E. Petrisor, noiembrie 2011

10

1. Fie A, B, C trei puncte arbitrare din Rn . Atunci:


AB + BC = B
+ C B} = C A = AC
| A {z
operatii n Rn

2. Pentru orice punct fixat O si un vector v Rn , punctul M ce satisface conditia OM = v,


echivalenta cu operatia din Rn , M O = v, este unic, si este M = O + v (+ este adunarea din
Rn ).
Deci multimea Rn are structura de spatiu punctual afin. In matematica acest spatiu se noteaza
cu An , dar n inginerie si computer science se pastreaza notatia Rn si din context se deduce cand
ne referim la puncte din Rn si cand la vectori.
Remarcam ca are sens operatia punct plus vector O + v, rezultatul fiind punctul M cu propri
etatea ca OM = v.
v
O+v

Exemplul 3. In spatiul A3 se da punctul O = (2, 3, 1) si vectorul v = (3, 0, 2)T . Sa se determine

punctul M (x1 , x2 , x3 ) astfel ncat OM = v.


M = O + v = (2 + 3, 3 + 0, 1 + 2) = (1, 3, 3).
Observatia 7.4.1 Spatiul vectorial Rn se identifica cu multimea vectorilor care au originea n

punctul O = (0, 0, . . . , 0). Intr-adev


ar, orice vector v = (x1 , x2 , . . . , xn )T din Rn se identifica cu

vectorul OM , unde M = (x1 , x2 , . . . , xn ), deoarece OM = M O = (x1 0, x2 0, . . . , xn


0)T = v.
Ilustrarea vectorilor din Rn prin segmente orientate, din cursurile precedente, este astfel justificata
de aceasta observatie.
Daca n plus pe spatiul vectorial Rn consideram un produs scalar <, >, atunci spatiul punctual
corespunzator se noteaza cu En si se numeste spatiul punctual euclidian. Pe acest spatiu definim
distanta dintre doua puncte:

d(A, B) = AB

Daca A = (x1 , x2 , . . . , xn ) si B = (y1 , y2 , . . . , yn ), atunci vectorul AB(y1 x1 , y2 x2 , . . . , yn


xn )T si deci distanta dintre doua puncte A, B este:

d(A, B) = AB =
(y1 x1 )2 + (y2 x2 )2 + + (yn xn )2 =
=

(x1 y1 )2 + (x2 y2 )2 + + (xn yn )2

Doua puncte A, B determina n En un segment, notat [A, B] si definit ca fiind multimea

punctelor ce se ob tin adunand puctului A un vector tAB, t [0, 1], coliniar si de acelasi sens cu

vectorul AB:

[A, B] = {P | P = A + tAB, t [0, 1]}

Cursul 7, Algebra liniara, E. Petrisor, noiembrie 2011

11


Mijlocul segmentului [A, B] este punctul M cu proprietatea ca AM = M B.

Daca A(a1 , a2 , . . . , an ), B(b1 , b2 , . . . , bn ), M (x1 , x2 , . . . , xn ), atunci din relatia AM = M B
rezulta aceeasi relatie ntre coordonatele din pozitia i a vectorilor implicati, adica:
xi ai = bi xi ,

2xi = ai + bi

xi =

ai + bi
,
2

i = 1, n

Prin urmare coordonatele mijlocului unui segment sunt egale cu media aritmetica a coordonatelor
corespunzatoare ale extremitatilor segmentului.
Exemplul 4. In E3 se dau punctele A(1, 2, 4), B(3, 0, 5), C(1, 7, 2).
a) Sa se calculeze distanta de la A la mijlocul segmentului [B, C].
\
b) Sa se calculeze cosinusul unghiului BAC
a) Fie M (x, y, z) mijlocul segmentului [B, C]. Coordonatele sale sunt:
3+1
07
5 + 2
= 2, y =
= 3.5, z =
= 1.5
2
2
2

2 + (2 + 3.5)2 + (4 + 1.5)2 =
Distant

a
d(A,
M
)
=
((1

2)
9 + 5.52 + 5.52

= 9 + 60.5 = 8.34.

\ este unghiul dintre vectorii
b) Unghiul BAC
AB, AC.
x=

C
B

AB = B A = (4, 2, 9), AC = (2, 9, 2). Astfel:



AB AC
8 + 18 + 18
44
44
\

cos(BAC) = =
=
=
16 + 4 + 81 4 + 81 + 4
101 + 89
190
AB AC
Spatiile punctuale euclidiene E2 , E3 si chiar E4 , constituie spatiile de lucru n grafica, geometrie
algoritmica, respectiv modelare geometrica (computer graphics, computational geometry, geometric modeling). In cele ce urmeaza introducem notiuni si metode de generare a diverse constructii
utile n aceste domenii.

7.5 Reper ortonormat n spatiul afin euclidian En


Definitia 7.5.1 Un reper ortonormat n En este o pereche
R = (O; B = (e1 , e2 , . . . , en ))
constituita dintr-un punct fixat O, numit originea reperului si o baza ortonormata B din spatiul
vectorial Rn .

Cursul 7, Algebra liniara, E. Petrisor, noiembrie 2011

12

z
ze3
y
ye2

e3

M (x, y)

OM
xe1
e1

e2

M (x, y, z)
ye2
y

e1

e2
O

OM

xe1

x
x

Fig.7.3: Semnificatia coordonatelor unui punct M din plan raportat la un reper ortonormat (stanga), respectiv din spatiul 3D (dreapta).

Unui reper ortonormat R i se asociaza un sistem de axe ortogonale Ox1 , Ox2 ,. . . , Oxn , unde axa

Oxi este multimea punctelor M cu proprietatea ca vectorul OM este coliniar si de acelasi sens cu
vectorul bazei, ei , i = 1, n,

Oxi = {M | OM = tei , t 0}, i = 1, n

ei

xi

Versorul ei , avand norma unu, constituie unitatea de masura pe axa Oxi .


Avand fixat un reper ortonormat R = (O; B) n En , pozitia unui punct arbitrar, M , fata de
acest reper se determina astfel (vezi si Fig.7.3):

se uneste punctul M cu originea O a reperului, obtinand vectorul OM , numit vectorul de


pozitie al punctului M;

se descompune vectorul OM dupa vectorii bazei reperului:

OM = x1 e1 + x2 e2 + + xn en ,

xi =< OM , ei >= prei (OM ), i = 1, n

Prin definitie, coordonatele vectorului de pozitie OM n baza B se numesc coordonatele punctului M relativ la reperul R sau relativ la sistemul de axe ortogonale, asociat.

Coordonatele originii reperului, sunt coordonatele vectorului OO = n baza reperului,


adica (0, 0, . . . , 0).
In plan (E2 ) axele asociate unui reper ortonormat se noteaza de obicei prin Ox, Oy, si coordonatele unui punct arbitrar prin (x, y), iar n spatiul 3D, E3 , prin Ox, Oy, Oz, iar coordonatele unui
punct (x, y, z). In Fig.7.3 sunt ilustrate doua repere ortonormate si sistemele de axe ortogonale
asociate, unul n plan (stanga) si cel de-al doilea n spatiul E3 (dreapta).

S-ar putea să vă placă și