Fandom

Math Wiki

Tratat de calcul vectorial/Spațiul euclidian/Spațiul euclidian n-dimensional

< Tratat de calcul vectorial | Spațiul euclidian

1.032pages on
this wiki
Add New Page
Comments0 Share
1.5. Spațiul euclidian n-dimensional

În secţiunile 1.1 şi 1.2 s-au studiat spaţiile \mathbb R = \mathbb R^1, \mathbb R^2, \mathbb R^3 şi s-au dat interpretările geometrice ale acestora. Astfel, \mathbb R^3 poate fi gândit în două moduri:

(i) algebric, ca o mulţime de triplete (x,y,z), unde x,y,z \in \mathbb R;
(ii) geometric, ca o mulţime de vectori orientaţi din origine în punctele de coordonate x,y,z.

Pentru generalizare, este mai uşor de utilizat definiţia (i). Mulţimea \mathbb R^n, numită şi n-spaţiu euclidian, este mulţimea n-uplurilor \mathbf x= (x_1, x_2, \cdots , x_n), numiţi n-vectori.

Pe \mathbb R^n se introduc mai multe operaţii algebrice. Astfel, adunarea vectorilor şi multiplicarea cu scalari sunt definite astfel:

(i) (x_1, x_2, \cdots , x_n) + (y_1, y_2, \cdots , y_n)  = (x_1 + y_1, x_2+y_2, \cdots , x_n+y_n);
(ii)  \alpha (x_1, x_2, \cdots , x_n) = ( \alpha x_1,  \alpha x_2, \cdots ,  \alpha x_n).

Vectorii:

\mathbf e_1 = (1,0,0, \cdots , 0), \; \mathbf e_2 (0,1,0, \cdots , 0), \; \cdots , \mathbf e_n= (0,0, \cdots, 0, 1)

se numesc vectori standard de bază ai lui \mathbb R^n şi aceştia generalizează vectorii unitate ortogonali \mathbf i, \mathbf j, \mathbf k ai spaţiului \mathbb R^3. Un vector oarecare \mathbf x= (x_1, x_2, \cdots , x_n), poate fi scris:

\mathbf x= (x_1 \mathbf e_1 , x_2 \mathbf e_2 , \cdots , x_n \mathbf e_n ).

Dacă \mathbf x =(x_1, x_2, \cdots , x_n), \; \mathbf y= (y_1, y_2, \cdots , y_n)  sunt doi vectori din \mathbb R^n, definim produsul scalar al acestora ca fiind numărul real:

\mathbf x \cdot \mathbf y= x_1y_1+ x_2y_2 + \cdots + x_ny_n.

În mod similiar ca la \mathbb R^3 se defineşte lungimea sau norma unui vector \mathbf x = (x_1, x_2, \cdots , x_n) \in \mathbb R^n ca fiind:

\| x\| = \sqrt {\mathbf x \cdot \mathbf x} = \sqrt {x_1^2+ x_2^2+ \cdots  x_n^2}.

Se ştie că dacă \mathbf x, \mathbf y sunt doi vectori din plan ( \mathbb R^2 ) sau din spaţiu ( \mathbb R^3 ), atunci unghiul \theta dintre aceştia este dat de:

\cos \theta = \frac {\mathbf x \cdot \mathbf y}{\| \mathbf x \| \| \mathbf y \|}.

Această formulă are sens şi în \mathbb R^n deoarece \mathbf x, \mathbf y determină un plan, plan în care se va măsura acel unghi \theta.


Teoremă. Pentru orice \mathbf x, \mathbf y, \mathbf z \in \mathbb R^n şi \alpha, \beta \in \mathbb R, avem:

(i) ( \alpha \mathbf x + \beta \mathbf y) \cdot \mathbf z = \alpha ( \mathbf x \cdot \mathbf z) + \beta ( \mathbf y \cdot \mathbf z ).
(ii) \mathbf x \cdot \mathbf y =\mathbf y \cdot \mathbf x.
(iii) \mathbf x \cdot \mathbf x \ge 0.
(iv) \mathbf x \cdot \mathbf x = 0 dacă şi numai dacă \mathbf x =0.


Demonstraţie. (i)

( \alpha \mathbf x + \beta \mathbf y) \cdot \mathbf z = (\alpha x_1 + \beta y_1 , \alpha x_2 + \beta y_2 , \cdots , \alpha x_n + \beta y_n ) \cdot (z_1, z_2, \cdots , z_n) =
=(\alpha x_1 + \beta y_1 ) z_1  + (\alpha x_2 + \beta y_2 ) z_2  +  \cdots + (\alpha x_n + \beta y_n ) z_n =
=\alpha x_1 z_1 + \beta y_1 z_1 + \alpha x_2 z_2 + \beta y_2 z_2 +  \cdots + \alpha x_n z_n + \beta y_n z_n =
=\alpha (\mathbf x \cdot \mathbf z) + \beta (\mathbf y \cdot \mathbf z).

În mod similar se demonstrează şi celelalte proprietăţi.


Inegalitatea Cauchy-Schwarz pe \mathbb R^n. Fie \mathbf x, \mathbf y \in \mathbb R^n. Atunci:

| \mathbf x \cdot \mathbf y | \le \| \mathbf x \| \| \mathbf y \|


Demonstraţie. Fie a= \mathbf y \cdot \mathbf y şi b=- \mathbf x \cdot \mathbf y, Dacă a=0, teorema este evidentă, deoarece \mathbf y = \mathbf 0 şi ambii membri ai inegalităţii devin nuli. Acum să presupunem că a \neq 0. Avem conform teoremei anterioare:

0 \le (a \mathbf x + b \mathbf y) \cdot (a \mathbf x + b \mathbf y) = a^2 \mathbf x \cdot \mathbf x + 2ab \mathbf x \cdot \mathbf y + b^2 \mathbf y \cdot \mathbf y =
(\mathbf y \cdot \mathbf y )^2 \mathbf x \cdot \mathbf x   - (\mathbf y \cdot \mathbf y )  (\mathbf x \cdot \mathbf y)^2.

Divizând prin \mathbf y \cdot \mathbf y, se obţine 0 \le (\mathbf y \cdot \mathbf y )  (\mathbf x \cdot \mathbf x ) -  (\mathbf x \cdot \mathbf y)^2, adică (\mathbf x \cdot \mathbf y)^2 \le  (\mathbf x \cdot \mathbf x )  (\mathbf y \cdot \mathbf y ) = \| \mathbf x \|^2 \| \mathbf y \|^2.   Se efectuează rădăcina pătrată din ambii membri.

O consecinţă importantă a inegalităţii Cauchy-Schwarz (numită şi Inegalitatea Cauchy-Buniakowski-Schwarz) este următoarea:

Inegalitatea triunghiului în \mathbb R^n Fie \mathbf x, \mathbf y \in \mathbb R^n. Atunci:

| \mathbf x + \mathbf y | \le \| \mathbf x \| + \| \mathbf y \|


Inegalităţile de mai sus pot fi scrise algebric astfel:

\left | \sum_{i=1}^n x_i y_i  \right | \le \left ( \sum_{i=1}^n x_i^2 \right )^{1/2} \left ( \sum_{i=1}^n y_i^2 \right )^{1/2}  ;
\left ( \sum_{i=1}^n x_i + y_i  \right )^{1/2} \le \left ( \sum_{i=1}^n x_i^2 \right )^{1/2} + \left ( \sum_{i=1}^n y_i^2 \right )^{1/2}  .


Prin analogie cu \mathbb R^3, se poate defini noţiunea de distanţă pe \mathbb R^n. Astfel, distanţa dintre vectorii \mathbf x, \mathbf y \in \mathbb R^n se defineşte ca fiind \| \mathbf x- \mathbf y \|, adică modulul diferenţei vectorilor.


Matrice

Dacă în capitolele precedente s-au studiat numai matricele de tip 2 \times 2 şi 3 \times 3, se vor lua în considerare şi cele de tip m \times n:

A= \begin{bmatrix}  a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{bmatrix}.

Se mai scrie condensat A= [a_{ij}]. Se mai defineşte adunarea matricelor (de acelaşi tip) şi înmulţirea cu scalari, după fiecare component, exact ca la vectori. Astfel, dându-se două matrice A = [a_{ij}], B= [b_{ij}] de tip m \times n, suma acestora reprezintă matricea C= [c_{ij}], unde:

c_{ij} = a_{ij} + b_{ij}, \; \forall i \in \overline {1, m}, j \in \overline {1,n}.

Pentru înmulţirea cu scalari, dacă A=[a_{ij}] este o matrice de tip m \times n, iar \lambda \in \mathbb R, atunci \lambda \cdot A = C, unde C=[c_{ij}] cu c_{ij} = \lambda a_{ij},  \; \forall i \in \overline {1, m}, j \in \overline {1,n}.

Acum să definim înmulţirea a două matrice. Dacă A=[a_{ij}], \; B=[b_{ij}] sunt două matrice de tip n \times n (deci pătratice), atunci se defineşte A \times B = C, unde C=[c_{ij}] cu proprietatea:

c_{ij} = \sum_{k=1}^n a_{ik} b_{kj},

care de fapt reprezintă produsul scalar dintre linia i a lui A şi coloana j a lui B.

Produs vect matr 398eudfchjn.PNG

Exemplu. Fie:

A = \begin{bmatrix} 1 & 0  & 3 \\ 2 & 1 & 0 \\ 1 & 0 & 0 \end{bmatrix} şi B = \begin{bmatrix} 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 1 & 1 \end{bmatrix}.

Atunci:

A \times B =  \begin{bmatrix} 0 & 4 & 3 \\ 1 & 2 & 0 \\ 0 & 1 & 0 \end{bmatrix} şi B \times A = \begin{bmatrix} 2 & 1  & 0 \\ 1 & 0 & 3 \\ 3 & 1 & 0 \end{bmatrix}

Se observă că A \times B \neq B \times A.


În mod similar se poate defini înmulţirea unei matrice de tip m \times n (m linii, n coloane) cu una de tip n \times p (n linii, p coloane), când se obţine o matrice de tip m \times p. Se remarcă faptul că, pentru a putea fi definit produsul, trebuie ca numărul de coloane ale matricei A să fie egal cu numărul de linii ale matricei B.


Orice matrice A de tip m \times n determină o funcţie de la \mathbb R^n la \mathbb R^m după cum urmează: Fie \mathbf x = (x_1, x_2, \cdots , x_n) \in \mathbb R^n; se consideră o matrice de tip n \times 1 (deci de tip coloană) asociat lui \mathbf x pe care o notăm:

\mathbf x^T= \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n  \end{bmatrix}.

Efectuăm înmulţirea:

A \mathbf x^T = \begin{bmatrix} a_{11} & \cdots & a_{1n} \\ \vdots & & \vdots \\ a_{m1} & \cdots & a_{mn}  \end{bmatrix} \times \begin{bmatrix}  x_1 \\ \vdots \\ x_n \end{bmatrix} = \begin{bmatrix}  y_1 \\ \vdots \\ y_m \end{bmatrix}  = \mathbf y^T,

rezultat care corespunde vectorului \mathbf y = (y_1, \cdots , y_m).

Cu riscul de a provoca confuzii, se va nota:

\mathbf x = \begin{bmatrix} x_1 \\ \vdots \\ x_n \end{bmatrix}, \qquad \mathbf y = \begin{bmatrix} y_1 \\ \vdots \\ y_n \end{bmatrix}

Aşadar, regula de corespondenţă \mathbf x \mapsto A \mathbf x defineşte o aplicaţie de la \mathbf R^n la \mathbb R^m. Această aplicaţie este liniară adică satisface proprietatea:

A (\mathbf x + \mathbf y) = A \mathbf x + \mathbf y
A (\alpha \mathbf x) = \alpha (A \mathbf x), \; \; \alpha \in \mathbb R,

ceea ce poate fi verificat cu uşurinţă.

Dacă A=[a_{ij}] este o matrice de tip m \times n şi \mathbf e_j vectorul de bază standard de rang j din \mathbb R^n, atunci A \mathbf e_j este un vector din \mathbb R^m cu aceleaşi componente ca şi coloana numărul j a lui A. Deci componenta i a lui A \mathbf e_j este a_{ij}. Aceasta se poate scrie condensat: (A \mathbf e_j)_i = a_{ij}.


Exemple.

(a) Dacă A= \begin{bmatrix} 1 & 0 & 3 \\-1 & 0 & 1 \\ 2 & 1 & 2 \\ -1 & 2 & 1 \end{bmatrix},

atunci \mathbf x \mapsto A \mathbf x din \mathbb R^3 în \mathbb R^4 este aplicaţia definită prin:

\begin{bmatrix} x_1 \\ x_2 \\ x_3  \end{bmatrix} \mapsto \begin{bmatrix} x_1 + 3x_3 \\ -x_1 +x_3 \\ 2 x_1 + x_2 +2 x_3 \\ -x_1 +2 x_2 + x_3  \end{bmatrix}
(b) Înmulţirea unei matrice cu o matrice coloană de tip \mathbf e_i:
A \mathbf e_2 = \begin{bmatrix} 4 & 2 & 9 \\ 3 & 5 & 4 \\ 1 & 2 & 3 \\ 0 & 1 & 2   \end{bmatrix} \begin{bmatrix} 0 \\ 1 \\ 0  \end{bmatrix}  =  \begin{bmatrix} 2 \\ 5 \\ 2 \\ 1  \end{bmatrix} =  a doua coloană a lui A.


Proprietăţile matricelor

Înmulţirea matricelor nu este în general comutativă: Dacă A, B sunt două matrice de tip n \times n atunci în general:

A \times B \neq B \times A.

O matrice de tip n \times n este inversabilă dacă există o matrice B de tip n \times n astfel încât:

A \times B = B \times A = I_n,

unde: I_n= \begin{bmatrix} 1 & 0 & 0 & \cdots & 0 \\ 0 & 1 & 0 & \cdots & 0 \\ 0 & 0 & 1 & \cdots 0 \\ \vdots & \vdots & \vdots & & \vdots \\ 0 & 0 & 0 & \cdots & 1 \end{bmatrix}

este matricea unitate de ordinul n \times n. Aceasta are proprietatea că I_n \times C = C \times I_n = C pentru orice matrice de tip n \times n.

Inversa unei matrice A se notează A^{-1}. Dacă această inversă există, atunci este unică.

Metodele de calculare a inversei unei matrice sunt furnizate de algebra liniară. Dacă A este inversabilă, atunci ecuaţia A \mathbf x = \mathbf y poate fi rezolvabilă pentru vectorul \mathbf x multiplicând ambii membrii cu A^{-1} şi se obţine:

\mathbf x = A^{-1} \mathbf y.

[De fapt, regula lui Cramer reprezintă o modalitate de a inversa matricele.]


Determinantul unei matrice de tip 4 \times 4 poate fi definit astfel:

\begin{vmatrix} a_{11} & a_{12} & a_{13} & a_{14} \\ a_{21} & a_{22} & a_{23} & a_{24} \\  a_{31} & a_{32} & a_{33} & a_{34} \\ a_{41} & a_{42} & a_{43} & a_{44} \end{vmatrix} = a_{11} \begin{vmatrix} a_{22} & a_{23} & a_{24} \\ a_{32} & a_{33} & a_{34} \\ a_{42} & a_{43} & a_{44} \end{vmatrix} - a_{12} \begin{vmatrix} a_{21} & a_{23} & a_{24} \\  a_{31} & a_{33} & a_{34} \\ a_{41} & a_{43} & a_{44} \end{vmatrix} =
+ a_{13} \begin{vmatrix} a_{21} & a_{22} & a_{24} \\  a_{31} & a_{32} & a_{34} \\ a_{41} & a_{42} & a_{44} \end{vmatrix} - a_{14} \begin{vmatrix} a_{21} & a_{22} & a_{23} \\  a_{31} & a_{32} & a_{33} \\ a_{41} & a_{42} & a_{43} \end{vmatrix} .


Proprietăţile de bază ale determinanţilor 3 \times 3 se pot generaliza şi pentru cei de tip 4 \times 4.

Astfel, dacă la o linie (sau coloană) adăugăm o altă linie (sau coloană) multiplicată cu un scalar, rezultatul determinantului nu se schimbă.


Exemplu Fie

A = \begin{bmatrix} 1 & 0 & 1 & 0 \\ 1 & 1 & 1 & 1 \\  2 & 1 & 0 & 1 \\ 2 & 1 & 0 & 1 \\  1 & 1 & 0 & 2  \end{bmatrix}.

Să determine \det A. Admite A o inversă?


Soluţie.

Adunând (-1) \times \; prima \; coloan \breve a, la a a treia coloană obţinem:

\det A = \begin{vmatrix} 1 & 0 & 0 & 0 \\ 1 & 1 & 0 & 1 \\ 2 & 1 & -2 & 1 \\ 1 & 1 & -1 & 2 \end{vmatrix} = 1 \begin{vmatrix} 1 & 0 & 1 \\ 1 & -2 & 1 \\ 1 & -1 & 2 \end{vmatrix}

Adunând (-1) \times \; prima \; coloan \breve a, la a a treia coloană a determinantului de tip 3 \times 3, obţinem:

 \det A = \begin{vmatrix}  1 & 0 & 0 \\ 1 & -2 & 0 \\ 1 & -1 & 1 \end{vmatrix} = \begin{vmatrix} -2 & 0 \\ -1 & 1   \end{vmatrix}=-2.

Deci \det A = -2 \neq 0, deci A admite un invers.



Înmulţirea matricelor (de acelaşi tip!) este asociativă:

(A \times B) \times C = A \times (B \times C).

Rezultatul, notat A \times B \times C, este numit triplul produs al matricelor A, B, C.



Istoric

Fondatorul geometriei analitice (bazată pe sistem de coordomate) a fost René Descartes, un mare fizician, filozof, matematician, dar şi fondator al biologiei moderne.

În 1628 s-a mutat în Olanda, unde a scris celebra sa lucrare La Géométrie, care poate fi considerată actul de naştere al geometriei analitice. Spre deosebire de vechii greci, care erau adepţii geometriei sintetice, ale căror demonstraţii se bazau pe figură şi raţionamente ingenioase, Descartes a introdus utilizarea algebrei în geometrie. La aceasta s-a adăugat ulterior opera lui Leibniz şi Newton care au fondat calculul diferenţial şi integral.

La mijlocul secolului al XIX-lea Bolyai şi Lobacevski au dezvoltat geometria ne-euclidiană.

În 1854, Bernhard Riemann avea să facă publică lucrarea Asupra ipotezelor care stau la baza geometriei, prin care punea bazele unei noi geometrii.

Graţie cercetărilor lui Riemann, Einstein a realizat, în 1910, că gravitaţia ar putea fi interpretată ca o consecinţă a curburii într-un spaţiu cvadridimensional.



Exerciţii

1) În \mathbb R^n demonstraţi că:

(a) 2 \| \mathbf x \|^2 + 2 \| \mathbf y \|^2 =  \| \mathbf x + \mathbf y \|^2 +  \| \mathbf x - \mathbf y \|^2 (legea paralelogramului)
(b)  \| \mathbf x + \mathbf y \|  \| \mathbf x - \mathbf y \| \le  \| \mathbf x \|^2 + \| \mathbf y \|^2
(c) 4 (\mathbf x \cdot \mathbf y)  = \| \mathbf x + \mathbf y \|^2 -  \| \mathbf x - \mathbf y \|^2 (identitatea polarizării)

Interpretaţi geometric aceste rezultate utilizând paralelogramul format de \mathbf x, \mathbf y.


2) Verificaţi inegalitatea Cauchy-Schwarz pentru perechile:

(a) \mathbf x= (2,0,-1), \; \mathbf y=(4,0,-2);
(b) \mathbf x= (1,-1, 1, -1, 1), \; \mathbf y=(3,0,0,2);

R.

(a)

| \mathbf x \cdot \mathbf y | = 10= \sqrt 5 \sqrt {20} = \| \mathbf x \|  \| \mathbf y \|, deci | \mathbf x \cdot \mathbf y | \le \| \mathbf x \|  \| \mathbf y \ este adevărat.

\| \mathbf x + \mathbf y \| = 3 \sqrt 5  =  \| \mathbf x \| + \| \mathbf y \|, deci \| \mathbf x \| + \| \mathbf y \| \le \| \mathbf x \| +  \| \mathbf y \| este adevărat.
(b)

| \mathbf x \cdot \mathbf y | = 5 < \sqrt {65} = \| \mathbf x \|  \| \mathbf y \|, deci | \mathbf x \cdot \mathbf y | \le \| \mathbf x \|  \| \mathbf y \| este adevărat.

\| \mathbf x + \mathbf y \| = \sqrt {28} < \sqrt 5 + \sqrt {13} = \| \mathbf x \| + \| \mathbf y \| , deci  \| \mathbf x  +  \mathbf y \|  \le \| \mathbf x \| + \| \mathbf y \| este adevărat.


7

A \times B= \begin{bmatrix} -1 & -1 3 \\ -1 & 11 & 3 \\ -6 & 5 & 8 \end{bmatrix}, \qquad \det A = -5, \; \det B = -24,
\det (A \times B) = 120 (= \det A \det B), \qquad \det (A+B) = -61 (\neq \det A + \det B).


9

Indicaţie: Pentru k=2 se utilizează inegalitatea triunghiului pentru a demonstra că \| \mathbf x_1 + \mathbf x_2 \| \le \| \mathbf x_1 \| + \| \mathbf x_2\|; apoi pentru k=i+1 se ţine cont că \| \mathbf x_1 \| + \| \mathbf x_2 + \cdots + \| \mathbf x_{i+1} \|  \le \| \mathbf x_1 + \mathbf x_2 + \cdots + \mathbf x_i \| + \|  \mathbf x_{i+1} \|.


11

(a) n=1, \qquad n=2 se verifică în mod direct.

Apoi se reduce determinantul de tip n \times n ca o sumă de (n-1) \times (n-1) determinanţi şi se utilizează inducţia.

(b) Argumentul este similar cu cel de la partea (a).

Se presupune că primul rând este multiplicat cu \lambda. Primul termen al sumei va fi \lambda a_{11} înmulţit cu un determinant de tip (n-1) \times (n-1) care nu are alţi factori decât \lambda. Ceilalţi termeni, obţinuţi prin dezvoltarea după prima linie, sunt similari.


13

Nu neapărat. Se verifică cu A= \begin{bmatrix}  0 & 1 \\0 & 0 \end{bmatrix} şi B= \begin{bmatrix}  1 & 0 \\0 & 0 \end{bmatrix}


15

(a) Suma a două funcţii continue cu un multiplu scalar al unei funcţii continue este o funcţie continuă.
(b) (i) (\alpha f + \beta g) \cdot h  = \int_0^1 (\alpha f + \beta g) (x) h(x) dx =
= \int_0^1 f(x) h(x) dx + \beta \int_0^1 g(x) h(x) dx = \alpha f \cdot h + \beta g \cdot h.
(ii) f \cdot g = \int_0^1 f(x) g(x) dx = \int_0^1 g(x) f(x) dx = g \cdot f.

În condiţiile (iii) şi (iv), integrandul este un pătrat perfect. Deci integrala în domeniul non-negativ nu poate fi nulă dacă integrandul este zero peste tot. Dacă f(x) \neq 0 pentru un anumit x, atunci ar putea fi pozitivă în vecinătatea lui x prin continuitate şi integrala ar fi pozitivă.







Ad blocker interference detected!


Wikia is a free-to-use site that makes money from advertising. We have a modified experience for viewers using ad blockers

Wikia is not accessible if you’ve made further modifications. Remove the custom ad blocker rule(s) and the page will load as expected.

Also on Fandom

Random Wiki