calcolo tensoriale

March 19, 2018 | Author: Kla Jiyuu | Category: Eigenvalues And Eigenvectors, Tensor, Basis (Linear Algebra), Euclidean Vector, Vector Space


Comments



Description

'Elementi $ di Calcolo Tensoriale su & Spazi Vettoriali Sergio Benenti 20 giugno 2012 % Indice Palinsesto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Spazi vettoriali puri iii 1 1.1 Richiami e notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Forme lineari e spazi duali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.3 Forme bilineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.4 Forme bilineari simmetriche . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.5 Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.6 Endomorfismi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.7 Determinante e traccia di un endomorfismo . . . . . . . . . . . . . . . . . . 14 1.8 Polinomio caratteristico di un endomorfismo . . . . . . . . . . . . . . . . . . 16 1.9 Autovalori e autovettori di un endomorfismo . . . . . . . . . . . . . . . . . . 18 1.10 Il teorema di Hamilton-Cayley . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.11 Tensori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 1.12 Somma tensoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 1.13 Prodotto tensoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 1.14 Basi tensoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.15 Contrazione o saturazione di due indici . . . . . . . . . . . . . . . . . . . . . 28 1.16 Tensori antisimmetrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.17 Antisimmetrizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 1.18 Prodotto esterno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 1.19 Algebra esterna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 1.20 Il simbolo di Levi-Civita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2 Spazi vettoriali con struttura 39 2.1 Spazi vettoriali euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.2 Endomorfismi in spazi euclidei . . . . . . . . . . . . . . . . . . . . . . . . . 44 i ii 2.3 Endomorfismi ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 2.3.1 Rappresentazione mediante simmetrie . . . . . . . . . . . . . . . . . 52 2.3.2 Decomposizione simmetrica delle isometrie . . . . . . . . . . . . . . 53 2.3.3 Rappresentazione esponenziale . . . . . . . . . . . . . . . . . . . . . 53 2.3.4 Rappresentazione di Cayley . . . . . . . . . . . . . . . . . . . . . . . 54 2.3.5 Rappresentazione quaternionale . . . . . . . . . . . . . . . . . . . . . 55 2.4 Lo spazio vettoriale euclideo tridimensionale . . . . . . . . . . . . . . . . . . 56 2.4.1 La forma volume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 2.4.2 Aggiunzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 2.4.3 Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 2.4.4 Endomorfismi assiali . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 2.4.5 Rotazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 2.5 Spazi vettoriali iperbolici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 iii Palinsesto Argomenti trattati in questa dispensa.   Puri, senza strutture addizionali                    euclidea           Su spazi vettoriali   pseudo-euclidea, iperbolica        Con struttura         simplettica               altre              puri            euclidei (1)    Su spazi affini Calcolo  semi-euclidei (2)   tensoriale         pseudo-euclidei (3)               Pure                 con connessione                  riemanniana (4)     Su variet` a differenziabili        Con struttura pseudo-riemanniana (5)                  simplettica (6)              altre Applicazioni: (1) Meccanica razionale. (2) Spazio-tempo newtoniano. (3) Spazio-tempo di Minkowski: relativit` a ristretta. (4) Meccanica lagrangiana. (5) Relativit` a generale. (6) Meccanica hamiltoniana. in un qualunque gruppo. Il vettore nullo e l’opposto di un qualunque vettore sono unici (perch´e unici sono. Per ogni vettore u si ha 0u = 0.      1 u = u. cio`e il vettore per cui u + (−u) = 0. ∀ a ∈ K. u ∈ E. ∃ v ∈ E | u + v = 0. gli elementi di K scalari. ∀ u ∈ E. u ∈ E. detta prodotto per uno scalare. b ∈ K. `e definita un’operazione binaria interna su E. 1 . `e definita un’operazione K × E → E.       (u + v) + w = u + (v + w).  ∃ 0 ∈ E | u + 0 = u. Scriviamo v − u al posto di v + (−u). soddisfacente agli assiomi di gruppo commutativo:  u + v = v + u. u ∈ E. l’elemento neutro e il reciproco di un qualunque elemento). con lettere grassetto (quasi sempre minuscole). ∀ a. ∀ a.       (a + b)u = a u + b u. v ∈ E. Gli elementi di E si dicono vettori. 1 = unit` a in K. v. ∀ u. Con lo stesso simbolo 0 denotiamo anche lo zero del campo K. ∀ u.      ∀ u ∈ E. 2. b ∈ K. w ∈ E. salvo l’elemento neutro 0 ∈ E (zero o vettore nullo).  (ab) u = a(b u). Denotiamo i vettori. tale da soddisfare alle seguenti condizioni:  a (u + v) = a u + a v. Si denota con − u il vettore opposto a u. ∀u ∈ E.Capitolo 1 Spazi vettoriali puri 1. detta somma.1 Richiami e notazioni Un insieme E `e uno spazio vettoriale o spazio lineare sopra un corpo commutativo K se: 1. + : E × E → E. v ∈ E. cio`e un insieme di n vettori indipendenti che generano tutto E tramite tutte le loro possibili combinazioni lineari. . . Un sottoinsieme S ⊂ E `e un sottospazio se le propriet` a (i) e (ii) valide in E valgono anche per tutti gli elementi di S. Una generica base di E sar` a denotata con (e1 . aw). Il numero n coincide col massimo numero di vettori indipendenti in un qualunque insieme di vettori. w) = (au. I coefficienti di questa combinazione lineare sono le componenti del vettore v. . w0 ) = (u + u0 . Allora la rappresentazione precedente si scrive pi` u semplicemente v = v i ei . w) + (u0 . Esso prende il nome di dimensione dello spazio. . Denoteremo anche con u ⊕ w un generico elemento di E ⊕ F . sono univocamente determinate. cio`e l’insieme dei vettori di E costituito da tutte le possibili somme di elementi di K e di L. cio`e l’insieme delle n-ple di elementi del campo. dove l’indice i sar` a inteso variare da 1 a n. Una scrittura del tipo 1 2 k a v 2 + a v 2 + . Due o pi` u vettori si dicono indipendenti se la sola combinazione lineare che fornisce il vettore nullo `e quella a coefficienti tutti nulli: k X ai vi = 0 =⇒ ai = 0. fissata la base. Si noti la diversa posizione degli indici riservata alle componenti (v i ). w + w 0 ) e a(u. La somma K + L e l’intersezione K ∩ L di due sottospazi vettoriali sono a loro volta dei sottospazi. + v en = v i ei i=1 `e la rappresentazione di un generico vettore v ∈ E secondo la base (ei ). e2 . . Spazi vettoriali puri Tra gli spazi vettoriali sopra un assegnato campo K ritroviamo il campo stesso e tutte le sue potenze cartesiane Kn . in alto anzich´e in basso. . Denotiamo con E ⊕ F la somma diretta di due spazi vettoriali (sul medesimo corpo K): `e il prodotto cartesiano E × F dotato della naturale struttura di spazio vettoriale definita dalle operazioni (u. . denotiamo con K + L la loro somma.2 Capitolo 1. La scrittura n X 1 2 n v = v e2 + v e2 + . Scriveremo En oppure dim(E) = n per indicare che la dimensione dello spazio vettoriale E `e n. Si conviene tuttavia di omettere il simbolo di sommatoria per indici ripetuti in alto e in basso (convenzione di Einstein). Le componenti di un vettore. Si dice anche che uno spazio vettoriale E `e la somma diretta di due suoi sottospazi K e L se E = K + L e se K ∩ L = {0}. i=1 Uno spazio vettoriale `e detto a dimensione finita se ammette una base costituita da un numero finito n di vettori. E risulta pertanto identificabile con K ⊕ L. . Se K e L sono due sottospazi. en ) o brevemente con (ei ). + a vk = k X ai vi i=1 prende il nome di combinazione lineare dei vettori v i con coefficienti ai ∈ K. In tal caso ogni vettore `e la somma di due vettori univocamente determinati di K e L. . lettere latine minuscole. un’applicazione A : E1 × E2 × . se (E1 . Ep. . . valide soltanto per una base particolare o per una classe particolare di basi..3 1. . la precedente scrittura `e del tutto equivalente alle seguenti: v = v h eh . v = v k ek . F ) l’insieme delle applicazioni lineari da E a F . Se per esempio conveniamo che le lettere latine minuscole a partire dalla h varino da 1 a n. Denoteremo in genere gli omomorfismi lineari con lettere maiuscole in grassetto.. Quest’insieme ha una naturale struttura di spazio vettoriale. Pi` u in generale. con la somma A + B e il prodotto a A per un elemento a ∈ K definiti da (A + B)(v) = A(v) + B(v). conseguente alla scelta di una base generica. Per quel che riguarda il concetto di dimensione `e opportuno ricordare che per due sottospazi di uno spazio vettoriale E vale la formula di Grassmann (Hermann G¨ unther Grassmann. b ∈ K). × Ep → F . v ∈ E. lettere greche. Un’applicazione A : E → F da uno spazio vettoriale E ad uno spazio vettoriale F si dice lineare se A(a u + b v) = a A(u) + b A(v) (∀u. ∀a. Le formule riguardanti il calcolo vettoriale o tensoriale sono in genere di tre tipi. F ) o semplicemente con L(E. Una formula `e di tipo intrinseco o assoluto se essa coinvolge vettori o tensori ed operazioni definite su questi senza l’intervento di basi. lettere latine maiuscole dopo la I. Vi sono infine formule.. . . (a A)(v) = a A(v). i cui primi elementi saranno illustrati in questo capitolo. E2 . purch´e la lettera usata appartenga ad un insieme precedentemente convenuto (per esempio. Per sottolineare questa circostanza useremo sovente un’uguaglianza ∗ con asterisco: =. La diversa collocazione degli indici e la sommatoria sottintesa per indici ripetuti in alto e in basso sono convenzioni tipiche del calcolo tensoriale.1. v = v j ej . Si dice anche che A `e un omomorfismo lineare. e cos`ı via). Denoteremo con Hom(E. 1809-1877) dim(K + L) + dim(K ∩ L) = dim(K) + dim(L). con indici. Ad una formula di tipo intrinseco corrisponde sempre una formula con indici o in componenti. Richiami e notazioni Si noti che non ha importanza la scelta dell’indice. F ) sono spazi vettoriali. Il formalismo che ne deriva `e agevole e sintetico. . R) = Tqp (E) | {z } | {z } p volte 1. ..4 Capitolo 1. Ad ogni sottospazio K ⊂ E associamo un sottospazio K ◦ ⊂ E ∗ . .1) Gli elementi di E ∗∗ saranno di seguito sempre identificati con i vettori di E. . . K = R) e a dimensione finita.2) . Ep. R) delle forme lineari `e pi` u semplicemente denotato con E ∗ ed `e chiamato spazio duale di E. E) = End(E) endomorfismi lineari su E L(E. . di dimensione 1). Spazi vettoriali puri `e detta p-lineare (genericamente multilineare) se `e lineare su ogni argomento. × Ep a F . αi = 0. costituito da tutti i covettori che annullano tutti gli elementi di K: K ◦ = {α ∈ E ∗ | hu. si vede in particolare che dim(E ∗ ) = dim(E). . . Esiste un’isomorfismo canonico ι : E → E ∗∗ tra lo spazio biduale E ∗∗ = L(E ∗ . F ) l’insieme delle applicazioni multilineari da E1 × E2 × .2 tensori di tipo (p. αi. Diremo che hv. R) = E ∗ applicazioni lineari spazio duale di E L(E. In queste lezioni ci limiteremo a considerare solo spazi vettoriali reali (cio`e sul campo dei reali. detto polare di K. . di v su α. Ponendo F = R in quanto si `e detto nel paragrafo precedente. E. F ) L(E. (1. Eesamineremo i seguenti spazi di applicazioni: L(E. definito dall’uguaglianza hα. . E . . ι(v)i = hv. Al posto di α(v) useremo il simbolo hv. E2 . (1. viceversa. F ) = Hom(E. αi per denotare il valore del covettore α sul vettore v. . y) 7→ xy `e bilineare (l’insieme dei numeri reali R ha un’ovvia struttura di spazio vettoriale su se stesso. E. Anch’esso `e dotato di una struttura naturale di spazio vettoriale. ∀u ∈ K}. R) e lo spazio E stesso. q volte Forme lineari e spazi duali Un’applicazione lineare α : E → R da uno spazio vettorale E allo spazio R dei numeri reali `e detta forma lineare su E o covettore. . q). Denoteremo con L(E1. E ∗. Ad esempio l’applicazione R2 → R : (x. R) = T2 (E) forme bilineari su E L(E ∗. αi `e la valutazione di α su v o. . Lo spazio L(E. Analogamente la (1.     (K + L)◦ = K ◦ ∩ L◦ .5) mostra che le componenti di un vettore sono ottenute valutando sul vettore gli elementi della base duale.6) mostra che le componenti di un covettore coincidono con le valutazioni di questo sugli elementi della base di E. (1. qualunque siano i sottospazi K e L di E:  dim(K) + dim(K ◦ ) = dim(E). 1823-1851): δji = ( 1 se i=j 0 se i 6= j Per ogni v ∈ E e α ∈ E ∗ valgono le relazioni: v = v i ei ⇐⇒ v i = hv. Infine la (1. Ad ogni base (ei ) di E corrisponde un base duale in E ∗ . anzich´e in alto come per le componenti dei vettori) e la simmetria formale di queste uguaglianze. Osservazione 1. definita implicitamente dall’uguaglianza: hej . εi i = δji (1. L’equivalenza (1.      ◦ K + L◦ = (K ∩ L)◦ .    K ◦ ⊂ L◦ ⇐⇒ L ⊂ K. le ultime due uguaglianze (1. A1 = {x ∈ E |hx.6) hv.5 1.3) esprimono la medesima propriet` a. αi (1.7) La loro dimostrazione `e lasciata come esercizio. . αi = 0}.4) dove δji `e il simbolo di Kronecker (Leopold Kronecker.7) mostra che la valutazione tra un vettore ed un covettore `e data dalla somma dei prodotti delle componenti omologhe. Ad ogni covettore α ∈ E ∗ si possono far corrispondere due sottoinsiemi di E: A0 = {x ∈ E |hx.       K ◦◦ = K. Si noti che la seconda di queste uguaglianze sottintende l’intervento dell’isomorfismo canonico tra lo spazio e il suo biduale e che inoltre.2. αi = αi v i (1.3) La loro dimostrazione `e lasciata come esercizio.5) α = αi εi ⇐⇒ αi = hei . in virt` u di questo isomorfismo. Forme lineari e spazi duali Sussistono le seguenti propriet` a. Si osservi la diversa posizione degli indici delle componenti di un covettore (in basso.1 – Rappresentazione geometrica dei covettori. che denotiamo con (εi ). εi i (1. αi = 1}.2. il primo passante per l’origine.2 1 In accordo con quanto detto all’inizio di questo capitolo. Conveniamo che il primo indice sia indice di riga. E. oppure `e v = λ x con x ∈ A1 . αi = 0. occorre dimostrare che il rango della matrice delle componenti non dipende dalla scelta della base di E. e allora poniamo hv. Lo spazio delle forme bilineari1 `e denotato con L(E. R). il secondo di colonna. La conoscenza di questi due sottoinsiemi (in effetti basterebbe la conoscenza del secondo) determina completamente α.  1.8) si chiamano componenti della forma bilineare secondo la base. o `e v ∈ A0 . αi = λ. denotate con (xi ) le componenti di un generico vettore x.9) Le componenti [ϕij ] formano una matrice quadrata n × n. •   Rappresentazione geometrica dei covettori. Per ogni coppia di vettori di E si ha: ϕ(u.6 Capitolo 1.3  Forme bilineari Una forma bilineare su di uno spazio vettoriale E `e un’applicazione bilineare di E × E in R. i due sottoinsiemi A0 e A1 sono rispettivamente definiti dalle equazioni αi xi = 0. αi xi = 1. Si chiama rango della forma ϕ il rango della matrice [ϕij ]. Naturalmente. v) = ϕij ui v j (1. affinch´e questa definizione abbia senso. e allora poniamo hv. dato un vettore v ∈ E. Si tratta di una coppia di iperpiani paralleli. 2 . Spazi vettoriali puri A0 `e un sottospazio di codimensione 1. i numeri ϕij = ϕ(ei . ej ) (1. A1 `e un suo laterale. Si osservi che. Infatti. Assegnata una base (ei ) di E. 10) segue dal fatto che.2 – Una forma bilineare si dice simmetrica (rispettivamente.11) oppure la condizione equivalente ϕ(u. in componenti.11) si scrive: ϕij ui v j = 0.14) cio`e se ϕ(u.1 – La trasposta di una forma bilineare ϕ `e la forma bilineare ϕT definita da ϕT (u. Che la (1. v) = (ei . v) = 0. ϕ(u. ∀v ∈ E =⇒ u=0 (1. u)).17) . antisimmetrica) se ϕT = ϕ (risp. Definizione 1. (risp. ϕT = − ϕ). u) • (1. v) = ϕ(v.12) sia equivalente alla (1. nella simmetria (risp. ej ) nella (1. Definizione 1. nella antisimmetria) della matrice delle componenti (basta porre (u.10) =⇒ v = 0. ed esprime la circostanza che il sistema lineare omogeneo (di n equazioni in n incognite) ϕij ui = 0 ammette solo la soluzione nulla. (1.15) Questa condizione si esprime.3.13) Si ha ovviamente ϕTT = ϕ. v) = 0.3. • (1. qualunque sia la base scelta. u). v) = − ϕ(v. (risp. Questa si semplifica in ϕij ui = 0 =⇒ ui = 0.7 1. ∀(v i ) ∈ Rn =⇒ ui = 0.3. ϕij = − ϕji ).13)): ϕij = ϕji . l’implicazione (1.12) Dunque una forma bilineare `e regolare se e solo se ha rango massimo (= n). (1. (1. Forme bilineari Una forma bilineare si dice regolare o non degenere se vale la condizione ϕ(u. ∀u ∈ E Entrambe sono equivalenti alla condizione det[ϕij ] 6= 0. v) = ϕ(v. (1. Vale cio`e l’uguaglianza ϕ = ϕS + ϕA posto ϕS = 12 (ϕ + ϕT ). ϕA = 12 (ϕ − ϕT ) (1.16) Una forma bilineare ϕ `e decomponibile nella somma della sua parte simmetrica ϕS e della sua parte antisimmetrica ϕA . αihv.3. vale a dire che gli interi p e q sono invarianti rispetto alla scelta di basi canoniche. .20). Due vettori si dicono coniugati (o anche ortogonali) rispetto a ϕ se ϕ(u. la matrice della componenti assume la forma:   1p 0 0      (1. Spazi vettoriali puri Osservazione 1. v) = p X a=1 a a u v − p+q X ub v b . La dimostrazione `e in appendice al paragrafo. u) = 0. (1.21) b=p+1 Si dimostra4 che esistono basi canoniche e inoltre che in ogni base canonica la matrice delle componenti `e sempre del tipo (1. cio`e se.19) dove le ϕij sono proprio le componenti definite dalla (1. dopo un eventuale riordinamento della base.9): ϕ(u. E. β ∈ E ∗ .8 Capitolo 1.18) Se (εi ) `e la base duale di una base (ei ) di E allora gli n2 prodotti εi ⊗ εj formano una base di L(E. Questa notevole propriet` a `e nota come teorema di Sylvester o legge di inerzia delle forme quadratiche (James Joseph Sylvester.4 Forme bilineari simmetriche Sia ϕ una forma bilineare simmetrica.20) [ϕij ] =   0 −1q 0    0 0 0 dove 1p e 1q denotano le matrici unitarie di ordine p e q rispettivamente. In una base canonica si ha quindi (si confronti con la (1. In particolare un vettore si dice isotropo se `e coniugato con se stesso. ϕ(u. • 1. Alla coppia di interi non negativi (p. 3 4 Sul prodotto ⊗ torneremo pi` u avanti. v) = 0. 1814-1897).8). unitario se invece ϕ(u. q) si d` a il nome di segnatura della forma bilineare simmetrica ϕ. u) = ±1.1 – Un esempio elementare ma importante di forma bilineare `e dato dal prodotto tensoriale α ⊗ β di due forme lineari α. Due sono i concetti fondamentali associati ad una forma bilineare simmetrica: quello di base canonica e quello di segnatura. Esso `e definito dall’uguaglianza (α ⊗ β) (u. Una base (ei ) di E si dice canonica (sempre rispetto a ϕ) se tutti i suoi vettori sono unitari o isotropi e fra loro coniugati. βi (1. R). v) = hu. Cos`ı una qualunque forma bilineare ϕ pu` o esprimersi come combinazione lineare di questi:3 ϕ = ϕij εi ⊗ εj (1. Mn = [ϕij ]. Forme quadratiche Si osserva dalla (1.. si dice sua polarizzazione l’applicazione δΦ : E × E → R definita da δΦ(u. Calcolato l’intero q. ei ).5 Forme quadratiche Data un’applicazione Φ : E → R.22) Una forma quadratica su di uno spazio vettoriale E `e un’applicazione Φ : E → R la cui polarizzazione δΦ `e una forma bilineare (ovviamente simmetrica). dalla quale siano stati eliminati gli eventuali zeri. M2 . u) = ϕij ui uj 5 (1. 1.9 1. det M2 .5. se ϕ `e una forma bilineare simmetrica allora l’applicazione Φ : E → R definita da Φ(u) = ϕ(u. Allora l’intero q della segnatura (p. Per calcolare la segnatura di una forma bilineare simmetrica ϕ basterebbe determinare una base canonica (o almeno una base di vettori fra loro ortogonali) (ei ) e valutare quindi i segni dei numeri ϕ(ei ..4. . Lezioni di Analisi Matematica I (CEDAM.. Si consideri una qualunque successione di sottomatrici quadrate principali.. di ordine crescente da 1 a n. Pertanto. Tricomi. ciascuna contenuta nella successiva: M1 . per la sua stessa definizione. la qual cosa pu` o rivelarsi in pratica piuttosto difficoltosa. illustrato nel seguente teorema:5 Teorema 1. . Si noti bene che questo metodo per il calcolo della segnatura lascia piena libert` a di scelta della base e delle sottomatrici della successione.23) Una dimostrazione si trova in F. v) = 1 2 h i Φ(u + v) − Φ(u) − Φ(v) (1. Padova). det Mn = det[ϕij ]. ad una forma quadratica corrisponde una forma bilineare simmetrica. l’intero p viene poi calcolato conoscendo il rango r della matrice: p = r − q. . Viceversa. Si pu` o allora fare ricorso ad un metodo assai rapido. q) `e uguale al numero delle variazioni di segno della successione di numeri 1. M1 . .20) che la somma p + q `e uguale al rango di ϕ.G.1 – Sia [ϕij ] la matrice delle componenti di una forma bilineare simmetrica ϕ relativa ad una base qualsiasi. Se si fissa il vettore v = (x2 . Pertanto la mappa δΦ : R2 × R2 → R : ((x1 . similmente. v) + 2 ϕ(u. Infatti: δΦ(u. v) − ϕ(u. quest’ultima espressione `e un binomio lineare in (x1 . y2 ). y1 ). v)  ϕ(u. y) 7→ x y. a=1 b=p+1 (1. v). cio`e se oltre alla condizione precedente vale l’implicazione Φ(u) = 0 ⇒ u = 0. y2 ).21)) Φ(u) = p p+q X X (ua )2 − (ub )2 . Φ(u) ≤ 0) ∀u ∈ E. • In una base canonica si ha (si veda la (1. (x2 .1 – Una forma quadratica Φ si dice semi-definita positiva (rispettivamente.5. Spazi vettoriali puri `e una forma quadratica tale che δΦ = ϕ. Si dice non definita o indefinita in tutti gli altri casi. Stante questa corrispondenza tutte le definizioni e le propriet` a stabilite per le forme bilineari si trasferiscono alle forme quadratiche. In particolare si dice definita positiva (risp. Esempio 1. u) + ϕ(v. u) − ϕ(v. definita negativa) se essa si annulla solo sul vettore nullo. v) = = = 1 2 1 2 1 2 Φ(u + v) − Φ(u) − Φ(v)  ϕ(u + v. Calcoliamone la polarizzazione seguendo la definizione (1. y1 ) e v = (x2 . semi-definita negativa) se Φ(u) ≥ 0 (risp. y2 )) 7→ 1 2 (x1 y2 + x2 y1 ) `e bilineare e quindi Φ: R2 → R : (x.24) . y1 ). se si fissa il vettore u = (x1 .1 – Consideriamo E = R2 e la funzione Φ : R2 → R : (x. y1 ). u) − ϕ(v. y2 )) = 12 (x1 + x2 )(y1 + y2 ) − x1 y1 − x2 y2 = = 1 2 1 2 (x1 y1 + x1 y2 + x2 y1 + x2 y2 − x1 y1 − x2 y2 ) (x1 y2 + x2 y1 ) . essa `e lineare in (x2 .  Vi `e dunque una corrispondenza biunivoca fra forme quadratiche e forme bilineari simmetriche. y1 ).22) con u = (x1 . • Definizione 1. y) 7→ x y `e una forma quadratica.5. (x2 . u + v) − ϕ(u. v) = ϕ(u.10 Capitolo 1. y2 ): h i δΦ ((x1 . e viceversa. . Occorre dimostrare che p0 = p. v − v n u) = 0. . 2 *** Dimostrazione del Teorema di Sylvester.5.25) Se in particolare ϕ `e definita positiva (o negativa). abbiamo m = dim(U ) ≤ n − 1. Per la (1. . Basta dimostrare l’esistenza di basi ortogonali. v ∈ E (1.27) . u) si vede che ϕ(u. Supponiamo ϕ 6= 0 e procediamo per induzione sull’intero n = dim(E). Se ϕ = 0 ogni base `e ortogonale. u) formano una base ortogonale di E (e quindi anche che m = n − 1).26) b0 =p0 +1 Si ha certamente p0 + q 0 = p + q = rank(ϕ). b0 = p0 + 1. allora si ha l’uguaglianza se e solo se u e v sono dipendenti. per ogni u ∈ E. 1843-1921) ϕ(u. D’altra parte. Analogamente per il caso negativo. . esiste almeno un vettore u ∈ E per cui ϕ(u. v) 2 ≤ Φ(u)Φ(v). .24) si ha. . ej ) = 0 per i 6= j. Dunque v − v n u ∈ U e quindi n v =v u+ m X v i ei . si scriva il sistema lineare omogeneo p+q X b=p+1 0 Ebb xb = 0. Considerata la relazione lineare ei = Eii ei0 tra le due basi. (b) `e definita positiva se p = n. Si supponga 0 per assurdo p0 > p (e quindi q 0 < q). *** Dimostrazione dell’esistenza di basi canoniche. (1. . Per una forma bilineare simmetrica semi-definita positiva (o negativa) vale la disuguaglianza di Schwarz (Hermann Schwarz. posto per ogni v∈E ϕ(u. Per n = 1 ogni vettore non nullo e ∈ E `e una base ortogonale per qualunque forma bilineare simmetrica su E. em ). l’uguaglianza Φ(u) = p X a=1 a 2 (u ) − p+q X b=p+1 0 b 2 (u ) = p X a0 =1 a0 2 (u ) − 0 +q 0 pX 0 (ub )2 . ∀ u. . . v) . Per la restrizione a U × U di ϕ esiste allora una base ortogonale (e1 . em . i=1 Ci` o mostra che i vettori indipendenti (e1 . Forme quadratiche Di qui si osserva che: (a) una forma quadratica `e semidefinita positiva se q = 0. Si consideri allora il sottospazio U = {v ∈ E | ϕ(u. per cui cio`e ϕ(ei . . Posto che ϕ 6= 0. Sia allora n > 1 e si supponga che ogni forma bilineare simmetrica su di uno spazio di dimensione < n ammetta una base ortogonale. u) = Φ(u) 6= 0. . Siano (ei ) e (ei0 ) due basi canoniche per la forma bilineare simmetrica ϕ. . Siccome u ∈ / U . (1. vn = ϕ(u. v) = 0} dei vettori ortogonali a u. p0 + q 0 .11 1. Questa disuguaglianza si traduce in T (x) ≡ x2 Φ(v) + 2 x ϕ(u. altrimenti T (x) avrebbe due radici reali e distinte e la (1. Sia u ∈ E il vettore che ha tutte le altre componenti nulle: u1 = .1 – Le considerazioni qui svolte sulle forme quadratiche trovano applicazione nella teoria dei massimi e minimi di una funzione a pi` u variabili e nella classificazione delle coniche. • 1. v) − Φ(u)Φ(v) del trinomio T (x) non pu` o essere positivo. . . il discriminante ∆ = ϕ(u. up+q ).5. Scelta una base (ei ) dello spazio E.25) `e allora soddisfatta come uguaglianza. che denotiamo con idE o con 1E o semplicemente con 1. qualunque sia x ∈ R. . Dalla seconda della (1. si verifica subito che vale l’uguaglianza nella (1. . Se Φ(v) > 0. . detta matrice delle componenti di A nella base (ei ) . 2 Dimostrazione della disuguaglianza di Schwarz. Se Φ(v) = 0. .12 Capitolo 1. Si denota con A−1 l’inverso di un automorfismo A. .25). xp+q ). E) di uno spazio vettoriale E in se stesso. . se vale l’uguaglianza risulta ∆ = 0 e pertanto il trinomio T (x) ammette una radice doppia x0 tale che Φ(u + x0 v) = 0. v) = 0. . Se u `e proporzionale a v (in particolare nullo). Spazi vettoriali puri Si tratta di q 0 equazioni nelle q incognite (xp+1 . .28) sia sempre soddisfatta deve essere necessariamente ϕ(u. perch´e la (1. Con una tale scelta si ha d’altra parte 0 0 ub = Eib ui = p+q X 0 Ebb ub = 0 b=p+1 perch´e (up+1 .28) 2 dove Φ(v) ≥ 0. Se Φ `e definita positiva deve necessariamente essere u + x0 v = 0. cio`e lo spazio degli endomorfismi lineari di E.26) segue allora Φ(u) ≥ 0: assurdo. si ha Φ(u + x v) ≥ 0 perch´e Φ `e semidefinita positiva. Fissati i vettori u e v. l’unit` a `e l’applicazione identica di E in se stesso. Dunque p0 = p.27). v) + Φ(u) ≥ 0.28) sarebbe violata. Formano un gruppo che denotiamo con Aut(E). questo sistema ammette certamente una soluzione non nulla (up+1 . 2 Osservazione 1. = un = 0. Denotiamo con 0 : E → E l’applicazione che manda tutti i vettori di E nello zero. La (1. Siccome q 0 < q. Per la prima parte della (1. . . Viceversa. .6 Endomorfismi lineari Denotiamo con End(E) lo spazio delle applicazioni lineari L(E. Denotiamo semplicemente con BA la composizione di due endomorfismi B ◦ A. Da ∆ ≤ 0 segue la disuguaglianza (1. quadriche e iperquadriche. = up = up+q+1 = . ad ogni endomorfismo A ∈ End(E) risulta associata una matrice quadrata [Aji ]n×n . . Per simmetria l’ipotesi p0 < p conduce pure ad un assurdo. Gli endomorfismi invertibili sono detti automorfismi o trasformazioni lineari di E. up+q ) `e una soluzione del sistema (1.25). (1. . L’operazione di composizione degli endomorfismi conferisce allo spazio End(E) la struttura di algebra associativa con unit` a. .26) si ha sicuramente Φ(u) < 0. 32) Si ha infatti.6. Endomorfismi lineari e definita dall’uguaglianza A(ei ) = Aji ej (1. εk i (1.29) le fornisce in maniera ‘implicita’.3 – La matrice delle componenti di un prodotto di endomorfismi `e il prodotto delle due rispettive matrici: (AB)ji = Ajk Bik (1. la matrice unitaria.2 – Applicando ad entrambi i membri della definizione (1.29).31) e la (1.32) `e righe per colonne: righe della prima matrice (Bik ) per le colonne della seconda o che la scrittura Ajk Bik a secondo membro della (1.30) Infatti. εj i = Bik hA(ek ). Si noti bene per` j del tutto equivalente a Bik Ak . Vale a dire: (1)ij = δji .29): j (AB)i = hA(B(ei )). applicando la (1. in componenti. εj i = Bik Ajk . il prodotto matriciale nella (1. nell’uguaglianza v j = Aji ui (1. Si noti che se si conviene che l’indice in basso sia indice di colonna. εj i = hA(Bik ek ). l’uguaglianza v = A(u) si traduce.6.1 – La matrice delle componenti dell’identit` a 1 `e.29) un covettore εk della base duale di (ei ) si trova l’uguaglianza Aki = hA(ei ). per la linearit` a di A e per la definizione (1. si ha successivamente: A(u) = A(ui ei ) = ui A(ei ) = ui Aji ej da cui segue che ui Aji coincide con la componente v j di v. posto che u = ui ei e v = v i ei .32) `e matrice (Ajk ).29) Di conseguenza.31) che fornisce le componenti di A in maniera ‘esplicita’. qualunque sia la base scelta.6. Osservazione 1. • Osservazione 1.6. • 6 La (1. .13 1.6 • Osservazione 1. [C.35) si ha successivamente: 0 = [A + B.6. quindi dalla condizione det[Aij ] 6= 0. A + B] = [A. se vale la (1. La terza. Di qui la (1. Dunque End(E) `e un algebra di Lie. ·] gode delle seguenti propriet` a:   [A. B] + [A. 1804-1851). Il commutatore [·. B] + [B. mostrano che il commutatore `e antisimmetrico e bilineare.     [aA + bB. B] = AB − BA. C] = a [A. Spazi vettoriali puri Osservazione 1. B] = 0 se e solo se i due endomorfismi commutano. La matrice delle componenti di A−1 `e l’inversa della matrice [Aij ]. cio`e la propriet` a anticommutativa. prende il nome di identit` a di Jacobi (Carl Gustav Jacob Jacobi. A]] + [C.7 Determinante e traccia di un endomorfismo Sebbene la matrice delle componenti di un endomorfismo cambi al cambiare della base – fanno eccezione l’endomorfismo nullo e quello identico – vi sono delle grandezze ad essa . Le prime due. C] + b [B. la cui verifica richiede un semplice calcolo. Nelle (1.34)1 implica la (1. • *** Commutatore di due endomorfismi. (1. 1842-1899). pu` o essere sostituita da [A. C]] + [B.33) Si ha [A. B] = − [B. A] = 0. A] . (1.30) rispetto alle (uj ).14 Capitolo 1. Le due operazioni binarie interne fondamentali nello spazio degli endomorfismi End(E). consentono di definire una terza operazione binaria interna. (1. B]] = 0. Vedremo nel corso di queste lezioni altri esempi di algebre di Lie. [A. C] . Viceversa.34)      [A. di verifica immediata.35).34) la prima propriet` a. Uno spazio vettoriale dotato di un’operazione binaria interna soddisfacente a queste tre propriet` a prende il nome di algebra di Lie (Marius Sophus Lie. [B. il commutatore.4 – Gli automorfismi sono caratterizzati dalla risolubilit` a del sistema lineare (1. A] + [B. 1.35) `e infatti ovvio che la (1. A] . A] = [A.34)1. B] + [B. Il commutatore di due endomorfismi A e B `e l’endomorfismo [A. Il seguente teorema mette in evidenza i primi due invarianti fondamentali.37) 0 Siano (Aji ) e (Aji0 ) le matrici delle componenti di un endomorfismo A rispetto alle due basi date. La (1.7.36) 0 dove (Eii ) e (Eii0 ) sono matrici regolari una inversa dell’altra. risulta 0 0 det[Aji ] = det[Eii ] det[Aji0 ] det[Ejj0 ] Ma det[Eii ] det[Ejj0 ] = 1 0 7 8 Presto ne definiremo altri. Determinante e traccia di un endomorfismo associate che invece non risentono di questo cambiamento. 0 (1. Siano (ei ) e (ei0 ) due basi di E. [Ai0 ] e [Ejj0 ]. mostra che la matrice [Ai ] `e il prodotto delle tre matrici [Eii ]. non dipendono dalla scelta della base e sono quindi intrinsecamente legate all’endomorfismo. 0 Eii0 Eij = δij0 . j0 A(ei0 ) = Ai0 ej 0 .38).38) che esprime la legge di trasformazione delle componenti di un endomorfismo al variare della base.29) abbiamo j A(ei ) = Ai ej .36) si ha successivamente:  0  0 0 0 0 0 Aji ej = A(ei ) = A Eii ei0 = Eii A (ei0 ) = Eii Aji0 ej 0 = Eii Aji0 Ejj0 ej Si ottiene quindi l’uguaglianza 0 Aji = Eii Aji0 Ejj0 0 (1. allora sussistono i legami 0 0 εi = Eii εi ⇐⇒ 0 εi = Eii0 εi . Dimostrazione. Siccome il determinante del prodotto di matrici `e uguale ai prodotti dei rispettivi determinanti. Secondo la definizione (1. 0 Se (εi ) e (εi ) sono le corrispondenti basi duali.1 – Il determinante det[Aij ] e la traccia Aii (cio`e la somma degli elementi della diagonale principale) della matrice delle componenti di un endomorfismo non dipendono dalla scelta della base. Facendo intervenire le relazioni (1. cio`e tali che 0 Eii Eij0 = δij .15 1. Sussistono i legami8 0 ei = Eii ei0 ei0 = Eii0 ei ⇐⇒ (1.7. Queste grandezze si chiamano invarianti dell’endomorfismo: pur essendo calcolate attraverso le componenti.7 Teorema 1. essendo presenti a secondo membro le sommatorie sugli 0 j j0 indici ripetuti i0 e j 0 . 1 – Il determinante e la traccia di un endomorfismo A ∈ End(E) sono i numeri det A = det[Aij ]. 0 A primo membro ho la traccia della matrice [Aji ]. trA = Aii . Segue 0 det[Aji ] = det[Aji0 ] e la prima tesi del teorema `e dimostrata.39)     det(AB) = det(A) det(B). Ritorno ora alla (1.16 Capitolo 1. • 1. Spazi vettoriali puri perch´e le due matrici coinvolte sono l’una inversa dell’altra. 2 Dopo questo teorema `e lecito introdurre la seguente definizione: Definizione 1.    tr(1) = n.       det(a A) = an det(A). (1. 0 j0 0 Aii = Ai0 δji 0 = Aii0 . dove [Aij ] `e la matrice delle componenti di A rispetto ad una qualunque base di E.       tr(a A) = a tr(A). Anche la seconda parte della tesi `e dimostrata.8 Polinomio caratteristico di un endomorfismo Introduciamo ora un altro concetto fondamentale nella teoria degli endomorfismi lineari. • Osservazione 1. per la propriet` a di δ.       tr(AB) = tr(BA). A secondo membro tengo ancora conto della sommatoria su i e osservo che 0 0 Eii Eji0 = δji 0 essendo le due matrici coinvolte una inversa dell’altra. .1 – Si dimostra che per la traccia ed il determinante di un endomorfismo valgono le seguenti propriet` a:  tr(A + B) = tr(A) + tr(B).38) e vi pongo j = i sottintendendo al solito la somma sull’indice ripetuto i: 0 Aii = Eii Aji0 Eji0 . che come prima cosa ci consentir` a di definire ulteriori invarianti.7.7. Ottengo dunque.      det(1) = 1. guardando il determinante nella formula precedente si vede che la potenza massima (n-esima) di x viene fuori dall prodotto degli elementi della diagonale principale.. .8. e dalla (1. n). il polinomio caratteristico `e un invariante. • (1..42) = xn − I1 (A) xn−1 + I2 (A) xn−2 − . 0) = (−1)n det A. Infatti. . .17 1. sono invarianti tutti i suoi n coefficienti Ik (A) (k = 1. .41). sviluppando il determinante nella (1. 0) = (−1)n In (A). non dipende cio`e dalla scelta della base. . come indicato nella (1. .8. Siccome questo polinomio `e invariante. Per quel riguarda gli altri invarianti. . An2 . .41) si arriva a dimostrare il teorema seguente: Teorema 1. comunque si scelga la base P (A. Ann − x           (1. trovo che In (A) = det A (1. `e conveniente scrivere per esteso il polinomio caratteristico nella forma seguente: P (A.43) cio`e che l’n-esimo invariante principale di A `e proprio uguale al determinante di A. Polinomio caratteristico di un endomorfismo Definizione 1.. . . Moltiplicando quindi il suddetto determinante per (−1)n .. . il coefficiente di xn si riduce a 1. come asserito. Si ha pertanto. x) = (−1)n det(A − x 1). An1 A22 − x .. A1n A2n .41) ottengo P (A.1 – L’invariante principale Ik (A) `e dato dalla somma dei minori principali di ordine k della matrice [Aij ]. . ..8.42) P (A.1 – Dicesi polinomio caratteristico di un endomorfismo A ∈ End(E) il polinomio di grado n = dim(E) nell’indeterminata x definito da: P (A. x) = (−1)n det(Aij − x δji )      n = (−1) det      A11 − x A12 A21 . .40) Essendo definito da un determinante. Osservo subito che per x = 0 dalla (1. x) = Pn k=0 (−1) k I (A) xn−k k (1. sempre grazie all presenza del segnate. Ci` o detto. Quindi. . e risulta essere (−x)n cio`e (−1)n xn . .. + (−1)n In (A).41) Il segnante (−1)n che interviene in questa definizione ha il compito di rendere uguale a 1 il coefficiente di xn . Essi prendono il nome di invarianti principali di A. . prendono il nome di autovalori di A. algebrica di grado n. Il loro insieme {λ1 . .48) In (A) = det A = λ1 λ2 . mentre per k = 1 si trova I1 (A) = trA (1. vista la definizione (1. . . . . λn . Spazi vettoriali puri Ricordiamo che un minore principale `e il determinante di una sottomatrice quadrata principale e che una sottomatrice quadrata si dice principale se la sua diagonale principale `e formata da elementi della diagonale principale della matrice che la contiene. Risulta in particolare: I1 (A) = tr A = λ1 + λ2 + . 1.44) Dunque tra gli invarianti principali ritroviamo non solo il determinante ma anche la traccia. (1. (1. se e solo se λ `e radice del polinomio caratteristico di A. P (A. di dimensione 1 e invariante. Gli autovalori sono invarianti. Un vettore v ∈ E non nullo si dice autovettore di A se esiste un numero reale λ tale da aversi A(v) = λ v. la (1.46) si traduce in un sistema di n equazioni lineari omogenee nelle incognite (v i). . dai noti teoremi sulle radici delle equazioni algebriche segue che l’invariante principale Ik (A) `e la somma di tutti i possibili prodotti di k autovalori. che prende il nome di autodirezione. . (1. Applicando questo teorema per k = n si ritrova In (A) = det A. λ2. . cio`e le soluzioni dell’equazione caratteristica. . nel senso sopra detto.18 Capitolo 1.40). Le radici del polinomio caratteristico.41) con cui si scrive il polinomio caratteristico. (1.45) pu` o anche scriversi (A − λ 1)(v) = 0.46) Scelta comunque una base di E. + λn . λn} prende il nome di spettro di A. componenti dell’autovettore v: (Aji − λ δij ) v i = 0.45) Un autovettore genera un sottospazio di autovettori (se si include lo zero). L’equazione (1. x) = 0. cio`e. Vista la forma (1.47) Tale sistema ammette soluzioni non banali se e solo se λ annulla il determinante della matrice dei coefficienti.9 Autovalori e autovettori di un endomorfismo Un sottospazio S ⊂ E si dice invariante rispetto ad un endomorfismo A se A(S) ⊂ S. Consideriamo il caso reale. + (−1)n In (A − λ1) = 0.49). Ir+1 (A − λ 1). e quindi mg(λ) = n − rank(A − λ 1) = n − r. . . e la denotiamo con mg(λ). per esempio per gli endomorfismi simmetrici in spazi strettamente euclidei. . Autovalori e autovettori di un endomorfismo Chiamiamo molteplicit` a algebrica di un autovalore λ. Osserviamo ora che lo spazio invariante Kλ degli autovettori associati a λ `e il nucleo di questo endomorfismo.9. per alcuni tipi di endomorfismi vale sempre l’uguaglianza. Chiamiamo molteplicit` a geometrica di λ la dimensione del sottospazio invariante associato Kλ . non si pu` o escludere che la somma di quelli principali.50) *** Dimostrazione della disuguaglianza (1. pur essendo per ipotesi i minori di ordine r non tutti nulli. Si dimostra (la dimostrazione `e in appendice al paragrafo) che `e sempre ma(λ) ≥ mg(λ) (1. L’equazione caratteristica di A pu` o ovviamente anche scriversi h i det (A − λ1) − (x − λ) 1 = 0.49) Tuttavia. ¶[† facendo intervenire gli invarianti principali dell’endomorfismo A − λ1. . la sua molteplicit` a come radice del polinomio caratteristico. Il rango r dell’endomorfismo (A − λ 1) coincide con il rango della matrice (Aji − λ δij ). cio`e (x − λ)n − I1 (A − λ1)(x − λ)n−1 + . che esamineremo pi` u avanti. Pertanto l’equazione caratteristica † si riduce in effetti all’equazione (x − λ)n − I1 (A − λ 1)(x − λ)n−1 + . Gli autovalori possono essere reali o complessi. Segue che gli invarianti In (A − λ 1). . + (−1)r Ir (A − λ 1)(x − λ)n−r = 0. . Sia λ un autovalore reale di un endomorfismo A. . comunque si scelga la base.45). sono tutti nulli perch´e somma di minori principali di ordine maggiore di r della matrice [Aji − λ δij ]. Osserviamo che sottospazi invarianti Kλ1 e Kλ2 corrispondenti ad autovalori distinti hanno intersezione nulla: λ1 6= λ2 =⇒ Kλ1 ∩ Kλ2 = 0 (1. e la denotiamo con ma(λ).19 1. Di qui si vede che λ `e una radice di ordine n − r almeno. . soluzioni cio`e dell’equazione (1. perch´e. . Ad ogni autovalore reale λ corrisponde un sottospazio Kλ ⊂ E di autovettori ad esso associati. da cui b(w − w 0 ) = 0. quindi w = w0 . non si annulli. Dalla prima delle (1. risulta A(u) = au − bw. Da queste propriet` a si deduce che ogni autovalore complesso λ individua un sottospazio invariante Kλ che `e somma diretta di sottospazi invarianti bidimensionali. ci si pu` o ricondurre al caso in cui u = u0 = x. λ1 6= λ =⇒ Kλ1 ∩ Kλ2 = 0 • (1. con u. Infatti.20 Capitolo 1.9. Si osserva inoltre che se v = u + i w `e autovettore associato a λ. se un vettore non nullo x appartenesse all’intersezione. w ∈ E. allora il vettore coniugato ¯ e che ogni altro vettore complesso ottenuto ¯ = u − i w `e autovettore associato a λ.45). Vale ancora la disuguaglianza (??). w) sono indipendenti. In caso contrario infatti. Dunque: ma(λ) ≥ n − r. A(w) = aw + bu. v moltiplicando v per un numero complesso qualunque `e ancora autovettore associato a λ. Si `e cos`ı condotti a considerare la complessificazione dello spazio E.45) nella sua parte reale e immaginaria. da una relazione del tipo u = cw seguirebbe v = (c + i)w e quindi dalla (1. mentre la (1. per le quali si definiscono le due operazioni di somma e di prodotto per un numero complesso in maniera formalmente analoga a quella della somma e del prodotto di numeri complessi.52) . dividendo per c + i. Non pu` o che essere Π = Π0 oppure Π ∩ Π0 = 0. La sua dimensione `e quindi pari e inoltre Kλ = Kλ¯ .51) seguirebbe A(x) = ax − bw. con opportuna moltiplicazione degli autovettori per un numero complesso. (1.46) fornisce soluzioni complesse v i = ui + i w i.51) Di qui si osserva che il sottospazio generato dai vettori indipendenti (u. Decomposta allora la (1. allora i vettori reali componenti (u. In questo caso per molteplicit` a geometrica di λ s’intende la met` a della dimensione di Kλ . perch´e anche in questo caso mg(λ) = n − r dove r `e il rango della matrice (Aji − λ δij ). cio`e lo spazio C(E) delle combinazioni v = u + i w. A(w) = λ w con λ solo elemento complesso: assurdo. Spazi vettoriali puri vale a dire l’invariante Ir (A − λ1). Poich´e l’equazione caratteristica ha coefficienti reali. A(x) = aw + bx. 2 *** Se λ `e un autovalore complesso allora gli autovettori associati sono complessi: il sistema (1. Sia Π questo sottospazio (bidimensionale) e si Π0 il sottospazio invariante corrispondente ad un secondo vettore complesso v0 = u0 + iw0 sempre associato a λ. ad ogni autovalore complesso λ = ¯ = a − ib avente la stessa molteplicit` a + ib corrisponde un autovalore coniugato λ a. w) `e invariante in A. Questa dimostrazione vale anche nel caso in cui λ `e complesso.1 – Se v = u + i w `e un autovettore associato ad un autovalore strettamente complesso λ = a + ib (cio`e tale che b 6= 0). Osservazione 1.50) va sostituita dalla pi` u generale ¯2 λ1 6= λ2 . Ci` o significa che v = v0 e quindi che Π = Π0 . + ak si pu` o associare l’endomorfismo Pk (A) = a0 Ak + a1 Ak−1 + . . . generato dall’identit` a1 e dalle prime n − 1 potenze di A. perch´e non `e escluso che l’identit` a 1 e le prime n − 1 potenze di A siano linearmente dipendenti. cio`e del tipo C(x) = xk−1 C 1 + xk−2 C 2 + . + ak 1 Al pi` u.. Basiamo la dimostrazione sull’osservazione seguente. Una prima importante conseguenza di questo teorema `e che la potenza n-sima di un endomorfismo risulta essere una combinazione lineare delle precedenti.9 *** Dimostrazione del teorema di Hamilton-Cayley. A}. Arthur Cayley. . Infatti.10. Pertanto: tutte le potenze di un endomorfismo A formano un sottospazio di End(E) al pi` u di dimensione n.. . .53) dove Pk (x) `e un polinomio di grado k e dove C(x) `e un polinomio di grado k − 1 in x a coefficienti in End(E). .1 – Il polinomio caratteristico di un endomorfismo `e annichilante: An − I1 (A) An−1 + I2 (A) An−2 − . + x C k−1 + C k . Il teorema di Hamilton-Cayley 1. k volte Quindi ad ogni polinomio di grado k Pk (x) = a0 xk + a1 xk−1 + . . . . Cos`ı dicasi delle potenze An+1 e successive. .. Se sussite un’uguaglianza del tipo C(x) (A − x 1) = Pk (x) 1 (1. . Ak = A . . | A{z . . inclusa A0 = 1. 1821-1895): Teorema 1. . . A2 = A A.21 1.10 Il teorema di Hamilton-Cayley Dato un endomorfismo A. A1 = A.. + ak 1. + x C n−1 + C n A − x 1 9  = a0 xk + a1 xk−1 + . Un polinomio Pk (x) si dice annichilante di A se Pk (A) si annulla identicamente.10. Sussiste a questo proposito il notevole teorema di Hamilton-Cayley (William Rowan Hamilton. + (−1)n In (A) 1 = 0. . allora Pk (A) = 0 cio`e Pk (x) `e annichilante di A. 1805-1865. se ne possono considerare le potenze: A0 = 1. esplicitata questa uguaglianza   xk−1 C 1 + xn−2 C 2 + . 22 Capitolo 1. A) = 0.11 Tensori La nozione di “tensore” ha avuto origine dalla teoria dell’elasticit` a. dove n = dim E: [ϕij ] e [Aji ]. pur essendo due nozioni ben distinte. Si `e successivamente sviluppata nell’ambito dell’algebra lineare e della geometria differenziale. (−1)n B e perch´e l’endomorfismo Questa `e del tipo (1. . ed `e quindi un polinomio di grado n − 1 in x.      C k A = ak 1. . si trova che  − C 1 = a0 1.    1 ···     C k−1 A − C k = ak−1 1. trovando notevoli applicazioni in vari rami della fisica-matematica. che per ogni endomorfismo B esiste e l’endomorfismo complementare.       C A − C 2 = a2 1. dimostrato pi` u avanti (§ 1. B Se ora si prende l’endomorfismo B = A − x 1. x) 1. e complementare B ha come componenti dei determinanti di ordine n − 1 della matrice [Bji ] = [Aij − x δji ]. A le prime k di queste uguaglianze. Quindi l’analisi e l’applicazione di queste due nozioni deve ricorrere al calcolo delle matrici (quadrate). per la definizione di polinomio caratteristico l’uguaglianza precedente diventa e (A − x 1) = P (A.19). Questo `e una circostanza che le accomuna. si tiene conto del fatto. . come vedremo. e sommando poi membro a membro si trova 0 = Pk (A). Ak−1 . con k = n e C(x) = (−1)n B. Ma. Assegnata una base di E le componenti di una forma bilineare e di un endomomorfismo formano due matrici quadrate n × n. con indeterminata x. Pertanto P (A. Moltiplicando a destra rispettivamente per Ak . . Spazi vettoriali puri ed uguagliati i coefficienti delle varie potenze di x. 2 1.  e B = det(B) 1. per cui sempre un endomorfismo B. come asserito. Per arrivare a comprendere questa nozione partiamo da questa osservazione: abbiamo gi` a esaminato la nozione di forma bilineare e di endomorfismo su di uno spazio vettoriale E. Una generale definizione di tensore `e la seguente: . un altro fatto le accomuna: le forme bilineari e gli endomorfismi possono essere visti come “tensori”. Ci` o posto.53). T10 (E) = L(E. q) = (0. | {z } | {z } p volte q volte ponendo inoltre. Poi: T11 (E) = L(E ∗. T00 (E) = R. . Definizione 1. E. In componenti abbiamo: A(α. . R). . Denotiamo con Tqp(E) lo spazio tensoriale di tipo (p. v ∈ E.57) . R) e lo spazio degli endomorfismi su E.1 – Un tensore di tipo (p.i Kj11.55) Quest’ultima uguaglianza segue dall’esistenza di un isomorfismo canonico tra lo spazio L(E ∗ .. × E}∗ × |E × E × {z. .56) A sinistra A `e interpretato come elemento di L(E ∗.23 1. (1. R) = E ∗ . .. ej1 . E. E. R) = End(E) (1. ∀α ∈ E ∗. E ∗. εip . q) non entambi nulli. . E ∗. .54) T02 (E) = L(E ∗. cio`e lo spazio Tqp (E) = L(E ∗ . v) = hA(v). . q) sopra uno spazio vettoriale E `e un’applicazione multilineare del prodotto (E ∗)p × E q = |E ∗ × E ∗ {z × . (1. R) (forme bilineari su E). . T20 (E) = L(E. . E. v) = Aji αj v i . Tensori Definizione 1. Diciamo componenti di un tensore K ∈ Tqp (E) secondo la base (ei ) gli np+q numeri i . E.11. a destra come endomorfismo lineare. 0) `e per definizione un numero reale.2 – Sia (ei ) una base di E e (εi ) la sua duale in E ∗ . Un tensore di tipo (0. R). ... 0). ejq ) • (1. E ∗. . R) = E ∗∗ = E. per (p. .jpq = K(εi1 . αi. q) su E. × E} p volte q volte in R.. . R) (forme bilineari su E ∗ ). • p Vediamo che cosa `e lo spazio Tq (E) per i primi valori della coppia di interi (p. . . E . Innanzitutto: T01 (E) = L(E ∗. . definito dall’uguaglianza A(α.11.11. . E. 2) variano secondo la legge i Kji0 h0 = Eii Ejj0 Ehh0 Kjh . si pu` o dire che le componenti di un tensore di questo tipo formano una “matrice cubica” di lato n. Tuttavia in molte circostanze. al variare della base secondo le formule (1. Gli indici in basso non accentati delle componenti vengono trasformati in indici accentati (sempre in basso) con la stessa matrice. Essa pu` o eseguirsi. a prima vista. innanzitutto. torna utile considerare la somma diretta di tutti gli spazi tensoriali. (1. eh ). perch´e nel trasformarsi fanno intervenire la matrice inversa. tenendo conto del formalismo degli indici ripetuti in alto e in basso. . ej . Pertanto. vengono detti indici contravarianti. ed `e facilmente estendibile al caso di un tensore di tipo qualunque. Prendendo ad esempio il caso precedente. le componenti di un tensore di tipo (1. . a calcolare il valore del tensore sui vettori e covettori.59) Inoltre. Denoteremo gli spazi tensoriali T0p (E) e Tq0 (E) semplicemente con T p (E) e Tq (E). di tutti i tipi. invece. Innanzitutto vediamo la somma di due tensori. un tensore di tipo (p. un tensore di tipo (0. u.58) Si osservi la corrispondenza nella posizione degli indici a primo e a secondo membro di queste uguaglianze. come questa. . (1. le componenti di untensore K ∈ T21 (E) sono gli n3 numeri10 i Kjh = K(εi . 0) viene detto tensore contravariante di ordine p. 0 0 (1. = R ⊕ E ⊕ E ∗ ⊕ T02 (E) ⊕ T11 (E) ⊕ T20 (E) ⊕ T03 (E) ⊕ . . con l’accento in basso. q) tensore covariante di ordine q. 1.12 Somma tensoriale Sui tensori possono definirsi varie operazioni che nel loro insieme costituiscono il cosiddetto calcolo tensoriale. Spazi vettoriali puri Per esempio. v) = Kjh αi uj v h .38).36) e in analogia alla (1.24 Capitolo 1.60) Questa formula si deduce direttamente dalla definizione (1. Quelli in alto. Per questo gli indici in basso delle componenti vengono detti indici covarianti. . tenendo conto quindi delle relazioni fra le basi.58) scritta per la base “accentata”. q) viene anche detto tensore a p indici di contravarianza e q indici di covarianza. risulta: i K(α. ordinati come segue: T (E) = T00 (E) ⊕ T01 (E) ⊕ T10 (E) ⊕ T02 (E) ⊕ T11 (E) ⊕ T20 (E) ⊕ T03 (E) ⊕ . A questo proposito osserviamo che per passare dalla base (ei ) alla base “accentata” (ei0 ) viene usata la matrice (Eii0 ). 10 (1. solo fra tensori dello stesso tipo. Le componenti servono. Un tensore di tipo (p.61) Se si vuole. q + s): K ⊗ L ∈ Tq+s . . b2 . il primo fattore K si prende i primi p covettori ed i primi q vettori e fornisce il numero K(α1 . Allora. u. (1.64) . . × E }∗ × |E × E × | × E {z {z. . aq .13. . . Per esempio..61). Un siffatto elemento di T (E) viene detto omogeneo. allora si pu` o intendere A = 0⊕0⊕0⊕0⊕A⊕0⊕··· dove a secondo membro A `e al quinto posto nella successione (1. Su T (E) si introduce l’operazione di somma diretta ⊕. . Dunque. (1. αp . (1. a2 . v) · L(β. . . . il valore di K ⊗ L sulle due successioni (1. `e innanzitutto un’applicazione multilineare ∗ ∗ K ⊗ L: E × . . . b1 . .62) e (1. Per esempio. 3) tale che (K ⊗ L)(α. αp . v. α2 .63) e di q + s vettori. Prodotto tensoriale Questo `e lo spazio tensoriale su E. . . aq ). u.11 Un tensore K di tipo (p. p+r volte q+r volte Quando K ⊗ L viene applicato ad una successione di p + r covettori α1 . Pertanto ogni spazio tensoriale di tipo (p.. . se A ∈ T11 (E). α2 . . q) pu` o essere inteso come elemento di T (E): lo si identifica con la successione costituita da tutti zeri e con K al posto (p. . . definita sommando le singole componenti omogenee. a2 . β1 . . β2 . q) pu` o essere inteso come sottospazio di T (E). . β. . se K ∈ T21 (E) e L ∈ T11 (E). 11 12 `e uno spazio vettoriale di dimensione infinita. 1. v. . w). . bs . bs ). βr . β ∈ E ∗ . .62) a1 . . per ogni α. u. w) = K(α. . × E} → R. b2 . . β2 . Si legge K tensore L. K ⊗ L `e il tensore di tipo (2. βr . Il secondo fattore L prende quel che resta e fornisce il numero L(β1 . . il loro prodotto tensoriale12 K ⊗L p+r `e per definizione un tensore di tipo (p + r. . a1 . b1 .25 1. . . q). di tipo qualsiasi. secondo la definizione generale di tensore. w ∈ E. . . K ∈ Tqp(E) e L ∈ Tsr (E). .63) `e per definizione il prodotto di questi due numeri.13 Prodotto tensoriale Dati due tensori. E a ⊗ b: E ∗ × E ∗ → R definita da (a ⊗ b) (α. (1. βi hb. αi hb. le componenti del prodotto tensoriale K ⊗ L sono il prodotto delle componenti di K e L rispettivamente. cio`e un numero reale. il prodotto tensoriale `e l’ordinario prodotto per uno scalare a ∈ R: a ⊗ K = K ⊗ a = a K. • Osservazione 1.65) Con le due operazioni di somma ⊕ e prodotto ⊗ lo spazio T (E) assume la struttura di algebra associativa: `e l’algebra tensoriale su E. (1. b ∈ E.2 – Il prodotto tensoriale di due tensori si estende per linearit` a agli elementi non omogenei della somma diretta T (E). ` l’applicazione bilineare 1 Prodotto tensoriale a ⊗ b di due vettori a. Per esempio. βi. Il prodotto tensoriale `e associativo: K ⊗ (L ⊗ M ) = (K ⊗ L) ⊗ M . • Osservazione 1. 0).26 Capitolo 1.68) 3 Prodotto tensoriale a ⊗ α di un vettore per un covettore: `e l’applicazione bilineare a ⊗ α : E∗ × E → R tale che (a ⊗ α) (β. αi. Due tensori possono commutare in casi speciali.69) .13.3 – La comprensione del concetto di prodotto tensoriale `e facilitata dal fatto che. (1. b) = ha.67) 2 Prodotto tensoriale α ⊗ β di due covettori α. • Vediamo ora alcuni casi particolari ma fondamentali di prodotto tensoriale.66) hkl = Khk Ll . allora j i (K ⊗ L)ij (1. αi hb. Se uno dei due tensori `e di tipo (0. b) = ha. come si riconosce facilmente.13. In questo caso il prodotto `e commutativo: a ⊗ α = α ⊗ a. βi. β ∈ E ∗ `e l’applicazione bilineare α ⊗ β: E × E → R definita da (α ⊗ β) (a.1 – Il prodotto tensoriale non `e commutativo: K ⊗ L `e in generale diverso da L ⊗ K. Spazi vettoriali puri Osservazione 1. (1. per esempio se K `e un tensore covariante e L un tensore contravariante. se K ∈ T21 (E) e L ∈ T11 (E). β) = ha.13. 27 1. Basi tensoriali 1.72).71) e per la bilinearit` a risulta K ij αi βj = K(εi .70) e per la definizione di prodotto tensoriale si ha K(α. 1 I prodotti ei ⊗ ej formano una base di T20 (E). β) = K ij αi βj . (1. β). εj ) (1. β) = K ij ei ⊗ ej (α. come al solito. cio`e delle forme bilineari su E K : E × E → R.71) e (1.75) 3 I prodotti tensoriali ei ⊗ εj formano una base dello spazio tensoriale T11 (E) = L(E ∗.74) Kij = K(ei . analoghe alle (1. ej ) (1.76) .73) e valgono contemporaneamente le formule. K = Kij εi ⊗ εj (1. ed il ciclo si chiude.71) K ij = K(εi .14 Basi tensoriali L’assegnazione di una base (ei ) dello spazio vettoriale E genera automaticamente una base per ogni spazio tensoriale Tqp (E). Partiamo. R) = End(E) degli endomorfismi lineari su E. (1. dai casi pi` u semplici. βj εj ) = K(α. cio`e delle forme bilineari su E ∗ . β ∈ E ∗ per la (1.72) con le componenti K ij definite da Infatti per ogni coppia di covettori α. per la (1. Per ogni endomorfismo K valgono le formule K = Kij ej ⊗ εi 13 Si sottintende sempre la somma sugli indici ripetuti in alto e in basso. E. εj ) αi βj = K(αi εi .14. D’altra parte. Sia εi ) la base duale su E ∗ .70) vale la rappresentazione13 K = K ij ei ⊗ ej (1. sicch´e per ogni forma bilineare K : E∗ × E∗ → R (1. 2 I prodotti εi ⊗ εj formano una base di T02 (E). (1. dim(Tqp(E)) = np+q . cos`ı facendo. . In entrambi i casi si ottiene un covettore. Altri due esempi: 1. ..j q si pu` o prendere uno degli indici contravarianti (in alto) e porlo uguale ad uno degli indici covarianti (in basso) ed intendere di eseguire la sommatoria su questi. se K ∈ T21 (E) ha componenti Khj a di saturazione: i Uj = Kij . .. ho due possibilit` Per esempio.i p Kj11. Questi per` o sono in generale diversi. immagine del vettore v secondo un endomorfismo A.i dove le componenti Kj11j22 . secondo la convenzione degli indici ripetuti....57). perch´e quest’ultimo j j ha componenti Ai v k e le componenti di u sono uj = Ai v i. . cio`e np+q . Gli elementi della base (1. Se A ∈ T11 (E) = End(E).78) sono in numero pari alle disposizioni con ripetizione di p + q oggetti. purch´e con p e q non entrambi nulli.15 Contrazione o saturazione di due indici Vi `e una terza operazione importante eseguibile su di un tensore. .78) costituiscono una base di Tqp(E) e per ogni K ∈ Tqp (E) vale la rappresentazione i i .77) Da questi esempi traiamo la regola generale: i prodotti tensoriali ei1 ⊗ ei2 ⊗ . si ottiene un tensore di tipo (p − 1.j22 . 14 La dimostrazione si basa sull’equazione di trasformazione delle componenti di un tensore al variare della base. q − 1). .. Dato un tensore K di tipo qualsiasi (p.28 Capitolo 1.jpq ei1 ⊗ ei2 ⊗ . q).79) i i . i Vh = Khi . con componenti Aij .. pu` o essere anche interpretato come contrazione del prodotto tensoriale A ⊗ v. i .jpq sono definite come nella (1. ⊗ eip ⊗ εj1 ⊗ εj2 ⊗ ... . allora la saturazione dei suoi due indici fornisce la traccia dell’endomorfismo A: Aii = tr(A). . 2.. Si dimostra che.. ..31): Kij = hK(ei ). ⊗ εjq (1. ⊗ εjq (1. ⊗ eip ⊗ εj1 ⊗ εj2 ⊗ .. εj i (1.14 Una tale operazione prende il nome di contrazione o saturazione. Pertanto. Spazi vettoriali puri con le componendi Aji definite come nella formula (1.80) 1.. di componenti i i .i K = Kj11j22 . Il vettore u = A(v). con V p (E)). u) = 0.) = − A(. gli spazi V p (E) e Φp (E) per p > n si riducono ad un solo elemento: lo zero. v1 + v 2 ) = A(v1 . 2 Due implicazioni notevoli: Teorema 1. . v2 . v2 . Dimostrazione. . v1 ). E − A(v. . v. . . per esempio v1 `e combinazione lineare dei rimanenti. 1. vale a dire A(v1 . . 2 Osservazione 1. . . 2.16. Il teorema seguente fornisce una definizione equivalente di antisimmetria: Teorema 1. 2.16. . Cos`ı dicasi per un tensore A ∈ T0p (E). . . v1 ) + A(v2 .1 – Di conseguenza.16. .16. .2 – 1. .16. v2 ) + A(v2 . v2 . i quali numeri. in T0p (E)) ne formano un sottospazio che denotiamo con Φp(E) (rispettivamente. Un tensore antisimmetrico si annulla quando i suoi argomenti sono linearmente dipendenti. v2 . u. v2 ) + A(v2 . . . vp) si decompone nella combinazione lineare di numeri del tipo A(v∗ .29 1. . • . 0 = A(v1 + v2 . ` sufficiente dimostrare questo teorema nel caso p = 2.1 – Un tensore A ∈ Tp0 (E) si dice antisimmetrico se per ogni scambio di due suoi qualunque argomenti il suo valore cambia di segno: A(. .. . v) = Dimostrazione. Se p > n i vettori (v1 . . v2 ) = − A(v2 . 0) rispettivamente. . . Se A ∈ Φp(E) e se uno dei suoi argomenti (v1 . . sono tutti nulli. . allora si ha. L’intero p prende il nome di grado del tensore antisimmetrico. . v1 ). vp ). 0) e (0. . Viceversa se A(v. vp) sono sempre dipendenti. .16 Tensori antisimmetrici Definizione 1. Da A(u. Lo stesso dicasi per A ∈ T0p (E). v1 ) + A(v1 . (1. Si dimostra che i tensori antisimmetrici contenuti in Tp0 (E) (rispettivamente.16. 1).). . . . vp ) dove v∗ `e via via uguale a v 2 . sono per definizione antisimmetrici. . v. allora A(v1 . . .1. u) segue ovviamente A(u. v) = 0 per ogni v. . • I tensori antisimmetrici svolgono un ruolo importante nelle applicazioni del calcolo tensoriale. ponendo v = v 1 + v2 . Tensori antisimmetrici 1. . i covettori e gli scalari. u. Un tensore antisimmetrico con p > n `e nullo. . v2 ) = A(v1 . v p . che sono di tipo (0. .1 – Un tensore A ∈ Tp0 (E) `e antisimmetrico se e solo se esso si annulla quando due dei suoi argomenti coincidono. per via del Teorema 1. I vettori. . . 1 P σ∈Gp εσ T p! ◦ σ (1. Una n-pla di vettori (vi ) = (vi1 . (1.30 Capitolo 1. Antisimmetrizzazione Per studiare meglio i tensori antisimmetrici `e opportuno introdurre il concetto di “antismmetrizzazione”. .1 – Per ogni p > 1 si introduce l’applicazione lineare A : Tp0 (E) → Φp (E) : T 7→ A(T ) chiamata operatore di antisimmetrizzazione e definita da A(T ) = 15 Vedi § 2. . vp ) = εσ A σ(v1 . . vi2. . . .16. v2 . .16.17 T0p(E). Definizione 1. Ricordiamo che Gp `e costituito da p! elementi. . v n). .1 – Sia E lo spazio vettoriale euclideo tridimensionale. Teorema 1.81) ovvero A = εσ A ◦ σ.1. . (1. .1 si pu` o dedurre un’ulteriore caratterizzazione (o definizione equivalente) di antisimmetria. . vin) d` Ponendo A(v1 .83) . .16. . vale a dire composta da un numero pari o dispari di scambi. detto gruppo simmetrico di ordine p. . w) = u · v × w (prodotto misto). a luogo ad una matrice quadrata [vij ]n×n . vn ) = det[vij ] si definisce un tensore covariante antisimmetrico di ordine n sopra Rn . . si definisce un tensore covariante antisimmetrico η di ordine 3 detto forma volume.15 • Esempio 1.16. vp ) . . .17.2 – Sia E = Rn : un vettore `e una n-pla di numeri reali v = (v 1 . . Ponendo η(u.4. v. ∀ v 1 . v 2. Spazi vettoriali puri Esempio 1.3 – Un tensore covariante A ∈ Tp0 (E) `e antisimmetrico se e solo vale l’uguaglianza  A(v1 . . vp ∈ E. . Analogamente per un tensore contravariante A ∈ 1. . Denotiamo con εσ il segno di una permutazione σ ∈ Gp: uguale a +1 o −1 a seconda che σ sia pari o dispari.     Per ogni intero p > 1 denotiamo con Gp il gruppo delle permutazioni di p elementi. . • Dal Teorema 1. .82) per ogni σ ∈ Gp . 84) Per rendere effettiva questa definizione dobbiamo verificare che il tensore T A `e antisimmetrico. p! = tenuto conto che εσ·τ = ετ εσ e inoltre che.3. osserviamo che per qualunque τ ∈ Gp si ha successivamente: ετ A(T ) ◦ τ  1 P σ∈Gp ετ εσ T ◦ σ ◦ τ p! 1 P = σ∈Gp εσ·τ T ◦ σ ◦ τ p! 1 P = σ·τ ∈Gp εσ·τ T ◦ (σ ◦ τ ) = A(T ). anche σ ◦ τ varia in tutto Gp. αi hv2 . .31 1. . .83). 1. `e il tensore antisimmetrico contravariante di grado 2 definito da a∧b= ovvero da (a ∧ b) (α1 . α2 i − ha.86) Analogamente.88) . Prodotto esterno cio`e da A(T )(v1 . . per i quali l’operatore di antisimmetrizzazione `e l’applicazione lineare A : T0p (E) → V p (E) : T 7→ A(T ) definita come nella (1. . α1 i hb.87) • (1. αi (1. α1 i (1. . . . `e il tensore antisimmetrico covariante di grado 2 definito da α∧β = ovvero da (α ∧ β) (v1 . . vp) = per ogni v 1 . βi hv2 .85)   hv1 . α2 ) = 1 2 1 2 (a ⊗ b − b ⊗ a)   ha. denotato con α∧β. vp ∈ E. Volendo applicare il Teorema 1. Tutto quanto precede si riferisce a tensori covarianti (indici in basso) ma si pu` o ripetere per i tensori contravarianti (indici in alto). il prodotto esterno di due vettori a e b. . . v p ) p! (1.16. mentre σ varia in tutto Gp .1 – Il prodotto esterno di due covettori α e β. βi − hv1 .18.18 Prodotto esterno Definizione 1. •  1 P σ∈Gp εσ T σ(v1 .18. denotato con a ∧ b. v2 ) = 1 2 1 2 (α ⊗ β − β ⊗ α) (1. α2 i hb. . ∧ αp = A(α1 ⊗ . v2 ) = 1 2 (α ⊗ β − β ⊗ α) (v1 . .93) (1. v2 ) − 1 2 (α ⊗ β) (v2 . Le formule (1. . . . per p = 3 dalla definizione (1. . dalle formule (α1 ∧ . ap `e definito dalle formule α1 ∧ . αp e di p vettori a1 . . v2 ). . . Spazi vettoriali puri Osserviamo che facendo intervenire l’operatore di antisimmetrizzazione si hanno le definizioni equivalenti: α ∧ β = A(α ⊗ β) (1. ⊗ αp ) σ(v 1 . .94) Per esempio. ⊗ αp) (1. . . . ∧ ap ) (α1 . . . . ⊗ ap ) σ(α1 . . ⊗ ap ) (1. αp) =  1 P σ∈Gp εσ (a1 ⊗ . .91) a1 ∧ . .89) e (1. v1 ) = 1 2 (α ⊗ β) (v1 . . ∧ αp ) (v1 . vp ) p! (a1 ∧ .2 – Il prodotto esterno di p covettori α1 . vp) =  1 P σ∈Gp εσ (α1 ⊗ .95) .92) ovvero. v ) σ 1 2 σ∈G2 = 1 2 (α ⊗ β) (v1 . . αp ) p! • (1. . .18. troviamo   P A(α ⊗ β)(v1 . . Analogamente per il caso a ∧ b. . . . . .90) suggeriscono una naturale estensione del prodotto esterno al caso di pi` u di due vettori o covettori: Definizione 1. .84). . osservato che in questo caso p = 2 e che G2 `e costituito da soli due elementi. . ∧ ap = A(a1 ⊗ .84). . . . . se applichiamo la definizione (1. .90) Infatti. . vista la (1.83) risulta: α1 ∧ α2 ∧ α3 = 1 6 h α1 ⊗ α2 ⊗ α3 + α2 ⊗ α3 ⊗ α1 + α3 ⊗ α1 ⊗ α2  i − α2 ⊗ α1 ⊗ α3 + α1 ⊗ α3 ⊗ α2 + α3 ⊗ α2 ⊗ α1 (1.89) a ∧ b = A(a ⊗ b) (1. . l’identit` a e lo scambio. v2 ) − 1 2 (β ⊗ α) (v1 . . . v2 ) = 12 ε (α ⊗ β) σ(v .32 Capitolo 1. Nella seconda riga.1 – Il prodotto esterno di p covettori (o vettori) cambia di segno quando si scambiano fra loro due elementi. quindi pari.19. • 1. Analogamente per il prodotto esterno di tre vettori. . 2.  Questo calcolo si basa sulle seguenti circostanze.19  Algebra esterna Il prodotto esterno che abbiamo definito nel paragrafo precedente `e alla base di un tipo di calcolo che trova svariate utili applicazioni: l’algebra esterna. Per esempio: α2 ∧ α1 ∧ α3 = − α1 ∧ α2 ∧ α3 . abbiamo quelle dispari. dei tre indici (1.33 1. Osservazione 1. Algebra esterna Nella prima riga abbiamo le permutazioni cicliche.18. α3 ∧ α2 ∧ α1 = − α1 ∧ α2 ∧ α3 . 3). col segno −. . Il risultato `e pertanto una (p + q)-forma elementare. . ∧ αp e β = β1 ∧ . . 2 Date due forme elementari α = α1 ∧ . ∧ ap .97) prendono rispettivamente il nome di p-forme elementari e p-vettori elementari. . il loro prodotto esterno α∧β `e definito semplicemente dalla frapposizione del simbolo ∧ fra α e β: α ∧ β = α1 ∧ . Il prodotto esterno cos`ı definito `e anticommutativo graduato. . α∗ ∈ E ∗ (1. nel senso che α ∧ β = (−1)pq β ∧ α Osserviamo infatti che nel passare da α ∧ β = α1 ∧ . ∧ β q . a∗ ∈ E (1. . . . . di grado p e q rispettivamente. ∧ β q . 1 Per ogni intero p > 0 i prodotti esterni α1 ∧ . le loro combinazioni lineari generano rispettivamente lo spazio Φp (E) delle p-forme e lo spazio V p (E) dei p-vettori.96) a1 ∧ . ∧ αp . .98) . ∧ αp ∧ β 1 ∧ . . . ∧ αp ∧ β 1 ∧ . . . . ∧ βq (1. . Nel caso in cui una delle due forme elementari sia di grado 0. .99) α ∧ (b1 β 1 + b2 β 2 ) = b1 α ∧ β1 + b2 α ∧ β 2 (1. ⊕ Φn (E) ⊕ 0 ⊕ 0 ⊕ . Sappiamo inoltre che Φ0 (E) = R e Φ1 (E) = E ∗. . il prodotto ∧ si identifica con l’ordinario prodotto di un tensore per un numero. definito per due forme “omogeneee”. . Spazi vettoriali puri a β ∧ α = β 1 ∧ . 3 Il prodotto esterno `e bilineare: (a1 α1 + a2 α2 ) ∧ β = a1 α1 ∧ β + a2 α2 ∧ β (1. detta appunto algebra esterna su E. p=0 Sappiamo che per p > n = dim(E) gli spazi Φp (E) si riducono allo zero. . ∧ β q . si estende per linearit` a a due qualunque elementi di questa somma diretta. . Il risultato `e che Φ(E). Di conseguenza la somma diretta Φ(E) risulta essere Φ(E) = R ⊕ E ∗ ⊕ Φ2 (E) ⊕ .104) . con le due operazioni + e ∧ diventa un’algebra.34 Capitolo 1. sia cio`e uno scalare. Φ(E) = +∞ M Φp (E). . allora α ∧ β = α β1 ∧ . ∧ βq ∧ α1 ∧ . Si dimostra che e   n n! dim Φp(E) = = p p! (n − p)! (1. .100) 4 Siccome il prodotto esterno fra forme elementari `e bilineare e siccome una p-forma. Per esempio. il prodotto esterno si estende per linearit` a a forme di grado qualsiasi. rispetto all’ordinaria somma + tra tensori. il che comporta pq cambiamenti di segno. ∧ αp si devono eseguire un numero di scambi pari a pq. .cio`e un elemento di Φp(E) `e combinazione lineare di p-forme elementari. detto spazio delle forme esterne su E.101) 5 Consideriamo infine la somma diretta di tutti gli spazi Φp (E).103) dim Φ(E) = 2n .98). Il prodotto esterno. . Vale la propriet` a associativa: α ∧ β ∧ γ = (α ∧ β) ∧ γ = α ∧ (β ∧ γ) (1. (1. Vale ancora l’anticommutativit` a graduata (1. . Per questa via il prodotto esterno si estende anche a pi` u di due forme. (1.102) Questo `e uno spazio vettoriale. se p = 0 cio`e se α ∈ Φ0 (E) = R. . .1. . cio`e quando almeno due indici coincidono.. vale zero in tutti gli altri casi. ..in Ai11 Ai22 . Il simbolo di Levi-Civita `e antisimmetrico: scambiando fra loro due indici.in . = ε12j A11 A22 Aj3 + ε13j A11 A32 Aj3 +ε21j A21 A12 Aj3 + ε23j A21 A32 Aj3 +ε31j A31 A12 Aj3 + ε32j A31 A22 Aj3 = . . .. 1 L’ordinaria definizione di determinante di una matrice quadrata [Aij ]n×n pu` o porsi nella forma sintetica det[Aij ] = εi1 i2 . εi1 i2 . Verifichiamolo nel caso n = 3: εhij Ah1 Ai2 Aj3 = ε1ij A11 Ai2 Aj3 + ε2ij A21 Ai2 Aj3 + ε3ij A31 Ai2 Aj3 = .. cambia di segno. 2. n). i2 . dunque: .105) sottintendendo sempre la sommatoria sugli indici ripetuti in alto e in basso. . Vediamo alcuni esempi.20. . . . ⊕ V n (E) ⊕ 0 ⊕ 0 ⊕ .20  Il simbolo di Levi-Civita Il simbolo di Levi-Civita (Tullio Levi-Civita. . 16 La definizione `e la medesima.. Ho eseguito la somma sul primo indice h.  che assume anch’essa la struttura di algebra. .in vale +1 o −1 a seconda che la successione degli indici (i1 . che pu` o comparire anche con gli indici in alto. consente di esprimere in forma sintetica svariate formule di calcolo delle matrici e di calcolo tensoriale.. . . . Il simbolo di Levi-Civita. in) sia una permutazione pari o dispari della succesione fondamentale (1.16 εi1 i2 . . nell’eseguire la somma sull’indice i tengo conto che con un indice ripetuto il simbolo si annulla. Ainn (1. 1873-1941) con n indici variabili da 1 a n. . Il simbolo di Levi-Civita  Tutto quanto sin qui visto si ripete pari pari per gli spazi dei p-vettori V p (E)  35 e si conclude con la costruzione della somma diretta V (E) = R ⊕ E ⊕ V 2 (E) ⊕ . 1. .. . . . ... n = dim(E).. .108). ∧ ein = Ai11 Ai22 . Ainn ei1 ∧ ei2 ∧ . . . per la propriet` a anticommutativa del prodotto esterno vale l’uguaglianza ei1 ∧ ei2 ∧ . . Spazi vettoriali puri Sommando infine sull’indice j rimangono soltanto sei termini: . .. ∧ vn (1. . 3 Il determinante di un endomorfismo A pu` o essere definito come quel numero det(A) per cui vale l’uguaglianza A(v1 ) ∧ A(v 2 ) ∧ .106) e1 ∧ e2 ∧ . .. Si conclude quindi che la (1. . . . . nel qual caso sono nulli ambo i membri. . . i2 .in `e proprio uguale a det[Aij ].. ∧ e3 applicando la (1. Adesso traduco i simboli in +1 e −1 a seconda della parit` a della permutazione degli indici rispetto alla permutazione fondamentale (1. . . Essa vale ovviamente anche quando i vettori sono dipendenti. . Ainn εi1 i2 .107) o.in e1 ∧ e2 ∧ . = ε123 A11 A22 A33 + ε132 A11 A32 A23 +ε213 A21 A12 A33 + ε231 A21 A32 A13 +ε312 A31 A12 A23 + ε321 A31 A22 A13 = . . qualunque sia la permutazione degli indici (i1 . 3). ∧ en (1. . . al posto dei vettori v ∗ si sostituiscano i vettori di una base (ei ) qualsiasi di E. . Si ottiene A(e1 ) ∧ A(e2 ) ∧ .108) per qualunque n-pla di vettori v i ∈ E. = A11 A22 A33 − A11 A32 A23 −A21 A12 A33 + A21 A32 A13 +A31 A12 A23 − A31 A22 A13 e ritrovo lo sviluppo del determinante di ordine 3. . . Analoghe formule valgono ovviamente per una qualunque n-pla (εi ) di covettori in E ∗ . 2. nella (1. ∧ ein (1.in ei1 ∧ ei2 ∧ . ∧ A(vn ) = det(A) v 1 ∧ v2 ∧ ..108) vale per un qualunque sistema di vettori indipendenti. . . .36 Capitolo 1. come abbiamo gi` a visto. . Per riconoscerlo.. Si noti bene che a secondo membro di quest’ultima formula non `e intesa la sommatoria sugli indici. 2 Dati n vettori (ei ) di E. ∧ A(en ) = Ai11 Ai22 . . . ∧ ein = εi1 i2 . anche non indipendenti. .in e1 ∧ e2 ∧ . . Ainn εi1 i2 . . in). . . Ma. . ∧ en = εi1 i2 .106) nel secondo passaggio. inversamente. che sono ripetuti ma entambi in basso. il termine Ai11 Ai22 . A (1.20.. 5 Dalla (1.in Ai1 Ai2 . Posto infatti e1 = εi i ..110) Si riconosce allora nella (1. . ∧ B(vn ) = det(A) det(B) v 1 ∧ . .37 1. ∧ (AB)(vn )   = A B(v1 ) ∧ . valida per ogni endomorfismo lineare A. . . l’epressione del complemento algebrico del termine Ai11 della prima riga della matrice [Aij ] (conveniamo che gli indici in basso siano indici di riga) cio`e del determinante della matrice quadrata di ordine n − 1 ottenuta sopprimendo la riga 1 e la colonna i1 . Il simbolo di Levi-Civita 4 Dalle (1.108) si vede che det(A B) = det(A) det(B). .i Ai2 . Analogamente si procede per lo sviluppo rispetto ad un’altra riga. . ∧ v n . o ad una colonna. ∧ vn = (AB)(v1 ) ∧ . particolarizzate al caso di una riga (la prima). La (1. si trae la formula generale. . Ai21 A 1 2 2 2 1 Quindi: la somma dei prodotti degli elementi di una riga per i complementi algebrici di una riga diversa `e nulla. .105) si possono dedurre agevolmente le propriet` a fondamentali dei determinanti. Ain .. Si ha infatti successivamente: det(AB) v1 ∧ . . dove ej Ai = det(A) δ j A k i k ej = ∂ det(A) A i ∂Aij (1.105) segue la regola dello sviluppo del determinante rispetto ad una linea.109) si osserva ancora che e1i = ∂ det(Aij ). . . preceduto dal segno (−1)1+i1 . Dalla (1. .108) e (1. stante la definizione del simbolo di Levi-Civita e la sua antisimmetria. 6 Dalla (1. det[Aij ] = Ai11 A i1 (1.109). Per esempio. Ainn = 0. A 1 ∂Ai11 Da queste considerazioni. . dalla (1.110) rappresenta allora lo sviluppo del determinante rispetto alla prima riga.111) (1.105) diventa e1 . segue inoltre e1i = εi i . .109) i1 n n 1 2 2 la (1. ∧ A B(v n ) = det(A) B(v 1 ) ∧ ..112) . stante l’antisimmetria del simbolo di Levi-Civita.109). preceduta dal segno (−1)j+i . in componenti. La (1. ej ) dei complementi algebrici definisce un endomorfismo A e che chiamiamo La matrice (A i endomorfismo complementare di A. l’uguaglianza e A = det(A) 1 A (1. vale a dire il determinante della matrice quadrata di ordine n − 1 ottenuta cancellando la j-esima riga e la i-esima colonna della matrice delle componenti di A. =A i i j ej ) cambiano secondo la legge di trasformazione delle componenti di un Dunque le (A i endomorfismo.38 Capitolo 1. (1. cio`e per det(A) 6= 0. si ha infatti per la (1.112): 0 ej A i ∂Aij 0 ∂ ∂ = det(A) = det(A) 0 ∂Aij ∂Aij ∂Aij 0  ej00 ∂ E h0 E i0 Ak =A j k h i i ∂Aj ej00 E j0 E i0 . Cambiando base.111) rappresenta allora. Spazi vettoriali puri `e il complemento algebrico dell’elemento Aij . segue la formula A−1 = 1 e A det(A) che fornisce l’inverso di un endomorfismo invertibile. nel caso di un automorfismo.114) .113) Di qui. (2. Per il prodotto scalare si usa comunemente la notazione u · v. v) = g(v. Un tensore metrico (detto anche metrica) `e per definizione una forma bilineare g su E simmetrica e regolare. u). Chiamiamo norma e la denotiamo con k · k : E → R la forma quadratica corrispondente al tensore metrico kvk = v · v = g(v.2) Uno spazio vettoriale euclideo `e quindi uno spazio vettoriale dotato di un prodotto scalare. che per` o viene in genere considerato solo nel caso in cui la forma quadratica g `e definita positiva.1 Spazi vettoriali euclidei Uno spazio vettoriale euclideo `e una coppia (E. v) = 0 ∀v ∈ E =⇒ u = 0. (2. 1 In molti testi il prodotto scalare `e denotato con u × v. cio`e tale da soddisfare alle condizioni: ( g(u. 2 (2. Diciamo che u `e il versore del vettore v se u `e unitario e se v = k u con k > 0. g) costituita da uno spazio vettoriale E e da un tensore metrico g su E. v).1) g(u.3) Chiamiamo invece modulo di un vettore il numero positivo |v| = p |v · v|.Capitolo 2 Spazi vettoriali con struttura 2. Diciamo che un vettore u `e unitario se kuk = ±1. 39 . (2. Lo `e invece il modulo | · |.4) Due vettori sono detti ortogonali se u · v = 0. 2 La norma k · k qui definita non `e una norma nel senso usuale dell’Analisi. simbolo che noi invece riserveremo al prodotto vettoriale nello spazio euclideo tridimensionale. v). poniamo cio`e1 u · v = g(u. La forma bilineare simmetrica g `e anche detta prodotto scalare. |u| |v| (2.    genere tempo kvk < 0.4). Siccome il tensore metrico `e non degenere si ha sempre p + q = n = dim(E). Utilizzando il modulo (2.{z p volte q volte Molti autori riservano il nome di spazio euclideo al caso in cui la metrica `e definita positiva. . Sappiamo dalla teoria delle forme quadratiche che due basi canoniche sono sempre formate da un egual numero p di vettori del genere spazio e quindi da un egual numero q di vettori del genere tempo. +} |− . . nulla. La coppia di interi (p. Si usa anche dire che lo spazio ha segnatura . −} . 0). luce. la disuguaglianza di Schwarz diventa |u · v| ≤ |u| |v|. |u| |v| Diciamo allora angolo dei due vettori il numero ϑ compreso tra 0 e π tale che cos ϑ = u·v . Una base canonica di uno spazio euclideo (E. Un vettore del genere luce `e anche detto isotropo.{z |+ . (2. negativa:  kvk > 0. quindi una base costituita da vettori unitari fra loro ortogonali. g) `e una base canonica rispetto alla forma bilineare simmetrica g. Un vettore isotropo `e ortogonale a se stesso. cio`e di segnatura (n. Spazi vettoriali con struttura Seguendo una terminologia tipica della teoria della Relativit` a Ristretta si dice che un vettore v `e del genere spazio. riservando il termine di spazio pseudo-euclideo o semi-euclideo al caso di una metrica indefinita.40 Capitolo 2. Per mettere in evidenza questa condizione noi useremo il termine spazio strettamente euclideo. . genere spazio    v∈E genere luce kvk = 0. tempo se la sua norma `e rispettivamente positiva. (2.1.5) (u · v)2 ≤ kuk kvk.1 – In uno spazio strettamente euclideo la norma `e sempre positiva (salvo che per il vettore nullo) e vale la disuguaglianza di Schwarz (§ 1.5) dove l’uguaglianza sussiste se e solo se i vettori sono dipendenti.6) Se nessuno dei due vettori `e nullo si ha |u · v| ≤ 1. q) `e detta segnatura dello spazio euclideo. Osservazione 2. che ora `e semplicemente definito da √ |v| = v · v.7) . 13) in una base canonica risulta u·v= p X a=1 quindi kuk = p X a=1 a a u v − a 2 (u ) − n X ub v b .15) b=p+1 n X b=p+1 La presenza del tensore metrico consente di definire su di uno spazio euclideo. (2. Accanto alla matrice metrica (gij ) torna utile considerare la matrice inversa. alcune altre fondamentali operazioni e precisamente: (I) un isomorfismo canonico tra E e il suo duale E ∗ . la matrice metrica `e   1p 0 . (2. Spazi vettoriali euclidei Vale infine la disuguaglianza triangolare |u + v| ≤ |u| + |v|. (2. detta anche ortonormale.9) formano una matrice. ej ) = ei · ej (2.1. [gij ] =  0 −1q (2. (2.41 2. g).1). detta matrice metrica. Essa `e definita dall’uguaglianza gij g jk = δik . Mentre in generale si ha u · v = gij ui v j . (2.14) (ub )2 . • Considerata una base (ei ) dello spazio euclideo (E. che denotiamo con (g ij ). det[gij ] 6= 0. simmetrica e regolare: gij = gji .11) In una base canonica. le componenti del tensore metrico gij = g(ei . (2.12) Questa matrice coincide con la sua inversa. oltre al prodotto scalare.8) conseguenza della disuguaglianza di Schwarz: |u + v|2 = ku + vk = kuk + kvk + 2 u · v ≤ |u|2 + |v|2 + 2 |u · v| ≤ |u|2 + |v|2 + 2 |u| |v| 2 = |u| + |v| .10) Queste condizioni sono in effetti equivalenti alle (2. . come sar` a visto nel prossimo paragrafo. gli altri due nel prossimo. mentre alle (gij ) si d` a il nome di componenti covarianti. Denotiamo con ] : E ∗ → E : α 7→ α] l’inversa dell’applicazione [. si denotano con vi le componenti del covettore v [ . per esempio tra T11 (E) e T2 (E). posto v = v i ei . Questo isomorfismo fa s`ı che uno spazio vettoriale euclideo possa essere identificato con il suo duale.18) Questa `e la definizione in componenti dell’applicazione [. alle componenti (vi ) di v[ si d` a il nome di componenti covarianti del vettore v. L’operazione di innalzamento e di abbassamento degli indici si pu` o applicare anche ai tensori. Si possono cos`ı stabilire diversi isomorfismi fra spazi tensoriali aventi la stessa somma di indici covarianti e contravarianti.19) Essa consiste quindi nell’innalzamento degli indici tramite l’inversa della matrice metrica. (III) un operatore di trasposizione sugli endomorfismi di E. (IV) un isomorfismo canonico tra lo spazio degli endomorfismi su E e lo spazio delle forme bilineari su E. Osservazione 2. corrisponde il vettore v = α] che `e ortogonale . Spazi vettoriali con struttura (II) un operatore ortogonale sui sottospazi di E. Similmente. (2. ad α. cio`e a questa coppia di piani. v[i = u · v (2. diventa ui vi = gij ui v j .2) che un covettore α `e geometricamente rappresentato da una coppia di iperpiani paralleli (A0 .1. L’applicazione lineare [ : E → E ∗ : v 7→ v[ definita dall’uguaglianza hu. A1 ). Nell’identificazione ora vista di E con E ∗ .2 – Le (g ij ) prendono il nome di componenti contravarianti del tensore metrico. si pone cio`e v[ = vi εi . riservando alle (v i ) il nome di componenti contravarianti. Introdotta una base di E.18): v i = g ij vj (2. stante la regolarit` a del tensore metrico g.1.16) `e un isomorfismo.3 – Si `e visto (§ 1. • Osservazione 2. scritta in componenti. Si osserva quindi che le componenti del covettore v [ si ottengono per abbassamento degli indici delle componenti (v i) di v mediante la matrice metrica.42 Capitolo 2. Tratteremo i primi due argomenti in questo paragrafo.17) Valendo questa per ogni (ui) ∈ Rn si trae vi = gij v j (2. Allora la (2. L’applicazione inversa `e definita dalle relazioni inverse delle (2.16). ∀v ∈ K}. (2. (2. q). Se quindi denotiamo con u il vettore ortogonale ad A0 appartenente ad A1 . le basi (e1 . Se lo spazio `e pseudoeuclideo. Assunta (c1 . allora ei = ei : la base coincide con la sua reciproca.1. si ha v= u . e2 ) e (e1 . di segnatura (p. (2.22) La figura che segue mostra per esempio il caso dello spazio euclideo bidimensionale. si vede che K ⊥ = (K ◦ )].20) Si verifica che ei = g ij ej . essendo e1 · e1 = e2 · e2 = 1. ∗ se (ei ) `e una base canonica. Ad ogni sottospazio K ⊂ E associamo il sottospazio K ⊥ = {u ∈ E | u · v = 0. Spazi vettoriali euclidei al sottospazio A0 e il cui prodotto scalare con i vettori del laterale A1 vale 1. e2 ) sono basi una reciproca dell’altra.43 2. Per i rimanenti si ha ei = − ei . c2 ) come base canonica.4 – Ad ogni base (ei ) di E si fa corrispondere un’altra base. In uno spazio strettamente euclideo. e1 · e2 = e2 · e1 = 0. Confrontando questa definizione con quella del polare K ◦ data al § 1. • kuk Osservazione 2. anche base duale). quest’uguaglianza vale solo per gli indici ∗ i ≤ p. (2.2 e tenuto conto della definizione (2.1. ei = gij ej . detta base reciproca o base coniugata (e a volte.16). •     Basi reciproche. impropriamente.23) detto spazio ortogonale a K. denotata con (ei ) e definita implicitamente dalle relazioni ei · ej = δji . (2.21) e che ei = (εi )].24) . 25)     (K + L)⊥ = K ⊥ ∩ L⊥ .44 Capitolo 2. Spazi vettoriali con struttura Pertanto dalle propriet` a (1. q) della segnatura.5 – Un sottospazio K si dice isotropo se K ⊂ K ⊥ . • Osservazione 2.  (AB)T = B T AT . Ad ogni endomorfismo A su E si associa un altro endomorfismo AT di E. definito dall’uguaglianza AT (u) · v = u · A(v) Per l’operatore di trasposizione T valgono le seguenti propriet` a:  T 1 = 1.2 seguono immediatamente analoghe propriet` a per l’operatore ortogonale ⊥:  dim(K) + dim(K ⊥ ) = dim(E). • 2. (2.1. Osservazione 2. A ].   K ⊥ ⊂ L⊥ ⇐⇒ L ⊂ K.     T T T [A.       (A + B)T = AT + B T . ai vettori complessi. La norma di un vettore `e il numero complesso kvk = kuk − kwk + 2i u · w.26) (2. • Osservazione 2.2 Endomorfismi in spazi euclidei Sia (E. g) uno spazio euclideo (di segnatura qualsiasi). detto endomorfismo trasposto di A. Il prodotto scalare dei vettori v = u+i w e v0 = u0 +i w0 `e il numero complesso v · v0 = u · u0 − w · w0 + i (u · w0 + u0 · w).       ATT = A.1)2 ristretta a K).1.     T k    Ak = AT (k ∈ N).27) .8 – Il prodotto scalare si pu` o estendere.3) del § 1. (2.        K ⊥⊥ = K.1.1.      ⊥ K + L⊥ = (K ∩ L)⊥ .6 – Si pu` o dimostrare che la massima dimensione dei sottospazi isotropi `e il minimo dei due numeri (p. Un sottospazio `e non degenere se e solo se K ∩ K ⊥ = 0 (dimostrarlo). ovvero se e solo se (b) tutti i suoi vettori sono fra loro ortogonali (dimostrarlo). Un sottospazio `e isotropo se e solo se (a) tutti i suoi vettori sono isotropi.7 – Un sottospazio K si dice euclideo o non degenere se la restrizione del tensore metrico a K `e ancora regolare (vale cio`e la (2. B] = [B . in maniera naturale. • Osservazione 2. 1 – Diciamo che un endomorfismo `e simmetrico se AT = A. v).2.32) nonch´e gli spettri.30) `e verificata a meno del segno per certe coppie di indici (quali ?).1 – Se lo spazio `e strettamente euclideo (la metrica `e definita positiva) e se la base scelta `e canonica. Se la metrica non `e definita positiva e la base `e canonica allora la (2. . (2.22). (2. e quindi coincidono anche tutti gli invarianti principali Ik (AT ) = Ik (A). Endomorfismi in spazi euclidei Se in particolare A `e un automorfismo: (A−1 )T = (AT )−1 .2. εi i = AT (ej ) · ei = A(ei ) · ej = g ik gjh A(ek ) · eh = g ik gjh hA(ek ). • Definizione 2.2 – Dalla (2. per ogni coppia di vettori (u. Osservazione 2.29) Occorre infatti ricordare la definizione di componenti di un endomorfismo e quanto visto al § precedente (in particolare la (2. per dedurre successivamente: (AT )ij = hAT (ej ). rispettivamente: A(u) · v = A(v) · u.45 2. • Osservazione 2. che `e antisimmetrico se AT = −A.31) Dalla prima di queste segue det(A − x1) = det(A − x1)T = det(AT − x1).2. allora gij = δij e quindi ∗ (AT )ij = Aji .30) Ci` o significa che la matrice delle componenti dell’endomorfismo trasposto AT coincide con la trasposta della matrice delle componenti di A (si scambiano cio`e righe con colonne). Questa propriet` a `e valida solo in questo caso. • A(u) · v = −A(v) · u. tr(AT ) = tr(A). (2.28) Le componenti dell’endomorfismo trasposto sono date da (AT )ij = gjh g ik Ahk (2.2. (2. εh i = g ik gjh Ahk . Ci` o significa che si ha. Dunque i polinomi caratteristici di A e AT coincidono.29) deduciamo che det(AT ) = det(A). A 1 T A = 2 (A − A ) Segue che AT = AS − AA . oppure di due endomorfismi antisimmetrici. (III) La traccia di un endomorfismo antisimmetrico `e nulla. risulta Aij = gjk Aki Infatti: Aij = A(ei .3 – E venire in maniera essenziale la metrica g. Da quest’ultima propriet` a segue che gli endomorfismi antisimmetrici formano una sottoalgebra di Lie di End(E). (IV) Il determinante di un endomorfismo antisimmetrico `e nullo se la dimensione n dello spazio `e dispari.46 Capitolo 2. (II) La potenza k-esima di un endomorfismo antisimmetrico `e simmetrica o antisimmetrica T k a seconda che k sia pari o dispari.34) Alcune propriet` a da ricordare: (I) La potenza k-esima di un endomorfismo simmetrico `e sempre simmetrica.35) Denotate con (Aij ) le componenti della forma bilineare A.27)4 Ak = AT = Ak . ponendo: A(u. ` importante sottolineare che le precedenti definizioni fanno interOsservazione 2. Esse sono del tutto analoghe a quelle viste per le forme bilineari.2. Spazi vettoriali con struttura Ogni endomorfismo `e decomponibile nella somma della sua parte simmetrica e della sua parte antisimmetrica: ) AS = 12 (A + AT ) (2. `e antisimmetrico.36) . Infatti tr(A) = tr(−AT ) = − tr(AT ) = − tr(A). • Ad ogni endomorfismo A possiamo far corrispondere una forma bilineare. Da AT = − A segue infatti Ak = AT = (−A)k = (−1)k Ak . Infatti det(A) = det(AT ) = det(−A) = (−1)n det(A). L’analogia risulta ulteriormente confermata nelle considerazioni seguenti. (V) La traccia del prodotto di un endomorfismo simmetrico per uno antisimmetrico `e nulla.33) A = AS + AA . Questo segue dall’ultima delle (2. qualunque T k sia k. tr(A B) = tr(−A B) = − tr(A B). (VI) Il commutatore di due endomorfismi simmetrici. v) = A(u) · v (2. ej ) = A(ei ) · ej = Aki ek · ej = gjk Aki . (2. Infatti se A e simmetrico e B antisimmetrico. dove per` o la nozione di trasposizione e quelle conseguenti di simmetria e di antisimmetria non richiedono la presenza sullo spazio vettoriale di alcuna struttura aggiuntiva. (2. che denotiamo ancora con A.27) e dall’anticommutativit` a del commutatore. Da AT = A segue infatti per la (2. 47 2.2. Endomorfismi in spazi euclidei Si osservi che, anche in questo caso, `e presente un’operazione di abbassamento di indice. La relazione inversa delle (2.36) `e: Aki = g jk Aij . (2.37) L’operazione ora definita `e un isomorfismo tra End(E) e T2 (E). Si osservi che accanto alla (2.35) sussiste una definizione alternativa analoga, che genera un altro isomorfismo: A(u, v) = u · A(v). Si osservi inoltre che A `e un endomorfismo simmetrico (rispettivamente, antisimmetrico) se e solo se la corrispondente forma bilineare `e simmetrica (risp. antisimmetrica). Osservazione 2.2.4 – Il tensore metrico, come forma bilineare, corrisponde all’endomorfismo identico. • Osservazione 2.2.5 – Si consideri il prodotto tensoriale di due vettori A = a ⊗ b. Si tratta di un tensore doppio contravariante. Le sue componenti in una base qualsiasi sono Aij = ai bj . A questo tensore si fa corrispondere un endomorfismo, denotato ancora con A e detto diade, ponendo A(u) = (a · u) b, (2.38) e quindi ancora una forma bilineare ponendo A(u, v) = (a · u) (b · v). (2.39) Le componenti di quest’endomorfismo e di questa forma bilineare sono rispettivamente Aji = ai bj , Aij = ai bj . (2.40) Pi` u in generale ad ogni tensore doppio contravariante A, di componenti (Aij ), per quanto visto al paragrafo precedente, corrisponde un endomorfismo ed una forma bilineare (che denotiamo sempre con A) le cui componenti si ottengono con l’abbassamento degli indici: Aji = Akj gki , Aij = Ahk ghi gkj . • (2.41) Passiamo ora a considerare alcune fondamentali propriet` a degli autovalori degli endomorfismi simmetrici e antisimmetrici, nell’ipotesi per` o che lo spazio E sia strettamente euclideo, cio`e a metrica definita positiva (fatta eccezione per il primo teorema che segue, valido anche nel caso di uno spazio non strettamente euclideo). Cominciamo dagli endomorfismi simmetrici. Teorema 2.2.1 – Gli autovettori di un endomorfismo simmetrico corrispondenti ad autovalori distinti sono ortogonali. Dimostrazione. Sia A un endomorfismo simmetrico. Sia A(v1) = λ1 v 1 e A(v2) = λ2 v 2 . Moltiplicando scalarmente la prima uguaglianza per v 2 , la seconda per v1 , sottraendo poi membro a membro e tenendo conto della simmetria di A si deduce 0 = (λ1 − λ2 ) v1 · v 2 . Da λ1 6= λ2 segue v1 · v2 = 0. 2 48 Capitolo 2. Spazi vettoriali con struttura Teorema 2.2.2 – Gli autovalori di un endomorfismo simmetrico in uno spazio strettamente euclideo sono reali. Dimostrazione. Sia A(v) = λ v, con λ complesso e quindi v complesso: v = u + i w. ¯ = u − i w, Moltiplicando scalarmente membro a membro per v ¯ · A(v) = λ (u − i w) · (u + i w), v si trova, considerando A come forma bilineare simmetrica: A(u, u) + A(w, w) = λ (kuk + kwk). Essendo lo spazio strettamente euclideo `e sicuramente kuk + kwk > 0 (a meno che non sia v = 0, caso a priori escluso). L’equazione precedente determina quindi l’autovalore λ attraverso un quoziente di numeri reali. 2 Teorema 2.2.3 – Per un endomorfismo simmetrico in uno spazio strettamente euclideo la molteplicit` a geometrica degli autovalori coincide con la molteplicit` a algebrica. Dimostrazione. Si consideri l’insieme degli autovalori distinti (λ1 , λ2, . . . , λl ), l ≤ n, nonch´e la successione delle rispettive molteplicit` a (m1 , m2 , . . . , ml ) e dei rispettivi spazi invarianti (K1 , K2 , . . . , Kl ). Con riferimento alle notazioni del § 1.9 abbiamo mi = mλi e Ki = Kλi . Per il Teorema 2.2.1 questi sottospazi sono mutuamente ortogonali. Consideriamo il sottospazio V ⊂ E dei vettori ortogonali a tutti i Ki. Questo `e un sottospazio invariante di A; infatti per ogni v ∈ V e per ogni vi ∈ Ki si ha A(vi ) · v = 0 perch´e A(Ki) ⊂ Ki . Per la simmetria di A di qui segue A(v) · vi = 0, il che significa appunto A(v) ∈ V . Allora la restrizione di A a V darebbe luogo ad ulteriori autovettori da aggiungersi alla lista gi` a fatta: assurdo, a meno che non sia V = {0}. Abbiamo dunque che lo spazio E `e somma diretta dei sottospazi mutuamente ortogonali associati agli autovalori: E = K1 ⊕ K2 ⊕ . . . ⊕ Kl . Pertanto dim(E) = n = dim(K1 ) + dim(K2 ) + . . . + dim(Kl ) = mg(λ1 ) + mg(λ2 ) + . . . + mg(λl ). (2.42) 49 2.2. Endomorfismi in spazi euclidei D’altra parte, per il teorema fondamentale dell’algebra: n = m1 + m2 + . . . + ml = ma(λ1 ) + ma(λ2 ) + . . . + ma(λl ). In generale, come si `e detto al § 1.9, vale la disuguaglianza ma(λi ) ≥ mg(λi). Se vi fosse una sola disuguaglianza forte, stante le due uguaglianze sopra stabilite, si cadrebbe in un assurdo. 2 Osservazione 2.2.6 – Se gli autovalori di A sono tutti distinti, allora ognuno dei sottospazi invarianti Ki `e unidimensionale e univocamente determinato. • Teorema 2.2.4 – Ogni endomorfismo simmetrico in uno spazio strettamente euclideo ammette una rappresentazione del tipo A= n X α=1 λα cα ⊗ cα (2.43) dove (cα ) `e una base canonica di autovettori di A e dove (λα) sono i corrispondenti autovalori. Per questa rappresentazione si deve tener conto dell’Oss. 6, cio`e della corrispondenza tra tensori doppi contravarianti, endomorfismi e forme bilineari. Segue subito dalla scrittura (2.43) che i (cα ) sono autovettori ed i (λα) sono autovalori. Infatti – si veda la (2.38): A(cβ ) = n X λα(cα · cβ ) cα = α=1 n X λα δαβ cα = λβ cβ . α=1 Per ogni vettore v si ha quindi ∗ A(v) = n X λα vα cα (2.44) α=1 essendo le (vα) le sue componenti rispetto alla base canonica. Dimostrazione. Si consideri la decomposizione (2.42) in sottospazi invarianti. Se v 1 ∈ K1 e |v1 | = 1, allora A(v1 , v1 ) = A(v1 ) · v 1 = λ1 v 1 · v 1 = λ1 . Analogamente, tenuto conto del Teorema 2.2.1, se v2 ∈ K2 allora A(v1 , v2 ) = A(v1 ) · v 2 = λ1 v1 · v2 = 0. 50 Capitolo 2. Spazi vettoriali con struttura Pertanto, scegliendo in ogni sottospazio K1 , K2, . . . , Kl una base canonica si determina una base canonica (cα ) di tutto E per la quale vale la rappresentazione (2.43). 2 Si osservi che dalla (2.43) segue che nella base canonica (cα) le componenti Aαβ = A(cα , cβ ) della forma bilineare A sono tutte nulle salvo quelle della diagonale principale, che coincidono con gli autovalori: Aαβ = δαβ λα. In forma matriciale:     [Aαβ ] =     (2.45) λ1 1m1 0 ... 0 0 λ2 1m2 ... 0 .. . .. . .. .. . 0 0 . . . λl 1ml .         (2.46) Questa base canonica (cα) si trasforma in una base canonica (c0α ) rispetto alla forma bilineare simmetrica A ponendo 1 c0α = p cα |λα| se λα 6= 0, oppure c0α = cα se λα = 0. Si vede cos`ı che le componenti positive (risp. negative) della forma bilineare A in questa base sono tante quante gli autovalori positivi (risp. negativi) dell’endomorfismo A. Si `e pertanto dimostrato che Teorema 2.2.5 – Se un endomorfismo simmetrico in uno spazio strettamente euclideo ha, contati con la dovuta molteplicit` a, p autovalori positivi e q autovalori negativi, allora la corrispondente forma bilineare simmetrica ha segnatura (p, q). Tenuto conto che il tensore metrico `e una forma bilineare simmetrica definita positiva, dalla dimostrazione di quest’ultima propriet` a si deduce anche l’enunciato generale seguente: Teorema 2.2.6 – Due forme bilineari simmetriche, di cui una definita positiva, possono contemporaneamente porsi in forma diagonale, ammettono cio`e basi ortogonali comuni. Passiamo infine ad esaminare brevemente il caso antisimmetrico. Teorema 2.2.7 – Gli autovalori di un endomorfismo antisimmetrico in uno spazio strettamente euclideo sono nulli o immaginari puri. Dimostrazione. La dimostrazione `e analoga a quella del Teorem 2.2.2. Sia A(v) = λ v, con λ complesso e quindi v complesso: v = u + i w. Moltiplicando scalarmente membro a ¯ = u − i w, si trova, considerando A come forma bilineare antisimmetrica: membro per v i 2 A(w, u) = λ (kuk + kwk). Essendo lo spazio strettamente euclideo quest’equazione determina l’autovalore λ come quoziente di un numero immaginario puro per un numero reale. 2 Ne deduciamo che un endomorfismo ortogonale `e un isomorfismo. L’insieme di tutti gli endomorfismi ortogonali sopra uno spazio (E.49) implica (det(Q))2 = 1 cio`e det(Q) = ±1.47) equivale a QT Q(u) · v = u · v. Endomorfismi ortogonali 2. la (2. (2.50) ovvero Dunque le formule (2. Dalla (2. se vale la (2.51) Gli endomorfismi ortogonali il cui determinante vale +1 sono chiamati rotazioni.47). per il fatto che la metrica non `e degenere.49) QT = Q−1 (2. L’identit` a 1 `e ovviamente una rotazione.3 Endomorfismi ortogonali Un endomorfismo ortogonale o isometria `e un endomorfismo Q su di uno spazio euclideo o pseudoeuclideo (E.48).3. Poich´e det(QT ) = det(Q).47). per l’arbitrariet` a dei vettori. (2. Il prodotto di due (o pi` u) rotazioni `e una rotazione. segue che Ker(Q) = 0. cio`e un sottogruppo di Aut(E).47) implica la (2. Viceversa.47).48) Va osservato che questa definizione equivale a Q(u) · Q(u) = u · u `e infatti ovvio che la (2.48) risulta Q(u + v) · Q(u + v) = (u + v) · (u + v) (∀u. Il prodotto di una rotazione per una rotazione impropria `e una rotazione impropria. v ∈ E).47) ∀u ∈ E (2.49) e (2. g) conservante il prodotto scalare. alla condizione QT Q = 1 (2. v ∈ E (2. Il prodotto di due rotazioni improprie `e una rotazione. quelle con determinante −1 rotazioni improprie. Sviluppando ambo i membri di quest’uguaglianza e riutilizzando la(2.51 2. g) `e un gruppo rispetto all’ordinaria composizione degli endomorfismi. Di conseguenza Q(E) = E.48) si trova l’uguaglianza (2.50) sono tutte definizioni equivalenti di endomorfismo ortogonale. (2. e quindi. cio`e tale che Q(u) · Q(v) = u · v ∀u. detto . Per definizione di endomorfismo trasposto la (2.48). ek ) di vettori della base.53). In ogni caso. Se lo spazio `e strettamente euclideo e se la base scelta `e canonica. che suggeriscono alcuni esercizi e ulteriori approfondimenti. Poich´e Q `e membro a membro queste due uguaglianze si ottiene Q(v) · Q(¯ v) = λλv ¯ ¯ .53) i=1 Ci` o significa che il prodotto della matrice (Qij ) per la sua trasposta `e la matrice unitaria. nel senso che. come asserito. Le rotazioni improprie non formano ovviamente sottogruppo.1 – Gli autovalori. q) formano un gruppo denotato con O(p. La scelta di una base canonica stabilisce un isomorfismo tra O(E. Le rotazioni formano un sottogruppo. dall’equazione Q(v) = λv ¯ v. q) (oppure SO(p.52 Capitolo 2. S a (v) = v . Spazi vettoriali con struttura gruppo ortogonale di (E. Se la base `e canonica ma lo spazio non `e strettamente euclideo la formula (2. Lo denotiamo con O(E. Se due spazi vettoriali hanno uguale dimensione e segnatura. cio`e soddisfacenti alla (2. complessi o reali.47) scritta per una generica coppia (eh . detto gruppo ortogonale speciale. g). Passando alle componenti. Queste si ottengono dalla (2. Di qui segue λλ = 1. e di quelle ortogonali a determinante unitario. Si denotano in particolare con O(n) e SO(n) i gruppi delle matrici n×n ortogonali. allora i rispettivi gruppi ortogonali sono isomorfi.3. Si consideri l’endomorfismo S a definito da S a (v) = v − 2 a·v a.53) non `e pi` u valida. a·a (2. • ortogonale si ha anche Q(v) · Q(¯ v) = v · v Vediamo ora alcuni esempi di rappresentazione delle rotazioni. allora le (2. Infatti. come si verifica immediatamente. di un endomorfismo ortogonale in uno spazio strettamente euclideo sono unitari: |λ| = 1. osserviamo che un endomorfismo Q `e ortogonale se e solo se le sue componenti (Qji ) rispetto ad una base generica verificano le uguaglianze gij Qih Qjk = ghk (2. l’equazione Q(¯ v) = λ¯ ¯ ·v ¯ .1 Rappresentazione mediante simmetrie Sia a ∈ E un vettore non isotropo. q). g) e O(p. applicando la coniugazione.52) che sono in tutto 12 n(n + 1). le matrici delle componenti in una base canonica degli endomorfismi ortogonali (o delle rotazioni) di uno spazio di segnatura (p. Le matrici soddisfacenti a questa propriet` a sono dette matrici ortogonali. q)).54) Esso `e una simmetria rispetto al piano ortogonale ad a. che denotiamo con SO(E. 2. S a (a) = −a. Moltiplicando scalarmente segue.3.52) diventano n X ∗ Qih Qik = δhk (2. g). g). Osservazione 2. 2. 1) e quindi det(S a ) = −1.56) e (2. sicch´e sottraendo membro a membro segue subito QA QS − QS QA = [QA . se valgono entrambe queste condizioni allora le predette espressioni valgono 1. qualunque sia il vettore v. 1.. Dalla (2. Infatti a `e un autovettore di autovalore −1 mentre ogni vettore ortogonale ad a `e autovettore di autovalore +1. consideriamone tutte le sue potenze {Ak . Lo si riconosce comunque anche dal fatto che. cio`e se Q2 = 1. QS = 1 2 (Q + QT ). allora entrambe queste espressioni devono valere 1. Infatti: Q(v ± Q(v)) = Q(v) ± Q2 (v) = Q(v) ± v = ±(v ± Q(v)).57) si deduce in particolare che un endomorfismo ortogonale Q `e simmetrico se e solo se esso `e involutorio. Se Q `e un’isometria. . S a `e un’isometria.57) sono necessarie e sufficienti affinch´e un endomorfismo Q sia ortogonale. QT Q = (QS − QA )(QS + QA ) = (QS )2 − (QA )2 − QA QS + QS QA . `e invece pi` u facile dimostrare (e la dimostrazione `e lasciata come esercizio) che due simmetrie S a e S b commutano se e solo se i corrispondenti vettori a e b sono dipendenti (allora le simmetrie coincidono) oppure sono ortogonali.58) k! k=0 .56) (QS )2 − (QA )2 = 1.2 Decomposizione simmetrica delle isometrie Decomponiamo un endomorfismo Q nelle sue parti simmetrica e antisimmetrica: Q = QS + QA . la condizione QQ = 1 `e equivalente a Q = QT . sicch´e lo spettro `e (−1. QA = 1 2 (Q − QT ). che ogni isometria `e il prodotto di simmetrie. `e cos`ı dimostrato che le condizioni (2. k ∈ N} e quindi la serie ∞ X 1 k A e = A . Pi` u precisamente `e una rotazione impropria. Endomorfismi ortogonali per ogni vettore v ortogonale ad a. Di conseguenza. (2. Si pu` o dimostrare. 2. (2. . il vettore v ± Q(v) `e autovettore di Q con autovalore ±1.3 Rappresentazione esponenziale Dato un endomorfismo A.3. ma la dimostrazione non `e semplice.3.53 2.55) Segue che QQT = (QS + QA )(QS − QA ) = (QS )2 − (QA )2 + QA QS − QS QA . QS ] = 0 (2.57) e quindi Viceversa. valendo la (30 ). Osserviamo infine che se l’endomorfismo ortogonale Q `e simmetrico allora. .3. (2. Infatti: T eA (eA )T = eA eA = eA e−A = e(A−A) = 1. assolutamente convergenti) o.3. . Si osservi che la condizione det(1 − A) 6= 0. utilizzando le ben note propriet` a della traT sposizione e il fatto che i due endomorfismi 1 ± A commutano. le n2 serie di numeri reali date dalle componenti di eA sono tutte convergenti (anzi. nel senso che qualunque sia A e comunque si fissi una base di E. Spazi vettoriali con struttura detta esponenziale di A. k! k=0 qualunque sia il vettore v. Di qui segue che: se A `e antisimmetrico allora eA `e una rotazione. Questa `e convergente. Si verifica infatti facilmente. Per esempio l’uguaglianza eA+B = eA eB non `e pi` u vera in generale. Infatti.59) `e ortogonale. . λn) `e lo spettro di A allora lo spettro di eA `e (eλ1 . . Inoltre la condizione det(eA ) = 1 segue dal fatto che nello spettro di un endomorfismo antisimmetrico gli autovalori non nulli si distribuiscono in coppie di segno opposto. Infatti da A(v) = λv segue Ak (v) = λk v e quindi eA (v) = ∞ ∞ X X 1 k 1 k A (v) = λ v = eλ v. . Allora. Un po’ meno immediata `e la verifica del fatto che det(Q) = 1 (essa `e lasciata come esercizio). per quanto sopra detto. k! k! k=0 k=0 L’esponenziale di un endomorfismo non gode di tutte le propriet´ a della corrispondente funzione analitica.54 Capitolo 2. .59). . richiesta per la validit` a della scrittura (2. che QQ = 1. . Omettiamo la discussione sulla convergenza di questa serie e su serie analoghe costruibili a partire da funzioni analitiche. . . Vale comunque la propriet` a T (eA)T = eA . eλn ). Lo `e se i due endomorfismi A e B commutano (col che commutano anche gli esponenziali). cosa impossibile perch´e in tali spazi gli autovalori non nulli di un endomorfismo antisimmetrico sono immaginari puri. i=1 2. questa equivale alla condizione che 1 sia un autovalore di A. Ci limitiamo qui ad osservare che se (λ1 . `e sempre soddisfatta in uno spazio strettamente euclideo. sicch´e la loro somma `e uguale a zero. Si ottiene quindi un’ulteriore rappresentazione delle rotazioni in termini di endomorfismi antisimmetrici.4 Rappresentazione di Cayley Se A `e un endomorfismo antisimmetrico tale che A − 1 `e invertibile allora l’endomorfismo Q = (1 + A)(1 − A)−1 (2. det(eA ) = n Y Pn eλi = e i=1 λi = e0 = 1. che tale `e la serie vettoriale ∞ X 1 k A (v). se si vuole. 60). Endomorfismi ortogonali 2. u)k = 1. 0). consiste nella scelta di una base canonica (i. (ii) che l’applicazione cos`ı definita `e un endomorfismo ortogonale. Un modo conveniente per rappresentare quest’algebra. 0) = a e (0. u)k k(b. u)(b. u)k (2.3. (2. Si ottiene un’algebra associativa. (iii) che l’applicazione f : (R × E3 )\{0} → SO(E3 ) . i j = k. 0). u) · (a. `e l’estensione lineare dei seguenti prodotti fondamentali: i2 = j 2 = k 2 = −1. u) · (b. ad ogni suo elemento non nullo (a. fuorch´e quello nullo (0. u)k = (a.5 Rappresentazione quaternionale Veniamo infine ad una interessante rappresentazione delle rotazioni nello spazio euclideo tridimensionale E3 . u) = a2 + u2 . k i = j.66) Lasciamo come esercizio di dimostrare che: (i) il secondo membro definisce effettivamente un vettore. v) = ab + u · v. u)−1 = (a. Si consideri nella somma diretta di spazi vettoriali R ⊕ E3 il prodotto (interno) definito da (a. Il prodotto scalare `e conservato dal prodotto interno. u) si associa un’applicazione Q : E3 → E3 definita da Q(v) = (a. (2. (2. u = b i + c j + d k) nella somma formale a + b i + c j + d k. (2.63) Da questa propriet` a segue per esempio che gli elementi unitari. j k = i. v) = v. −u) k(a.62) dove si `e posto k(a.64) detta quaternione. non commutativa. (2. Si pone per comodit` a (a. k) dello spazio vettoriale e nella rappresentazione di un generico elemento (a.55 2.60) nonch´e il prodotto scalare definito da (a. nel senso che k(a. v)k. v)k = k(a. u)v(a. in conformit` a alla definizione (2. formano un sottogruppo del gruppo degli elementi non nulli. Quindi tutti gli elementi sono invertibili.61) L’elemento inverso `e definito da (a. av + bu + u × v) (2. Il prodotto di due quaternioni. con unit` a (1. cio`e quelli per cui k(a.3. j.65) Definita quest’algebra. e quindi riconoscerne facilmente le propriet` a fondamentali. anzi una rotazione. u)(b. v) = (ab − u · v. u)−1 . In particolare possiamo restringere quest’applicazione agli elementi unitari di R × E3 . j. Spazi vettoriali con struttura definita dalla (2. definito positivo. Quando si sceglie una base e la si ordina.4. argomento di corsi superiori).1 La forma volume Due basi ordinate di uno spazio vettoriale (ci riferiamo ad uno spazio vettoriale di dimensione n qualsiasi) si dicono concordi o equiorientate se la matrice della trasformazione da una base all’altra ha determinante positivo. si sceglie automaticamente un orientamento dello spazio. Siccome dovremo distinguere tra basi generiche e basi canoniche.4. Sulla rappresentazione delle rotazioni nello spazio tridimensionale euclideo si ritorner` a pi` u avanti (§ 2. questi elementi sono caratterizzati dall’equazione (si veda la (2.4 Lo spazio vettoriale euclideo tridimensionale In questo paragrafo esamineremo le propriet` a fondamentali di uno spazio vettoriale sul campo reale. cio`e di un prodotto scalare. 3). Lo denotiamo semplicemente con E3 .5). e quindi descrivono tutta la sfera unitaria S3 ⊂ R4 . 2. Osserviamo allora che. si cambia orientamento. corredandone gli elementi con un indice che va da 1 a n. Quando non occorrono notazioni con indici. oppure se si cambia verso ad un numero dispari di vettori della base. quelle relative ad una base generica con indici latini. come si fa usualmente. (ii) esiste un omomorfismo di gruppi ϕ : S3 → SO(3) che costituisce un ricoprimento universale del gruppo delle rotazioni dello spazio euclideo tridimensionale (questo termine `e proprio della teoria dei gruppi di Lie.56 Capitolo 2. Adotteremo tutte le definizioni e notazioni gi` a introdotte al § 2. Una base canonica `e anche detta ortonormale. k). 3). 2. scegliendo una base canonica nello spazio euclideo. una base generica con (ei ) (i = 1. una base canonica sar` a denotata con (cα) (α = 1.66) `e un omomorfismo di gruppi. Consideriamo ora lo spazio vettoriale euclideo tridimensionale E3 . Si stabilisce in questo modo una relazione di equivalenza nell’insieme delle basi ordinate. Se si scambiano fra di loro due vettori della base. Si osservi che ogni elemento di SO(3) ha come controimmagine due punti opposti di S3 . Risulta pertanto che: (i) la sfera S3 ha una struttura di gruppo.64)) a2 + b2 + c2 + d2 = 1.1. Le componenti relative a una base canonica saranno quindi contrassegnate con indici greci. tridimensionale. 2. una base canonica sar` a denotata con (i. 2. Le classi di equivalenza sono due e prendono il nome di orientamenti. pur avvertendo che le considerazioni svolte in questo sottoparagrafo si estendono a spazi euclidei di dimensione . dotato di un tensore metrico. La (2.67) scegliendo un’altra base canonica si giungerebbe al medesimo risultato (2. una base concorde con quella canonica prefissata. Per riconoscerlo basta osservare che. definiamo una 3-forma η : E3 × E3 × E3 → R ponendo   u1 u2 u3     1 2 3  η(u.68) Il simbolo εαβγ vale +1 se la successione di indici (α. (2.4.68) mostra subito che le componenti del tensore η nella base canonica (cα ) coincidono proprio con il simbolo di Levi-Civita: ∗ ηαβγ = εαβγ .57 2. purch´e questa appartenga all’orientamento prefissato. c3 ). Lo spazio vettoriale euclideo tridimensionale superiore.69) Quest’ultima propriet` a `e manifestamente indipendente dalla base canonica di partenza: se si ripetesse la definizione (2.67)    w1 w2 w3 Che l’applicazione η cos`ı definita sia multilineare e antisimmetrica segue immediatamente dalle propriet` a del determinante. 3). v. ricordata la definizione di determinante. Allora: u = u1 c1 . nullo se i vettori sono dipendenti. w = w 1 c1 + w 2 c2 + w 3 c3 e la definizione (2. β. cio`e quando almeno due degli indici sono uguali. ` importante la circostanza che la definizione (2.67) di η non dipende dalla scelta della E base canonica. v. w) = det  v2 0  v  w1 w2 w3     = u1 v 2 w 3 . la definizione (2.67) `e invariante rispetto alla scelta della base canonica.69). u1 0 0   1 η(u.20. nell’ordine. v. Pertanto la definizione di η data dalla (2.67) si pu` o 3 porre in forma sintetica utilizzando il simbolo di Levi-Civita a tre indici: η(u. c2 . Il significato di η `e notevole: il determinante nella definizione (2. −1 se `e invece una permutazione dispari. v. w) = det  v v v  (2. c2 ) contenga il vettore v (vedi figura). γ) `e una permutazione pari della disposizione fondamentale (1. w).67) rappresenta il volume del parallelepipedo individuato dai vettori (u. v = v 1 c1 + v 2 c2 . pi` u precisamente il volume con segno: positivo se questi vettori formano. w) = εαβγ uα v β w γ (2. 0 in tutti gli altri casi.70) . negativo in caso contrario.   (2. col che risulta anche fissato un orientamento.67) fornisce  3 Vedi § 1. Fissata una base canonica (cα ) = (c1 . 2. Per riconoscerlo si pu` o scegliere una base canonica (cα ) tale che c1 sia parallelo ad u e il sottospazio individuato da (c1 . k) sono rispettivamente orientati come indice-medio-pollice (o pollice-indice-medio) della mano destra.1 – Le componenti della forma-volume η rispetto ad una qualunque base (ei ). ' $ & % La forma volume. una per ogni orientamento. Teorema 2. si possono definire due operazioni fondamentali: l’aggiunzione e il prodotto vettoriale. g = det[gij ].4. J = det[Eiα] (2. v. La sua definizione si estende facilmente a spazi euclidei di dimensione qualsiasi. c2 . gij = ei · ej col segno + se la base (ei ) `e concorde con la base fondamentale (cα ). La forma volume `e un ente fondamentale nello spazio euclideo. legata ad una base canonica (cα ) dalle uguaglianze ei = Eiα cα. Per quanto ora visto il tensore antisimmetrico covariante η prende il nome di forma volume. c3 ) = (i. come si vedr` a nei prossimi paragrafi. sono date da ηhij = J εhij . Spazi vettoriali con struttura Si riconosce.58 Capitolo 2.72) . (2. che quest’ultimo prodotto `e proprio il volume del parallelepipedo individuato dai vettori (u.71) dove εhij `e il simbolo di Levi-Civita. Si osservi che di forme volume ne esistono due. j. L’orientamento che di solito si assume nello spazio euclideo tridimensionale `e quello della mano destra: i vettori di una base canonica ordinata (c1 . sempre guardando la figura. w). una opposta all’altra. Per suo tramite. oppure da √ ηhij = ± g εhij . 75) . Si riconosce cos`ı che vale la formula generale (2. w) = εαβγ uα v β w γ . Dalla (2. Scelto per esempio (h. β γ ηhij = Ehα Ei Ej εαβγ .107) per i covettori. • 2.59 2. w) (2. v. la forma volume risulta essere anche definita da η = γ1 ∧ γ2 ∧ γ3 (2. v.4. per la legge di trasformazione delle componenti di un tensore.73) D’altra parte. come nella (2. per cui det[gij ] = (det[Eiα])2 . Osservazione 2.74).68). 2. Per cui (γ 1 ∧ γ 2 ∧ γ 3 )(u.73). i. possiamo scrivere γ 1 ∧ γ 2 ∧ γ 3 = εαβγ γ α ⊗ γ β ⊗ γ γ . richiamata e adattata al caso n = 3 la formula generale analoga alla (1. Se invece (h.2 Aggiunzione Introdotta la forma volume.4. ad ogni vettore u ∈ E3 si fa corrispondere una forma bilineare antisimmetrica. 3) e ricordata la definizione di determinante.1 – Data una base canonica (cα ) e denotata con (γ α) la sua duale. j) = (2. Posto che le due basi sono legate da relazioni del tipo ei = Eiα cα. si ha anche. e posto che la base (cα) `e canonica e quindi che le componenti del tensore metrico rispetto a questa coincidono col simbolo di Kronecker. (2. v.69).71). 1. denotata con ∗u e definita dall’uguaglianza (∗u)(v.4. j) = (1.72) in virt` u della (2. w) = εαβγ (γ α ⊗ γ β ⊗ γ γ )(u. i. Lo spazio vettoriale euclideo tridimensionale Dimostrazione. stante la (2. Dunque la forma volume ammette la definizione equivalente (2. si vede che quest’ultima formula implica η123 = E1α E2β E3γ εαβγ = det[Eiα]. 3). w) = η(u.71) segue poi la (2. allora η213 = − det[Eiα]. chiamata aggiunta di u. risulta gij = Eiα Ejβ δαβ .74) Infatti. sempre su E3 . 60 Capitolo 2. in una base generica dell’orientamento scelto. denotiamo cio`e con ∗ϕ il vettore aggiunto della 2-forma ϕ. In questo modo si ha ∗∗ u = u e ∗∗ ϕ = ϕ. Quindi le componenti ϕij della forma aggiunta. ej ) = η(u. ej ) = (∗u)(ei . si ha successivamente: ϕij = ϕ(ei .80) In una base qualsiasi. ϕ12 = u3 . risulta ui = 1 2 η ijh ϕjh (2. ei . (2. Con lo stesso simbolo denotiamo la corrispondenza inversa. Spazi vettoriali con struttura Posto ϕ = ∗u. ∗ 1 2 uα = εαβγ ϕβγ (2. sono date da ϕij = ηhij uh (2.79) cio`e che la relazione inversa della (2. ej ) = uh η(eh .82) .78) ∗ : E3 → Φ2 (E3 ) : u 7→ ∗u che cos`ı si genera `e un isomorfismo. (2.76) Se in particolare la base `e canonica ∗ ϕαβ = εγαβ uγ vale a dire: La corrispondenza  0 (2. ϕ31 = u2 .77) u3 −u2   3 [ϕαβ ] =  0  −u  u2 −u1 u 1 0       (2.81) dove le (η ijh ) sono le componenti contravarianti della forma volume: η ijh = g ik g jl g hm ηklm . Dalla (2.77) pu` o essere scritta. ej ) = uh ηhij . ei .78) si vede che ϕ23 = u1 . sempre nell’orientamento scelto. considerando il simbolo di Levi-Civita con gli indici in alto. cio`e che ∗∗ a = a. la cui verifica `e lasciata come esercizio: εαβγ εµβγ = 2 δµα.61 2.84) e la (2.85) Per riconoscere la coerenza tra la (2. detta prodotto vettoriale e denotata con ×.87) Prodotto vettoriale Per mezzo della forma volume definiamo un’operazione binaria interna su E3 . g (2. occorre osservare che per il simbolo di Levi-Civita vale l’uguaglianza εαβγ εαβγ = 3! (2. v. u × v · v = 0. g poich´e det[g rs] = g −1 . 2. viceversa. Segue subito dalla definizione (2.84) e. (2.89) .4. Lo spazio vettoriale euclideo tridimensionale Queste si possono a loro volta esprimere mediante il simbolo di Levi-Civita: 1 η ijh = √ εijh .85). ponendo u × v · w = η(u. che chiamiamo ancora aggiunzione e che denotiamo ancora con ∗.83) Infatti dalla (2.88) Si tenga presente che il prodotto vettoriale `e in alcuni testi denotato con ∧ ed `e anche chiamato prodotto esterno. ad una 3-forma ϕ corrisponde il numero reale ∗ϕ= 1 hij ∗ 1 η ϕhij = εαβγ ϕαβγ 3! 3! (2. Ad un numero reale a corrisponde la 3-forma ∗a = aη (2. Tuttavia il simbolo ∧ `e oggi universalmente usato per il prodotto esterno di forme antisimmetriche (§ 1.4. La forma volume permette anche di stabilire un isomorfismo fra R = Λ0 (E3 ) e Λ3 (E3 ). (2.86) Accanto a questa valgono anche le seguenti.18).3 εαβγ εµνγ = δµα δνβ − δνα δµβ .82) si trae: η ijh = √ g g ik g jl g hm εklm = √ 1 g εijh det[g rs] = √ εijh . w) (2.88) che il prodotto vettoriale u × v `e ortogonale ai due fattori: u × v · u = 0. essendo questo prodotto ortogonale a v e w. Deve quindi essere ρ = 1 e la (2. Moltiplicando scalarmente per u si trova 0 = a v · u + b w · u. b = − ρ v · u. c2 ). se si prendono i tre vettori di una base canonica appartenente all’orientamento scelto. . Le prime due propriet` a sono di immediata verifica. posto che – si veda la (2.91)    u × (v × w) + v × (w × u) + w × (u × v) = 0. v. (2. Spazi vettoriali con struttura Segue inoltre che.92) (u × v) × w = u · w v − v · w u (2. (2.    (a u + b v) × w = a u × w + b v × w. dalla formula del doppio prodotto vettoriale u × (v × w) = u · w v − u · v w (2. appartenente allo spazio generato dai vettori (v. La terza si pu` o far seguire. Per come `e definito il prodotto vettoriale il primo membro `e lineare rispetto ad ogni fattore. risulta l’uguaglianza − c3 = ρ (− c3 ). w) = (c1 . c3 × c1 = c2 . c2 × c3 = c1 . Se si considera per esempio una base canonica appartenente all’orientamento scelto e si prende (u.92) `e dimostrata. Cos`ı dicasi della quantit` a tra parentesi a secondo membro. w).90) – c1 × c2 = c3 e c1 × c3 = − c2 . v. c1 . Segue allora:  u × (v × w) = ρ (w · u) v − (v · u) w . con ρ costante indeterminata.62 Capitolo 2. w) che compaiono nell’uguaglianza. si ha c1 × c2 = c3 .93) che `e equivalente a Per dimostrare la (2. bilineare e soddisfa all’identit` a di Jacobi:  u × v = − v × u.92) si osserva che il primo membro `e un vettore ortogonale a v × w e quindi. Possiamo pertanto scrivere a = ρ w · u. Allora il fattore ρ deve essere un numero indipendente dai vettori (u.90) Il prodotto vettoriale `e anticommutativo. con qualche calcolo. Pertanto il prodotto vettoriale istituisce sullo spazio euclideo tridimensionale una struttura di algebra di Lie. Si pu` o allora scrivere u × (v × w) = a v + b w. 88) si dimostra che se ϑ `e l’angolo compreso tra i vettori non nulli u e v (valutato tra 0 e π) allora |u × v| = |u| |v| sin ϑ (2.95) In una base canonica (cα ). Dalla definizione (2. Lo spazio vettoriale euclideo tridimensionale Ponendo w = ei nella (2.96) e (2.4. si pu` o ridimostrare la formula (2.63 2. si ha (u × v)α = εαβγ uβ v γ (2.88) si trovano le componenti covarianti del prodotto vettoriale in una base generica: (u × v)i = ηihj uh v j . per le propriet` a gi` a viste: |u × v|2 = (u × v) · (u × v) = (u × v) × u · v = (u · u v − u · v u) · v = |u|2 |v|2 − (u · v)2   (u · v)2 2 2 = |u| |v| 1 − = |u|2 |v|2 (1 − cos2 ϑ). (2.92) del doppio prodotto vettoriale alla maniera seguente:  u × (v × w) α = εαβγ uβ (v × w)γ = εαβγ uβ εγµν vµ wν = εαβγ εµνγ uβ vµ wν = uβ wβ vα − uβ vβ wα.4.4. (2.99) Infatti.87).2 – Partendo dalla definizione (2.97).3 – L’operazione combinata di prodotto vettoriale e prodotto scalare. tenendo presente che non vi `e pi` u differenza numerica tra componenti covarianti e contravarianti.96) (u × v)α = εαβγ uβ vγ . • |u|2 |v|2 Osservazione 2. u × v · w. nonch´e della seconda delle (2. Osservazione 2.88) seguono subito. `e chiamata prodotto misto.94) Le componenti contravarianti sono di conseguenza (u × v)i = η ihj uh vj . (2.98) Tenuto conto delle (2. .97) ovvero anche Di qui la possibilit` a di esprimere il prodotto vettoriale mediante un determinante formale:  c1 c2 c3     1  2 3  u × v = det  u u u     1 2 3 v v v (2. . concludiamo che nello spazio euclideo tridimensionale ogni endomorfismo antisimmetrico `e del tipo (2. per cui.2. u) = a × v · u. La corrispondenza biunivoca cos`ı stabilita tra i vettori e gli endomorfismi antisimmetrici `e un isomorfismo d’algebre di Lie (si ricordi che. B] = (∗A) × (∗B) (2. • 2. corrispondente all’autovalore nullo.103) ovvero l’uguaglianza equivalente Infatti. Siccome l’aggiunzione `e una corrispondenza biunivoca fra vettori e forme bilineari antisimmetriche. [A. in virt` u delle definizioni sopra date. con a ∈ E3 . la propriet` a anticommutativa. posto ∗a = A e ∗b = B. Per questo motivo gli endomorfismi antisimmetrici sono anche chiamati endomorfismi assiali. Si noti che il vettore a `e un autovettore di ∗a. la propriet` a ciclica e la propriet` a di scambio del prodotto misto:  u × v · w = − v × u · w. Sussiste infatti l’uguaglianza ∗ [A. ∗b] = ∗(a × b) (2. . .4 Endomorfismi assiali Ad ogni vettore a ∈ E3 corrisponde per aggiunzione una forma bilineare antisimmetrica ∗a. propriet` a (VI) al § 2.101). in ogni spazio euclideo gli endomorfismi antisimmetrici formano. un’algebra di Lie). u × v · w = − u × w · v. u) = η(a. Spazi vettoriali con struttura stante l’antisimmetria di η. e quindi endomorfismi antisimmetrici. Interpretata questa come endomorfismo (antisimmetrico). v.100)    u × v · w = u · v × w. (2.101) Infatti. si ha A B(u) = a × (b × u) e quindi.102) [∗a.64 Capitolo 2.101). infatti ∗a(a) = a × a = 0.4. con il commutatore. utilizzando l’identit` a di Jacobi per il doppio prodotto vettoriale. B](u) = a × (b × u) − b × (a × u) = a × (b × u) + b × (u × a) = − u × (a × b) = (a × b) × u = ∗(a × b)(u). stante l’arbitariet` a del vettore u. vale la formula ∗ a(v) = a × v (2. . si ha successivamente ∗a(v) · u = ∗a(v.    u × v · w = v × w · u = w × u · v. segue la (2. cio`e del tipo a×. Imponendo la condizione che il prodotto di tutti e tre gli autovalori sia uguale a 1 = det(Q) si trova che l’unico spettro possibile di una rotazione `e del tipo (1. determinato a meno del segno e di multipli di 2π. v) = (a × b) × u · v =a·ub·v−a·v b·u  = hu.105) Ci` o premesso. v). dalla teoria generale svolta al § 2. b[ i − hv.5 Rotazioni Consideriamo le rotazioni dello spazio E3 . tenuto conto della formula (2. se lo spazio `e strettamente euclideo. . Ricordiamo. Per n = 3 gli autovalori sono radici di un polinomio di terzo grado a coefficienti reali.4. quindi del tipo eiϑ = cos ϑ + i sin ϑ. v) = η(a × b.18 abbiamo definito il prodotto esterno di due covettori.4. come in ogni spazio euclideo.104) Infatti. e−iϑ ). a[ ihv. Il numero ϑ che compare nella (2.1). sono unitari. se escludiamo il caso Q = 1. b[ i = a[ ∧ b[ (u.65 2. (2. il cui spettro `e (1. Lo spazio vettoriale euclideo tridimensionale Osservazione 2. ' $ & % Versore-angolo di una rotazione.4 – Sappiamo che in E3 . Quindi almeno uno di essi `e reale. esiste una corrispondenza biunivoca fra vettori e covettori (§ 2. eiϑ. Al § 1.4. Il legame tra questo prodotto esterno e il prodotto vettoriale `e espresso dall’uguaglianza ∗ (u × v) = u[ ∧ v[ (2.93) sul doppio prodotto vettoriale. u. gli altri due complessi coniugati o reali. prende il nome di angolo della rotazione. che una rotazione `e una isometria con determinante uguale a +1 e che i suoi autovalori. 1). a[ ihu. si ha successivamente: ∗(a × b)(u.105). l’autovalore 1 determina un sottospazio unidimensionale di autovettori K1 ⊂ E3 che chiamiamo asse della rotazione. 1.3. • 2. 5.    0 ≤ φ < 2π.66 Capitolo 2. sono definiti. come segue (si guardi la figura). si vede con l’aiuto della figura che Q11 = Q(c1 ) · c1 = cos ϑ.107) risulta univocamente definita la terna ruotata (si veda anche l’Esercizio 2 seguente). . k). k0 ). Da questa definizione discende che assegnati comunque tre angoli soddisfacenti alle limitazioni (2. detti rispettivamente angolo di nutazione. e cos`ı via. ha la forma seguente:   cos ϑ sin ϑ 0     β  (2. (III) L’angolo di rotazione propria φ `e l’angolo formato da (N . in particolare. tenuto presente che in una base canonica ∗ Qβα = Qαβ = Q(cα ) · cβ . la seconda `e la terna (Q(cα )) = (i0 . j): `e una retta detta linea dei nodi. orientato in maniera tale che per ogni vettore c ortogonale a u il passaggio da c a Q(c) secondo il verso di ϑ sia tale da produrre un “avvitamento” nel verso di u (`e sottintesa la scelta del solito orientamento dello spazio. ψ). j. Si osservi che le coppie (u. j 0 ) e il piano (i. di precessione e soddisfacenti alle limitazioni  0 < θ < π. e la terna ruotata: la prima `e una base canonica (cα ) = (i.106) [Qα] =  − sin ϑ cos ϑ 0  . con u versore di ϑ. nell’ipotesi che k0 = Q(c3 ) sia distinto da k = c3 . N) di versore k. Oltre a queste `e da prendersi in considerazione quella fornita dagli angoli di Eulero (Leonhard Euler. ϑ) e (−u. 1707-1783). π) e (u. ϑ). detta terna fissa. per esempio quella esponenziale e quella quaternionale. −ϑ) d` anno luogo alla stessa rotazione come anche. Questa `e individuata dal versore del prodotto vettoriale k × k0 che denotiamo con N (infatti la retta in questione `e ortogonale sia a k che a k0 ). le coppie (u. ϑ) dove u `e un versore dell’asse e ϑ `e l’angolo della rotazione.3. di rotazione propria. Oltre alla coppia versore-angolo vi sono varie altre rappresentazioni della rotazioni.   0 0 1 Infatti. basata sulla relazione fra una terna ortonormale di vettori.3.107)    0 ≤ ψ < 2π. Q12 = Q(c1 ) · c2 = sin ϑ. Se si sceglie una base canonica (cα ) tale che c3 = u.3 e 2. ϑ) sono versore e angolo della rotazione Q o anche che u `e il versore dell’angolo ϑ. Spazi vettoriali con struttura Si pu` o rappresentare la rotazione Q mediante una coppia (u. (2. Gli angoli di Euler (θ. φ. allora la matrice delle componenti della rotazione Q generata dalla coppia (u. secondo la regola della mano destra). −π). i0 ) di versore k0 e l’angolo di precessione ψ `e l’angolo formato da (i. (I) L’angolo di nutazione θ `e l’angolo compreso tra k e k 0 . Si dice allora che (u. j 0 . gi` a esaminate ai §§ 2. (II) Si consideri l’intersezione fra il piano (i0 . che `e ottenuta scegliendo opportunamente una base canonica. determina solamente sin ϑ e non ϑ. Lo spazio vettoriale euclideo tridimensionale ' $ & % Gli angoli di Euler 67 *** Esempio 2. fissata una delle due possibili scelte del versore u.108). ϑ). e si ricorda la relazione tra le componenti di una forma bilineare antisimmetrica e quelle del vettore aggiunto.2.106).109) .78). Di qui la (2. estrarre qualche altra informazione da Q. ϑ) a partire dalla rotazione Q e.4. La formula (2. per eliminare questa indeterminazione.108) Se infatti si guarda alla matrice (2. il versore u `e un autovettore associato all’autovalore 1.4. almeno quando questa non `e nulla. perch´e si ha sin ϑ u = ∗QA .108). Tuttavia.     2 1 a −a 0 0 0 0 posto A = QA e a = ∗A. Occorre quindi. `e pi` u semplice la sua determinazione attraverso la parte antisimmetrica di Q. data Q. viceversa. Si pu` o per esempio calcolare cos ϑ attraverso la formula (che lasciamo da dimostrare) 1 + 2 cos ϑ = I2 (Q) = tr(Q). (2.1 – Poniamoci il problema di: (I) determinare la coppia (u. quindi determinabile risolvendo un sistema di equazioni lineari. (II) di determinare la rotazione Q a partire dalla coppia (u. (2. si trova l’uguaglianza     0 a3 −a2 0 sin ϑ 0         β 3 1    [Aα] =  −a 0 a  =  − sin ϑ 0 0  . Osserviamo innanzitutto che. data per esempio dalla (2. tr(U 2 ) = −2 kuk. quindi che U 2n+2 = (−1)n U 2 . la rotazione Q = eϑU (2. Infatti. (2. e introdotto l’endomorfismo aggiunto U = ∗u. Il problema inverso (II) pu` o essere risolto con l’uso della rappresentazione esponenziale.109) perch´e implica ∗QA = sin ϑ ∗ U = sin ϑ u. ϑ): Q(v) = cos ϑ v + (1 − cos ϑ) u · v u + sin ϑ u × v. La formula (2. U 2 (v) = u × U (v) = u × (u × v) = u · v u − v.68 Capitolo 2. valendo la formula generale. Si ha allora successivamente: eϑU 1 1 2n 2n P∞ ϑ U + n=0 ϑ2n+1 U 2n+1 2n! (2n + 1)!     P∞ P∞ (−1)n−1 2n (−1)n 2 2n+1 =1+ ϑ U + ϑ U. Spazi vettoriali con struttura Questa ci consente fra l’altro di osservare che l’invariante primo (la traccia) e l’invariante secondo di una rotazione coincidono. • (2. ϑ). U 3 (v) = u × U 2 (v) = − u × v = − U (v). tenuto conto delle espressioni U (v) e U 2 (v) sopra scritte.108) e (2. U 2n+1 = (−1)n U . n=1 n=0 2n! (2n + 1)! = P∞ n=0 vale a dire Q = eϑU = 1 + sin ϑ U + (1 − cos ϑ)U 2 .111). data una qualunque coppia (u.110) `e proprio la rotazione di versore-angolo (u. Per riconoscerlo ominciamo con l’osservare che: U (v) = (∗U ) × v = u × v. (2. la cui verifica `e immediata.111) Questa formula `e in accordo con le precedenti (2.112) che quindi in questo caso produce tr(U 2 ) = −2.113) . e tr(Q) = 3 + (1 − cos ϑ)tr(U 2 ) = 2 cos ϑ + 1. consente anche di esprimere il generico vettore Q(v) mediante la coppia (u. ϑ). φ. [Φρα Θσρ ] =  − sin φ cos φ cos θ cos φ sin θ   0 − sin θ cos θ Moltiplicando questa per la terza si ottiene la (2. φ). Ψ = (k.4. • . Θ = (i.114) si pu` o osservare che la rotazione Q `e composta da tre rotazioni successive Φ.  cos θ (2. 0 − sin θ cos θ   cos ψ sin ψ 0   β  [Ψα] =   − sin ψ cos ψ 0  . [Φα] =  − sin φ cos φ 0   0 0 1   1 0 0   β  [Θα] =   0 cos θ sin θ  . caratterizzate dalle seguenti coppie versore-angolo: Φ = (k. Lo spazio vettoriale euclideo tridimensionale Esempio 2. θ).114).2 – La matrice delle componenti della rotazione Q determinata dagli angoli di Euler (θ. ψ) `e:  cos φ cos ψ − sin φ sin ψ cos θ cos φ sin ψ + sin φ cos ψ cos θ   [Qβα] =  − sin φ sin ψ + cos φ cos ψ cos θ  − sin φ cos ψ − cos φ sin ψ cos θ  sin φ sin θ − cos ψ sin θ sin ψ sin θ    cos φ sin θ  . 0 0 1 Si deve quindi eseguire il prodotto matriciale Qβα = Φρα Θσρ Ψβσ .4. Eseguendo il prodotto (righe per colonne. ψ). Le matrici delle componenti sono rispettivamente:   cos φ sin φ 0   β . secondo le convenzioni adottate) delle prime due matrici si ottiene   cos φ sin φ cos θ sin φ sin θ   .114) Per giungere alla (2.69 2. Ψ. Θ. . 1). Sia v un vettore del genere tempo. 1 Lo spazio iperbolico di dimensione 4 prende il nome di spazio vettoriale di Minkowski (Hermann Minkowski. .5. Questo spazio `e di fondamentale importanza per la teoria della Relativit` a Ristretta.115)  .. posto che la segnatura `e (n − 1. Siccome c0 `e del genere tempo tutti gli altri vettori della base sono del genere spazio. Non pu` o essere v ∈ K ⊥ perch´e v sarebbe anche ortogonale a se stesso. 1864-1909).. in particolare. . 1).5 Capitolo 2. Si pu` o quindi determinare su K ⊥ . Dimostrazione. Ci` o significa (si veda il § 2. una base canonica (cα ).1) che in ogni base canonica (ci ) un vettore ha norma negativa (si dice che `e del genere tempo) e gli altri n − 1 hanno norma positiva (si dicono del genere spazio). Ricordiamo ancora che un vettore ortogonale a se stesso `e detto isotropo o del genere luce. otteniamo una base canonica. Dunque tutti i vettori di K ⊥ sono del genere spazio e questo `e strettamente euclideo. . . dello spazio iperbolico bidimensionale. Ci limitiamo in questo paragrafo ad esaminare alcune propriet` a fondamentali degli spazi iperbolici in generale e. che in una base canonica (ci ) il vettore del genere tempo sia c0 . Conveniamo che gli indici latini varino da 0 a n − 1. altrimenti si violerebbe il teorema di Sylvester.. . Il sottospazio ortogonale ad un vettore del genere tempo `e uno spazio strettamente euclideo (di dimensione n − 1).. che `e di dimensione n − 1. Dunque K ∩ K ⊥ = 0 e il sottospazio K ⊥ `e a metrica non degenere (si veda l’Oss. Spazi vettoriali con struttura Spazi vettoriali iperbolici Uno spazio vettoriale iperbolico `e uno spazio vettoriale pseudoeuclideo (Hn . quindi isotropo.   0 0 .   . 0    0 1 . e che gli indici greci varino quindi da 1 a n − 1. Se consideriamo anche il versore c0 di v. Teorema 2.  . . . n). 2 In maniera analoga si dimostra che Teorema 2.1 – Un vettore (non nullo) ortogonale ad un vettore del genere tempo `e un vettore del genere spazio.70 2.. che i rimanenti vettori del genere spazio siano denotati con (cα ). 2.. Si consideri il sottospazio unidimensionale K generato da v e il suo ortogonale K ⊥ . 0     [gij ] =  (2.5.1. La matrice metrica in una base canonica avr` a pertanto la forma   −1 0 .2 – Il sottospazio ortogonale ad un vettore del genere spazio `e uno spazio iperbolico se n > 2 o del genere tempo se n = 2. . g) di segnatura (n − 1.6).. Si tenga presente che per spazio iperbolico alcuni autori intendono uno spazio di dimensione pari 2n e segnatura (n. Un generico vettore isotropo v 6= 0 pu`o sempre mettersi nella forma v = a(u + c0 ).5. del genere spazio. basta infatti porre u = a1 v − c0 con a = −v · c0 (si osservi che la condizione v · c0 = 0 violerebbe la Proposizione 1). Diciamo che due vettori u. dove u `e un vettore unitario. dove S `e il sottospazio strettamente euclideo ortogonale a K (S = K ⊥ ). v · w < 0 =⇒ u · w < 0. Segue anche che. • Teorema 2. Per dimostrare la propriet` a transitiva dobbiamo dimostrare l’implicazione u · v < 0. Se vi fossero due vettori indipendenti del genere luce. che implica v del genere spazio. Da u = u0 segue che v e v0 sono dipendenti. Spazi vettoriali iperbolici Dal Teorema 2. perch´e `e simmetrico il prodotto scalare. fissato un sottospazio K ⊂ H del genere tempo. La relazione di ortocronismo `e riflessiva perch´e si ha v · v = kvk < 0 per ogni vettore del genere tempo (per definizione). Se v0 = a0 (u0 + c0 ) `e un altro vettore isotropo decomposto allo stesso modo.1 segue che i sottospazi del genere tempo hanno dimensione 1. risulta definita una decomposizione spazio-temporale dello spazio iperbolico H nella somma diretta H = K ⊕ S. 2.6.4 – Due vettori del genere luce e ortogonali sono dipendenti (cio`e paralleli). Definizione 2. 2 Teorema 2.5. risulta K ⊂ K ⊥ . Ma due vettori unitari del genere spazio hanno prodotto scalare uguale a 1 se e solo se sono uguali.3 – Il sottospazio ortogonale ad un vettore (non nullo) del genere luce `e a metrica degenere contenente il vettore stesso. Sia v un vettore isotropo. Quindi K ∩ K ⊥ 6= 0 e il sottospazio K ⊥ `e a metrica degenere. si contrasterebbe con il teorema seguente. Se in esso vi fosse un vettore del genere tempo.5 – La relazione di ortocronismo `e una relazione di equivalenza che divide T in due classi. Tutti i vettori del sottospazio indipendenti da questo sono del genere spazio. (2.71 2.116) . generico vettore unitario del genere tempo. si contrasterebbe con la Proposizione 1. Teorema 2.1 – Denotiamo con T il sottoinsieme dei vettori del genere tempo.1. ortogonale a c0 .5. a conferma della propriet` a generale messa in evidenza nell’Oss. K il sottospazio da esso generato. Dimostrazione. Siccome v `e ortogonale a se stesso per definizione. `e ovviamente simmetrica.5. Dimostrazione. 2 Dal teorema precedente segue che i sottospazi isotropi hanno dimensione 1. v ∈ T sono ortocroni se u · v < 0.5. Dimostrazione. dalla condizione v · v 0 = 0 segue u · u0 − 1 = 0.5. si ha anche n−1 X α=1 uα w α !2 ≤ n−1 X (uα )2 α=1 n−1 X (w α)2 < (u0 w 0 )2 . Le condizioni u ∈ T e w ∈ T sono equivalenti alle disuguaglianze n−1 X α=1 (uα)2 − (u0 )2 < 0. 2 Denotiamo con T + e T − le due classi di equivalenza in cui `e diviso l’insieme T dei vettori del genere tempo. α=1 Abbiamo allora le seguenti implicazioni : (u · v < 0. si scelga una base canonica tale da aversi c0 = v. essi si chiamano rispettivamente futuro e passato. w 0 > 0) =⇒ u0 w 0 > 0 =⇒ u · w < 0. Spazi vettoriali con struttura Per dimostrare che le classi di equivalenza sono due dobbiamo dimostrare l’mplicazione u · v > 0. Il cono di luce `e diviso in due falde. cio`e che x · x = 0. valida nello spazio strettamente euclideo ortogonale a c0 e generato dai vettori (cα). v · w < 0) ⇐⇒ (u0 > 0. v·w>0 =⇒ u · w < 0. Se infatti denotiamo con x = xi ci il generico vettore dello spazio e se imponiamo che esso sia isotropo. Quindi anche l’implicazione (2. Quindi l’implicazione (2.72 Capitolo 2. u · v = g00 u0 = − u0 . α=1 Per la disuguaglianza di Schwarz. w · v = − w0 . v · w > 0) ⇐⇒ (u0 < 0. . troviamo la condizione n−1 X α=1 (xα)2 − (x0 )2 = 0. (2. n−1 X (w α )2 − (w 0 )2 < 0.118) Questa `e l’equazione di un cono di centro l’origine (vettore nullo). L+ e L− .116) `e dimostrata. Analogamente si ha: (u · v > 0. supposto senza ledere la generalit` a che il vettore v sia unitario. i quali stanno all’interno di ciascuna falda (vedi figura). Si ha allora: u·w= n−1 X α=1 uα w α − u0 w 0 . (2.117) Per questo scopo. Denotiamo con L l’insieme dei vettori del genere luce. Essi formano il cosiddetto cono di luce. w 0 < 0) =⇒ u0 w 0 > 0 =⇒ u · w < 0. ciascuna delle quali separa dai vettori del genere spazio i vettori delle classi T + e T − rispettivamente.117) `e dimostrata. 2 Osservazione 2. Inoltre: u · (u + v) = u · u + u · v < 0. I vettori unitari del genere tempo sono invece caratterizzati dall’equazione n−1 X (xα )2 − (x0 )2 = −1.1 – (I) Si verifichi che nello spazio End(E) degli endomorfismi sopra uno spazio vettoriale E si definisce un prodotto scalare ponendo A · B = tr(AB). quindi la somma u + v `e del genere tempo.120) α=1 Si tratta di un iperboloide a due falde.119) Si tratta di un iperboloide a una falda. Spazi vettoriali iperbolici ' $ & % Il cono di luce. (2. v ∈ T + . Di qui segue ku + vk = kuk + kvk + 2 u · v < 0. 73 I vettori unitari del genere spazio sono caratterizzati dall’equazione n−1 X α=1 (xα)2 − (x0 )2 = 1. di T − ) `e ancora un vettore + − di T (risp.5. Siano u.121) .5. di T ). Dunque u e la somma u + v sono ortocroni. Dimostrazione. Va inoltre tenuto presente che Teorema 2. Ci`o significa che kuk < 0. (2.5. u · v < 0. kvk < 0.2.6 – La somma di due o pi` u vettori di T + (risp. (2. Si consideri quindi uno dei due vettori v unitari e ortogonali a u. Concludiamo che. `e la rappresentazione intuitiva dello spazio bidimensionale strettamente euclideo. quindi giacente su una delle due bisettrici (asintoti). con c0 del genere tempo. e descrivono quindi un’iperbole di vertici i punti (±1. fissato un punto corrispondente al vettore nullo. il caso pi` u semplice dello spazio iperbolico bidimensionale H2 . la segnatura del tensore metrico cos`ı definito `e (3. (IV) Si estendano queste considerazioni al caso dello spazio Hn2 = End(En ). nel caso n = 2. nella rappresentazione euclidea.1). ha ora equazione (x1 )2 − (x0 )2 = 0. Fissata una base canonica (c0 . i vettori unitari del genere tempo sono caratterizzati dall’equazione (x0 )2 − (x1 )2 = 1. osserviamo innanzitutto che il cono di luce. c1 ). ±1) con gli stessi asintoti. due vettori del piano iperbolico non isotropi. Lo spazio H4 = End(E2 ) degli endomorfismi su di uno spazio bidimensionale `e quindi uno spazio di Minkowski. 0) e asintoti le rette isotrope. dobbiamo tener presente che il foglio su cui riportiamo la figura che segue. unitari e ortogonali fra loro. . Allora ku − vk = kuk + kvk + 2 u · v = −1 + 1 + 0 = 0. e descrivono pertanto l’iperbole di vertici i punti (0. Cos`ı. non di quello iperbolico. Spazi vettoriali con struttura (II) Si dimostri che. contrariamente al nostro senso euclideo. unitari e ortogonali. Volendo raffigurare su di un piano i vettori (c0 . sappiamo che questi sono del genere spazio. Ci` o significa che il vettore differenza u − v `e isotropo. (III) Si dimostri che l’assegnazione di un tensore metrico definito positivo su E2 implica la definizione di una decomposizione spazio-temporale di H4 . . Se ora prendiamo un vettore u unitario del genere tempo. che sono le bisettrici dei quadranti individuati dai vettori della base. • 2 2 Esaminiamo ora. la retta descritta dai vettori ortogonali a questo ha equazione u1 x1 − u0 x0 = 0. i vettori che si trovano sulle bisettrici hanno lunghezza nulla. per meglio comprendere la struttura di uno spazio iperbolico. c1 ). Per esempio. dimostrando che la segnatura del prodotto scalare definito dalla (2. stanno in posizione simmetrica rispetto ad una delle due bisettrici (vedi figura).121) `e   n(n + 1) n(n − 1) .74 Capitolo 2. e si riduce pertanto alle rette isotrope di equazione x1 − x0 = 0 e x1 + x0 = 0. insieme dei vettori isotropi. mentre i vettori unitari del genere spazio sono caratterizzati dall’equazione (x1 )2 − (x0 )2 = 1. Spazi vettoriali iperbolici ' $ & % Ortogonalit` a dei vettori nel piano iperbolico. dalle condizioni Q(ci ) · Q(cj ) = ci · cj e det(Qji ) = 1. che per un “osservatore iperbolico” la coppia (u. 1). Ci limitiamo a quelle di determinante +1. g01 = g10 = 0. d2 − c2 = 1. b = sinh χ. Dalla prima segue a2 ≥ 1.5. Q01 = Q10 . " a b c d # . Dalle ultime due si trae a = d e b = c. Q(c1 ) = c c0 + d c1 . guardando dinuovo la figura. seguono le uguaglianze: a2 − b2 = 1. 75 Si osservi ancora. Siamo quindi condotti ad esaminare il gruppo delle isometrie sullo spazio iperbolico bidimensionale. Q11 = Q11 . c1 ). Possiamo allora porre a = cosh χ. bd − ac = 0. ad − bc = 1.122) . caratteristiche di una rotazione. g11 = 1. risulta: Posto inoltre Q00 = − Q00 . cio`e mediante un elemento di SO(1.2. (2. v) `e una base canonica. Q(c0 ) = a c0 + b c1 . essendo nel caso presente g00 = −1. cio`e alle rotazioni. ottenibile da questa mediante una rotazione. cio`e [Qji ] = Q10 = − Q01 . Pertanto. Ricordiamo inanzitutto che le componenti Qji di un qualunque endomorfismo Q sono legate alle componenti (Qij ) della forma bilineare corrispondente dalle equazioni Qij = gjk Qki . quindi del tutto equivalente alla coppia (c0 . 124) sinh χ cosh χ Nel secondo caso si ha una rotazione non ortocrona e la matrice corrispondente `e: " # − cosh χ sinh χ j [Qi ] = .124) utilizzando le propriet` a elementari delle funzioni trigonometriche iperboliche.124) diventa allora " # 1 β 1 [Qji ] = p . cosh χ variabile nell’intervallo aperto (−1. La matrice delle componenti di una rotazione ortocrona ha quindi la forma: # " cosh χ sinh χ j [Qi ] = . Spazi vettoriali con struttura oppure a = − cosh χ. conservante cio`e la classe di ogni vettore del genere tempo. La composizione di due rotazioni di pseudoangolo χ1 e χ2 `e la rotazione di pseudoangolo χ1 + χ2 : lo si desume dalla (2. (2.76 Capitolo 2. b = sinh χ. quindi una rotazione ortocrona.123) Poich´e a = − Q(c0 ) · c0 . La (2. β = tanh χ = sinh χ . Sempre in base a tali propriet` a. 1 − β2 β 1 (2.126) . Esso pu` o variare da −∞ a +∞. nel primo caso abbiamo a > 0. ricoprendo tutte le rotazioni ortocrone. Per χ = 0 si ha ovviamente Q = 1. 1).125) sinh χ − cosh χ Il parametro χ che interviene in queste due rappresentazioni prende il nome di pseudoangolo della rotazione. si osserva che si pu` o scegliere come parametro rappresentativo la tangente iperbolica dello pseudoangolo. (2. (2.
Copyright © 2024 DOKUMEN.SITE Inc.