,
Capitolo 1
operazioni tra mabnci
Si dà innanzitutto il nome di grandezza a tutto cib che è capace
di accrescimento o rirnpicciolirnento, o a cui si pub aggiungere, o
da cui si pub togliere, ancora qualcosa.
Leonhard Euler
.
Le matrici svc~lgonoun molo centrale in questo libro: esse eostituiscono una
parte importante della teoria e molti esempi concreti sono basati su di esse.
Pertanto i3 indispeisabile che lo studente acquisti un po' di scioltezza nel calcolo
matriciale. Poiché le matrici pervadono molti settori della matematica, le tecniche
di cui qui avremo bisogno saranno certamente utili in altri casi.
I concetti per i quali occorrerà fare un po' di pratica sono quelli di moltiplicazione tra matrici e di determinante.
Siano m , n interi positivi. Una matrice m x n è una collezione di m n numeri
disposti in una tabella rettangolare:
n colonne
Per esempio,
[: :]
è una matrice 2 x 3 .
I numeri che compaiono in una matrice sono chiamati gli elementi della mtrice
e sono denotati con aij, dove i, j sono indici (interi) con l 5 i 5 m e l 1 j I
n.
Gli indici i,j vengono chiamati, rispettivamente, indice di riga e indice di colonna.
Così a, è l'elemento che compare nella i-esima riga e nella j-esima colonna della
dove bij = caij per ogni i,j. Così
I numeri saranno chiamati anche scalari.
Nell'esenipio sopra npsrtatrs, air = 2, a13= O e a23 = 5.
Denoteremo di solito una matrice con A oppure con (a,).
Una matrice I x n prende il nome di vettore riga di dimensione n. Se m = l,
l'iridi= i viene omesso e un vettore riga si scrive nella forma:
(1.2)
A=lai
a4~]
Più complicata è la nozione di moltiplicazione tra matrici. Il primo caso da
imparare è quello del prodotto AB di un vettore riga A (1.2) per un vettore
colonna B (1.3), il quale è definito se entrambi hanno la stessa dimensione, ossia
m = n. In tal caso il prodotto AB è la matrice 1 x l, ossia lo scalare:
oppure A=(al ,...,a,),
dove le virgole sono facoltative. Analogamente, una matrice m x l prende il nome
di dimensione m:
Una m h i c e I x l [a]contiene un solo numero e pertanto non distingueremo una
mbnm siffatta dal suo elemento.
(1.4)
L'addizione tra matrici
dove sii = a,
l'addizione tra vettori:
+ b, per ogni i,j .
La moltiplicazione scaiare di una matrice per un numero si definisce
come per i vettori. I1 risultato della moltiplicazione di un numero C per
una matrice (aij) è un'altra matrice:
c(aij) = (bij),
I
L'utilità di questa definizione diventa chiara, se consideriamo A e B come vettori
che rappresentano quantità contrassegnate dia indici. Per esempio, consideriamo una
barra di cioccolato farcita contenente m ingredienti. Denotiamo con ai il numero
di grammi dell'injgrediente i-esimo per barra e con bi il costo dell'ingrediente
i-esimo al grammo. Allora il prodotto di matrici Al3 = C fornisce il costo di una
tavoletta:
Così
a di due matrici A, B è definita soltanto se esse sono entrambe
dello stesso tipo. ossia se sono matrici m x n con gli stessi m, n, rispettivamente.
(1.5)
(Questo prodotto è chiamato spesso il "prodotto scalare" dei due vettori.) Così
D'altra parte, il fatto di considerare ciò come il prodotto di una riga per una
colonna i5 una scelta arbitraria.
In generale, il prodotto di due matrici A e B è definito se il numero delle
colonne di A è ipguale al numero delle righe di B, ossia se' A è una matrice
t x m e B è una matrice m x n. In tal caso, il prodotto è una matrice t x n. In
simboli, (l x m). ( m x n) = (l x n). Gli elementi della matrice prodotto si calcolano
moltiplicando tutte le righe di A per tutte le colonne di B, usando la regola (1.6)
sopra descritta. Così, se denotiamo il prodotto A B con P, si ha:
Esso è il prodotto della i-esima riga di A per la j-esima colonna di B.
_ A -
Così l'equazione matriciale
.
.
S
.
Pij
'.
rappresenta il seguente &te&&,
due &azioni
in tre incognite:
Per esempio,
La relazione (1.8) fornisce una soluzione: x , = 1, x2 = 4,23 = 3.
La formula (1.7) che definisce la matrice prodotto può essere scritta anche in
una delle due forme abbreviate:
Questa definizione di moltiplicazione tra matrici fornisce di fatto uno strumento
di calcolo moIto appropriato.
Ritornando al1'esempio precedente, supponiamo di avere i? barre di cioccolato.
Allora possiamo formare una matrice A la cui riga i-esima misura gli ingredienti
della barra i-esima. Se vogliamo calcolare, anno per anno, i costi delle barre
riferiti a n anni assegnati, possiamo formare una matrice B la cui colonna j-esima
misura il costo degli ingredienti nell'anno j-esimo. La matrice prodotto A B = P
fornisce i costi delle barre: p, =costo della barra i-esima nell'anno j-esimo.
La notazione matriciale fu introdotta nel secolo XIX per rappresentare in forma
concisa un sistema di equazioni lineari. Il sistema di equazioni
I
l
'
Le riotazioni principali di cui disponiamo per trattare insiemi di numeri sono la
notazione di somma C sopra usata e la notazione matriciale. La notazione C è
in effetti più versatile, ma, dato che la notazione matriciale è molto pih compatta,
useremo questa quando sarà possibile. Uno dei problemi che affronteremo nei
capitolii successivi sarà quello di tradurre strutture matematiche complicate in
notazia~nematriciale allo scopo di lavorare comodamente con esse.
Le operazioni tra matrici soddisfano a varie identità, quali la proprietà distributiva
e la proprietà associativa
(l. l l)
può essere scritto, con la notazione matriciale, nella forma
(1.9)
AX=B,
dove A denota la matrice dei coefficienti ( a i j ) , X e B sono vettori colonna e AX
è la matrice prodotto
(AB)C = A(BC).
Tali leggi valgono ogni volta che le matrici in questione hanno una forma opportuna, in modo tale che i prodotti siano definiti. Per esempio, per la proprieth
associativa, le matrici A, B , C dovrebbero essere, rispettivamente, di tipo t x n,
m x n, n x p, con t, m,n,p interi. Poiché i due prodotti (1.1 1) sono uguali, le parentesi non sono necessarie, e pertanto li denoteremo con ABC. Il triplo prodotto
ABC è allora una matrice t x p. Per esempio, i due modi di calcolare il prodotto
sono
l
è chiamata la matrice identica n x n. Essa si comporta come il numero 1 nella
moltiplicazione: se A è una matrice m x n, allora
.
abbreviate
.
per la matrice I,:
Vi sono alcune ~descezioni
. . ... ._
La moltiplicazione per uno scalare è compatibile con la moltiplicazione tra
matrici, nel senso che:
.-
IR cihosbrazioni di tali identiià sono semplici e
Invece ka proprietà commutativa non vale per Ia moltiplicazione tra matrici,
ossia in generale si ha:
(1.13)
.
. ..
-
I
Spesso per indicare che un'intera regione in una matrice è costituita da zeri, la
si lascia vuota oppure si scrive in essa un solo 0.
Useremo il simbolo + per indicare un elemento generico di una matrice. Così
AB f BA.
Enfmi, se A è una matrice t x m e B è una matrice m x t, cosicché A B e BA
be definite, allora AB è una matrice 8 x l mentre B A è una matrice
m x m. Tuttavia, anche nel caso in cui entrambe le matrici sono quadrate, diciamo
di tipo m x m, i due prodotti, in generale; sono diversi tra loro. ]Per esempio,
Poiché la moltiplicazione tra matrici non è comrnutativa, occorre: molta attenzione nello studio delle equazioni matriciali. Possiamo moltiplicare ambo i membri
di un9quazione B = C a sinistra per una matrice A e concludere che A B = AC,
perché i prodotti siano definiti. Allo stesso modo, se i prodotti sono definiti,
pessimo mncludere che B A = CA. Tuttavia non possiamo dedurre da B = C che
AB = GA!
Una matrice avente tutti gli elementi uguali a zero è detta matrice nulla e
denotata con 0, qualunque sia la sua dimensione. Talvolta & preferibile usare la
notazione O,, ,
.
Gli elementi sii di una matrice A sono chiamati gli elementi diagonali di A e
una matrice A è detta matrice diagonale se i suoi (eventuali) elementi non nulli
sono elementi diagonali, ossia, se ai,= O per ogni i # j.
h matrice diagonale n x n i cui elementi diagonali sono tutti uguali a 1:
indica una matrice quadrata i cui elementi al di sotto della diagonale sono nulli,
mentre gli altsi possono essere qualunque. Una matrice siffatta è detta matrice
triangolare .superiore.
Sia A una matrice quadrata n x n. Se esiste una matrice B tale che
allora B è un'inversa di A e si denota con A- ':
Se A possiede un'inversa, allora A è una matrice invertibile. Per esempio, la
matrice A =
[i li]
è invertibile La sua inversa è A-
vede calcolando i, prodotti AA-
-
[-:i ]
come si
' e A- ' A . Altri due esempi sono:
Vedremo in seguito che A è invertibile se esiste una matrice B tale che valga
l'una o l'altra delle due relazioni A B = I,, DA = In e che allora B è l'inversa di
A [cfr. olhe, (2.2311. Tuttavia, poiché la moltiplicazione tra matrici non è commutativa, tale proprietà non è ovvia. Essa non vale per matrici che non siano quadrate.
c+erazronL
Per esempio, sia A = [ l 21 e B =
[A].
tra m t r i c l
Allora AB = [ I ] = 11,ma B A =
I Cap. i
[A t]
$h.
D'altra parte, un'inversa, se esiste, è unica. In altre parole, può esistere soltanto
un'inversa. Siano infatti B , B' due matrici soddisfacenti alle relazioni (1.1.5)rispetto
a una stessa matrice A. In realtà, occorre sapere soltanto che AB = 1, ( B
è un'inversa destra) e che B'A = 1, (B' è un'inversa sinistra). Per la legge
associativa, si ha: B'(AB) = (B'A)B. Pertanto
dunque B' = B'.
m
(1.i 8) PROFOSIZIONE Siano A, matrici n x n. Se esse sono enbrarrnbe invertibili, anche il loro prodorto AB è invertibile e si ha
Pi& in generale, se A l , . . . , A, sono matrici invertibili, anche la matrice prodotto
Al - . Am è invertibile e la sua inversa è A,'
- A l l.
è invertibile e la sua inversa è
Dunque l'enunciato è vero per m = k + l , il che completa la dimostrazione per
induzione. i
Vedremo che la maggior parte delle matrici quadrate sono invertibili, anche se
ciò non è chiaro dalla definizione di moltiplicazione tra matrici. Tuttavia calcolare
esplicitamente l'inversa di una matrice non è un problema semplice, se la matrice
è grandie.
L'insieme di tutte le matrici n x n invertibili è detto gruppo lineare generale
di dime:nsione n e si denota con GL,. I gruppi lineari generali saranno tra gli
esempi più importanti quando studieremo la nozione fondamentale di gruppo nel
prossimo capitolo.
Talv~~lta
la moltiplicazione tra matrici può essere semplificata con qualche
artificiol.Uno è la moltiplicazione per blocchi. Siano M , M' matrici m x n e n x p
e sia r un intero minore di n. Possiamo scomporre le due matrici in blocchi nel
modo seguente:
dove A ha r colonne e A' ha r righe. Allora la matrice prodotto MM' può essere
calcolata come segue:
Dimostrazione. Supponiamo che A, L3 siano invertibili. Allora tre~ifichiamoche
B-1A-l è 1' inversa di AB:
Tale s(;omposizione del prodotto segue direttamente dalla definizione di moltiplicazione e pub facilitare i calcoli. Per esempio:
e allo stesso modo
L'ultima parte dell'enunciato si dimostra per induzione su m [cfr. app. (2.3)]. Per
m = l , l'enunciato afferma che, se A, è invertibile, allora A; è l'invlersa di Al,
che è ovvio. Supponiamo poi che I'enunciato sia vero per m = k e verifichiamolo
per m = k+ 1. Siano allora A i , . . . ,AI+, matrici n x 72 invertibili e denotiamo con P
il prodotto Al . - - A k delle prime k matrici. Per l'ipotesi induttiva, P è invertibile e
la sua inversa è A i i . - - A; '. D'altra parte, Ak+l è invertibile. Pertanto, per quanto
dimostrato sopra per due matrici invertibili, la matrice prodotto
'
Si noti che la formula (1.19) è formalmente identica alla regola (1.6) per
rnoltipllicare un vettore riga per un vettore colonna.
Possiamo moltiplicare anche matrici divise in piu blocchi. Per i nostri scopi,
una scomposizione in quattro blocchi sarà la piu utile. In tal caso la regola per
la moltiplicazione per blocchi è proprio quella definita per la moltiplicazione tra
matrici 2 x 2. Poniamo T i-5: = n e k + i! = m. Supponiamo di scomporre una
matrice M m x n e una matrice M' n x p in sottomatrici
Operazioni fra matrici
I
Cap. /
dove il numero delle colonne di A è uguale al numero delle righe di A'. Allora
la regola per la moltiplicazione per blocchi è:
'La moltiplicazione a sinistra per A sui vettori colonna può essere' interpretata
come una funzioncv dallo spazio dei vettori colonna X di dimensione n nello
spaiio dei vettori colonna Y di dimensione m, oppure come una collezione di m
funzioni di n variabili:
Essa è detta trasfor@?ione -liiedre,: poiché le funzioni sono lineari e omogenee.
(Una funzione lineare di un insieme di variabili ui, . . . ,uk è una funzione della
forma ai u1 + - - - + a,kuk+ C, dove a l , . . . ,ak ,C sono scalari. Una 'funzione siffatta si
dice lineare omogenea se il termine costailte C è zero.)
Per esempio,
1;
P
~ [ nquivsta, prodotto, il blocco in alto a sinistra è [ l O]
e teosi via.
1: :I
+rsiw 11 = l 2
Una rappresentazione grafica dell'azione della matrice 2 x 2
qui sotto. Essa manda il piano in se stesso:
T
6 riportata
si,
Anche questa regola può essere verificata
a partire dalla definizione
di moltiplicazione tra mafrici. In generale, la
ne per blocchi può essere
usata ogni volta che due matrici sono scomposte in sottomatrici in modo tale che
i prodoai che occorre considerare siano definiti.
Oltre a facilitare i calcoli, la moltiplicazione per blocchi è uno strumento utile
proprietà lativ ve alle matrici, per induzione.
Sia A = ( a i j ) una maitrace m x n e consideriamo una matrice variabile n x p,
diciamo X = ( a i j ) . Allora l'equazione rnatriciale
definisce la matrice m x p Y = (y),
moltiplicau'one Q sinistra per A:
Ritornando all'azione di A su una matrice X di tipo n xp, possiamo interpretare
il fatto che A agisce allo stesso modo su ciascuna colonna di X nel modo seguente.
Denotiamo con & la i-esima riga di Y , considerata come un vettore riga:
come funzione di X. Tale aperazione è detta
Si noti che nella formula (2.2) I'elemento y, dipende soltanto da zl j , . .. ,x n j ,
ossia ddla j-esima colonna di X e dalla i-esima riga della matrice A. Dunque A
opera separatamente su ciascuna colonna di X e possiamo capire il modo in cui:
A agisce, considerando la sua azione su un vettore colonna X :
Usando la notazione vettoriale, possiamo calcolare
mediante le righe X j di X :
Si tratta precisamente di una riformulazione di (2.2) e di un altro esempio di
moltiplicazione per blocchi. Per esempio, l'ultima riga del prodotto
può essere calcolata come
In questo caso, gli elementi diagonali sii e ajj di I sono uguali a zero, mentre
gli elementi aij e aji sono uguali a 1. (La formula precedente, espressa mediante
le unità matriciali, è piuttosto brutta e pertanto sarà poco usata.)
Se A è una matrice quadrata, si parla spesso della moltiplicazione a sinistra
per A come di una operazione sulle righe.
Le matrici più semplici diverse dalla matrice nulla sono le unit& matriciali,
che denotiamo con eij:
i
Tale matrice e,, ha tutti gli elementi nulli tranne l'elemento di indici i,j che è
uguale a 1. (Anche se di solito le matrici vengono denotate con lettere: maiuscole,
tuttavia per le unità matriciali si usano per tradizione le lettere minuscole.) Le
unità matriciali sono utili poiché ogni matrice A = (aij) può essere scritta come
una somma del tipo:
Gli indici i,j sotto il simbolo C indicano che la somma è estesa a tutti i valori
di i e a tutti i valori di j. Per esempio:
In questo caso, un solo elemento diagonale della matrice identica è sostituito da
un numero C diverso da zero.
]Le matrici elementari 2 x 2 sono
,
dove, come sopra, a è arbitrario e C è un qualunque numero diverso da zero.
]Le matrici elementari E agiscono su una matrice X nel modo seguente:
(2.7)
Una somma siffatta è chiamata combinazione lineare delle matrici e,.
Ee unità matriciali sono utili per lo studio dell'addizione di matrici e della
moltiplicazione per uno scalare. Tuttavia, nel caso della moltiplicazione tra matrici,
sono pii3 utili alcune matrici quadrate chiamate matrici elementari. Ve ne sono di
tre tipi
Per ottenere la matrice EX, occorre:
Tipo (i): Sostituire la i-esima riga Xi con Xi +aXj, oppure aggiungere
a . X alla riga Xi;
Tipo (ii): Scumbiare tra loro le righe Xi e X j ;
Tipo (iii): Moltiplicare la riga Xi per uno scalare non nullo c
Queste operazioni sono chiamate operazioni elementari sulle righe. Dunque la
moltiplicazione per una matrice elementare è un'operazione elementare sulle righe.
Tali regole di moltiplicazione vanno verificate con cura.
Una matrice siffatta ha tutti gli elementi diagonali uguali a 1 e uin sollo elemento
diverso da zero al di fuori della diagonale.
(2.8) LEMMA Le matrici elementari sono invertibili e le loro inverse sono
anch 'esse matrici elementari.
La dirnoskazione è semplicemente un calcolo. L'inversa di una matrice elemen-
tare è la matrice corrispondente all'operazione inversa sulle righe. Se E = I + ae,
è clel tipo (i), allora E- l = I - aeij (basta "sottrarre aXj dalla riga Xi"). Se E
'
= E. Infine, se E è del tipo (iii), allora E- l è dello
stesso tipo, con C-. nella stessa posizione occupata da c in E (basta "moltiplicare
la ;riga Xi per C--l"). B
è cIe1 tipo (ii), allora E-
'
Studianno ora l'effetto di operazioni elementari sulle righe (2.7) su una matrice
A, al fine di ottenere una matrice pili semplice A':
-
di operazioni
A successione
4
...
A'.
Poiché ogni operazione elementare sulle ,righe è ottenuta mediante la rnoltip1ic;izione per una matrice elementare, possiamo esprimere il risultato di una successione di opemioni siRatte mediante il prodotto per una successione EI,
. . . , Ek (ti
matrici elemenitahi:
Tale pmdimenta è chiamata riduzione per righe oppure eliminazione dì Gaus~:.
Per esempio, possiamo semplificare la matrice
il risultato di succressive operazioni sulle righe. L'osservazione fondamentale è la
seguente:
(2.12) PROPOSIZIONE Le soluzioni del sistema A'X = B' coincidono con le
soluzioni del sistema A X = B.
Dimostrazione. Poiché M' è ottenuta mediante una successione di operazioni
elementari sulle righe, si ha:
Poniamo P = E r . - E,. Tale matrice è invertibile, in virth del lemma (2.8) e della
proposizione (1.18). Inoltre,
M' = [A' I B'] = [PA I PB].
con operazioni elementari del primo tipo per eliminare quanti più elementi possi-bile:
Ora, se X i? una soluzione del sistema di partenza A X = B, si ha: PAX = PB,
ossia A'X = B'. Dunque X è anche una soluzione del nuovo sistema. Viceversa,
se A'x = B', allora A X = P-" A'X = P- B' = B, sicché X è anche una soluzione
del sistema A X = B. i
'
Per esempio, consideriamo il sistema:
La riduzione per righe è un metodo utile per risolvere i sistemi di equazioni
l i n e . Sia dato un sistema di equazioni lineari in n incognite, diciamo AX = B
m e in (N),essendo A una matrice m x n, X un vettore colonna costituito da
incognite e B un vettore colonna assegnato. Per risolvere tale sistema, consideirimo
la matrice a blocchi m x (n+ 1)
La sua matrice completa è la matrice M considerata sopra (2.10); quindi la
riduzione per righe di tale matrice mostra che il sistema di equazioni assegnato è
equivalente ai sistema:
Possiamo ricavare immediatamente le soluzioni di questo sistema: basta scegliere
un valore arbitrario per 2 3 e poi risolvere il sistema nelle variabili z.1, xz e x4. -La
soluzione generale del sistema (2.13) può essere scritta pertanto nella forma
ed effemiamo operazioni sulle righe per semplificare M. Si noti che E1M =
= [EA 1 EB].Sia
dove
c3
è un numero arbitrario.
."
0,veru~icr.l cru rrilfrici
I
Cap.
1
Ritorniamo ora alla riduzione per righe di una matrice arrbilraria. Non è difficile
vedere che, mediante una successione di operazioni sulle righe, ogni matrice A
può essere ridotta ad una matrice della forma:
la forma a blocchi:
.
.
.
che possiamo scrivere come
dove * denota un numero qualsiasi e lo spazio vuoto è costituito da zeri. Essa è
chiamata una matrice a scala per righe. Per esempio
?i una matrice a scala per righe. Tale risulta la forma finale deliii riduzione della
matrice (2.10). La definizione di matrice a scala per righe, o più semplicemente
di matrice a scala, è la seguente:
(2.15)
(a) Il primo elemento non nullo in ciascuna riga è 1 . Tale elemento è
chiamato pivot.
(b)Il primo elemento non nullo della (i + 1)-esinw riga si trova alla
destra del primo elemento non nullo della i-esima riga.
= A'.
A questo punto si può operare su D (che è piu piccola di A) così come si è
fatto su A, e andare avanti così. Formalmente, stiamo applicando il principio di
induzione completa [cfr. app. (2.6)j sul numero di righe della matrice. Per ipotesi
induttiva possiamo suppone che ogni matrice avente meno righe di A sia riducibile
alla forma a scala per righe; quindi, in particolare, la matrice D pub essere ridotta
ad una tale matrice, diciamo D". Le operazioni sulle righe che portano D in D''
noii alterano gli albi blocchi che costituiscono A'. Quindi A' pub essere ridotta
alla matrice
che soddisfa le proprietà 2.15(a) e (b). Osserviamo ora che gli elementi di B d
di sopra dei pivot di D'' possono essere eliminati, e concludiamo la riduzione di
A alla forma a scala per righe. a
Si può dimostrare che la matrice a scala per righe ottenuta a partire da una
maitrice assegnata A mediante riduzione per righe 1: unica, ossia non dipende dalla
particolare sequenza di operazioni. Tuttavia, questo fatto non è molto importante,
sicché ne ometteremo la dimostrazione.
Se A' è ridotta alla forma a scala per righe, possiamo risolirere un sistema di
equazioni A'X = B' immediatamente. Per esempio, supponiamo che
(C) Gli elementi al di sopra di un pivor sono nulli.
Per effettuare una riduzione per righe, occorre svolgere le seguenti operazioni:
Trovare la prima colonna che contiene un elemento non nullo (se ciò non è
possibile, allora A = O e O è una matrice a scala per righe); scambiare le righe usando un'operazione elementare del tipo (ii), portando un elemento non
nullo nella prima riga; normalizzare tale elemento tmfonnandolo in 1, usando
un'operazione del tipo (iii); eliminare gli altri elementi nella sua colonna mediante
una successione di operazioni del tipo (i). I1 risultato finale sarà una matrice avente
I1 sistema A"
D"altra parte,
= B' non ammette soluzioni, poiché la terza equazione é O = 1.
I
Gperudioni fru
o
rrrurtt~r
I
t~tr,,
,
ette solluzioni. Scegliendo arbitrariamente X Z , Xpossiamo
~,
risolvere la prima
equazione nell'incognita x, e la seconda nell'incognita 2 3 . Questo è il procedinnentol
che abbiamo usato per risolvere il sistema (2.13).
La regola generale è data dalla:
(2.16) PROPOSIZIONESia M' = [A' I B'] una matrice a scala per righe. Alloru~
il sistenua di equazioni A'X = B' amnette soluzioni se e soltanto se l'ultima
c o b m B' non contiene pivot. In tal caso, può essere assegnato un valonl
arbitrario all'incognita xi, se la colonna i-esima non contiene pivot. u
È chiaro che ogni sistema lineare omogeneo AX = 10 ammette la soluzione:
banale X = O. Tuttavia, considerando ancora la forma a scala per righe, lioqq'
,,iamal
concludere che, se vi sono più incognite che equazioni, allora il sistema omogeneo!
A X = O ammette una soluzione non banale:
(2.17) COROLLARIOOgni sistema A X = O di m equazioni lineari omogenee
in n incognite, con m < n, ammette una soluzione X in cui almeno un elemento~
si è diverso da zero.
Infatti, sia A'X = O il sistema associato alla matrice a scala per righe A' e sia
r il numero dei pivot di A', sicché T m. Ailora, dalla proposizione (2.16) segue
<
ambo i membri di questa equazione a sinistra per E; ' . .. E i ', si ottiene A =
= E; . . . E; l. Poiché l'inversa di una matrice elementare è una matrice elementare,
- ciò prova che A è un prodotto di matrici elementari. Inoltre, poiché un prodotto
di matrici elementari è invertibile, (b) implica (C). Se A è invertibile, possiamo
moltiplicare ambo i membri dell'equazione matriciale AX = O per A- e ottenere
così X = O. Dunque. il sis8ma di. equazioni omogenee A X = O ammette soltanto
la soluzione banale. Ciò prova c. (C) implica (d).
Per dimostrare l'ultima implicazione, ossia (d) =+ (a), considerimo una matrice
quadrata a scala per righe M. Notiamo la seguente dicotoniia:
'
'
(2.19)
Sia M una matrice quadrata a scala per righe. Allora, o h4 è la matrice
identica, oppure la sua ultima riga è nulla.
Ciò si vede facilmente (cfr. (2.15)).
Supponiamo che la proprietà (a) non valga per una data matrice A. Allora A può
essere ridotta, mediante operazioni sulle righe, ad una matrice A' avente l'ultima
riga nulla. In tal caso, il sistema lineare A'X = O contiene al più n - 1 equazioni
non banali e pertanto, in virtù del coroilaiio (2.17), ammette una soluzione non
banale. Poiché il sistema A X = O è equivalente al sistema A'x = 0, anch'esso
ammette una soluzione non banale. Ne segue che, se (a) non vale, neppure (d)
vale; dunque (d) implica (a). Ciò completa la dimostrazione della proposizione
(2.18).
che possiamo assegnare valori arbitrari a n - T incognite xi. o
Utilizzeremo ora la riduzione per righe per caratterizzare le matrici quadrate
invertibili.
(2.18) PROPOSEIONE Sia A una matrice quadrata. Le seguenti cod,izionr'
sono tra loro equivalenti:
(a) A può essere ridotta alla matrice identica mediante una successione di operazioni elementari sulle righe.
(b) A è un prodotto di matrici elementari.
(2.20) COROLLARIOSe una matrice quadrata A contiene una riga nulla, A
non è invertibile. a
La riduzione per righe fornisce un metodo per calcolare l'inversa di una matrice
invertibile A. In pratica, si riduce A all'identità mediante operazioni sulle righe:
come sopra; moltiplicando poi ambo i membri di tale equazione a destra per Asi ha:
l,
(C) A è invertibile.
(d) 61 sistema di equazioni lineuri omogenee A X = O ammette soltanto la soluzione
banale X = O.
Dimostrazia~le. Procederemo dimostrando Le implicazioni (a) + (b) + (C)+
* (d) * (a). Per far vedere che (a) implica (b), supponiamo che A sia iiducibile:
alla matrice identica mediante operazioni sulle righe: Ek El A = I. Moltiplicando
Possiamo enunciare pertanto il risultato seguente:
(2.21) COROLLARIOSia A una matrice invertibile. Per culcolare la sua inversa
basta effettuare operazioni elementari sulle righe E , , . . . ,Ek SU A, riducendola all'identità. La stessa successione di operazioni, applicata a I , fornisce A- l .
A-
',
B
-v
(2.22) Esempio
precedente si conclude che B è invertibile e A è la sua inversa. Dunque anche A
è invertibile. m
Cerchiamo l'inversa della matrice
A=
[i :l.
Per calcolarla, formiamo la matrice a blocchi 2 x 4
L
I
Per la maggior parte di questa trattazione, avremmo potuto considerare le
colonne piuttosto che le righe. Abbiamo scelto di lavorare con le righe per
applicare i risultati ai sistemi di equazioni lineari; altrimenti avremmo potuto
anche usare le colonne. L'operazione che scambia m loro righe e colonne è la
trasposizione di mairici. La trasposta di una matrice m x n A è la matrice n x m
A' l= (bij), dove
e
-
J
Effettuiamo operazioni sulle righe per ridune A all'identità, considerando sempre
il blocco a destra, cosi da ottenere alla fine A- a destra, in virtti del corollario
(2.21).
Per esempio,
Sotti-arre 4 . (riga 2) da (riga 1)
Le regole di calcolo per la matrice trasposta sono date in:
(2,24)
(a) ( A + B)' = A~+ B'.
(b)
(cA)' = CA'.
(C) ( A B ) =
~B ~ A
(!)~
(d)
(A')' = A.
Dunque
Usando le formule (2.2fk, d), possiamo dedurre le proprietà della moltiplicazione a destra, X P , dalle corrispondenti proprietà per la moltiplicazione a sinistra.
Le matrici elementari (2.6) agiscono mediante moltiplicazione a destra come
le seguenti operazioni elementari sulle colonne:
(2.23) PROP~SIZIONE~
Sia A una matrice quadrata, dotata di un'inversa sinistra B (BA = I), oppure di un'inversa destra (AB = I). Allora A è invertibile e
B è la sua inversa.
Dimostrazione. Supponiamo che AB = I. Effettuiamo la riduzione per righe SU
A. In base a (2.19), esistono matrici elementari El ,. . . ,Ek tali che A' = Ek . . . E, A
R la matrice identica oppure ha l'ultima riga nulla. Allora A'B = EI, . . . EI, la quale
E: una matrice invertibile. Quindi l'ultima riga di A'B non è nulla e., di conseguenza,
tale risulta anche l'ultima riga di A'. Dunque A' = I. Per la (2.181, A è invertibile,
e le equazioni I = E k . . . E I A e AB = I mostrano che A-' = Eb...E1 = B
(cfr. (1.17)). Vediamo ora i1 caso BA = I. Scambiando A e i3 nell'argornentazione
(2,.25)
(a) Sommare a - (colonna i) alla (colonna i).
(b) Scambiare tra loro la (colonna i) e la (colonna j).
(e) Moltiplicare la (colonna i) per c#O.
I
Ad ogni matrice quadrata A è associato un numero chiamato il suo deaerminante.
Iin questo paragrafo definiremo il determinante e dimostreremo alcune sue proprietà.
I1 determinante di una matrice A sarà denotato con det A.
t
Il determinante di una matrice l x 1 & proprio il suo unico elemento:
e il determinante di una matrice 2 x 2 è dato dalla formula:
Se consideriamo una matrice 2 x 2 A come un operatore sullo spazio R2 dei vettori
reali di dimensione 2, come si è visto nel paragrafo 2, alaora il detexnnincmte
di A può essere interpretato geometricamente. I1 suo valore assoluto è l ' m
a costituito Ml'immagine di un quadrato di lato 1 meùiemte
mpio, l'area della regione tratteggiata della figura 2.3 è 10.
Li determinante è positivo o negativo a seconda che l'orientazione del quadrato
è pre
meno dalla trasformazione. Inoltre, det A = O se e soltanto se il
IPdl
a degenera in un segmento, e ciò accade se e soltanto se le due
colonne di A sono proporzionali tra loro.
L'insieme di tutte le matrici n x n forma uno spazio di dimensione n2, che
denotiamo con Rnxn. Considereremo il determinante di tali matrici come luna
fulnzione dallo spazio Rnxn allo spazio dei numeri reali:
-
Per esempio, se
-
Lo sviluppo per minori rispetto alla prima colonna è dato dalla fsnnula:
(3.4)
gnifica che det è una
ti della matrice. Esiste una
ne siffatta per ciascun
ppo vi sono molte formule
per il detennjinante e tutte sono complicate quarado n è grande. Il determinante
è Importante poiché ha proprietà molto buone ed eleganti, anche se non vi h:
alcuna h m u l a semplice per esso. Non soltanto le formule sono compliciite,
m talvolta non è facile dimostrare
nte che due aii esse definisconlo la
stessa funzione. Pertanto useremo la seguente strategia: scegliamo una formula
sostanzialmenjfe a caso e la prendiamo come definizione del determinante. Così
facedo, considePimo una funzione particolare. dimostriamo^ che la funzione scelta
possiede alcune proprietà molto s p i a l i . Inoltre, dimostriamo che la funzione scelta
è l'mica funzione avente tali proprietà. A questo punto, per verificare che qualche
altra formula definisce lo stesso determiriante, occorre verificare soltanto che la
funzione definita da tale formula possiede queste stesse proprietà. In realtà, ciò.
risulta di solito relativamente facile.
nante di una matrice n x n può essere calcolato per mezzo di avrti
(n - l) x (n - l), mediante un procedimento chiamato sviluppo per
tte di dare una definizione ricorsiva della funzione
determinante. Sia A una matrice n x n e denotiamo con A, la matrice (n- l) x (n- l)
ndo la i-esima riga e la j-esima colonna di A:
det A = ali det Al1 - a21 det A21 +
q
+ (-l)n+la,i
det Anl,
con i segni alternati. Prendiamo questa formula, insieme con la (3.11, come una
definizione del determinante ricorsiva. Si noiti che la formula è in accordo con
la (3.2) per le matrici 2 x 2.
Li determinante deila matrice A considerata sopra è:
I tre determinanti 2 x 2 a secondo membro possono essere ancora calcolati mediante
uno sviluppo per miinori e usando la (3.1). oppure la (3.2), cosi da ottenere:
det A = 1 (-9) - 2 - (-15) +O - (-3) = 21.
Vi sono altre Cormule per il determinante, comprendenti sviluppi per minori rispetto
ad altre colonne e rispetto alle righe, che ricaveremo tra breve [cfr. (4.11, 5.1,
5.2)].
È importante, sia per il calcolo effettivo che per considerazioni teoriche, conoscere alcune delle tante proprietà dei determinanti, La maggior parte di esse può
essere verificata mediante calcoli diretti e induzione su n, utilizzando lo sviluppo
I:j,v~ci7icttli IM
matrici
I
Cap.
1
per minori (3.4). Ne elencheremo alcune senza dare dirno~s~~azioni
formali. Per
ooter interpretare tali proprietà per funzioni diverse dal determinante, denoteremo
per il momento il determinante con il simbolo d.
9
,
'
Se due righe adiacenti di una matrice A sono uguali, allora d(A) =O.
(3.7)
Dimostriamo questo fatto per induzione su n. Supponiamo che le righe di indici
+ l siano uguali. Allora le matrici Ail definite da (3.3) hanno anch'esse
due righe uguali, tranne che per i = j oppure i = j il. Ora, se Ail ha due righe
unuali. il suo determinante è zero, per induzione. Pertanto soltanto due termini
della somma (3.4).sopo
. a l più diversi da zero, e
j e j
(3.5)
d(l) = l .
(3.6)
La funzione d(A) è lineare rispetto alle righe della matrice.
.
Intendiamo con cib il fatto seguente: denotiamo con Ri il vettore riga dato dall'i-esima riga della matrice A, sicché A può essere scritta simbolicamente nella forma
.
.-
<.
Inoltre, poiché le righe Rj e Rj+! sono uguali, ne segue che Aji = Aj+i,1 e che
a;, = ai+,.i.Poiché i segni sono alternati, i due termini nel secondo membro si
cancellano a vicenda e il determinante è zero.
Le proprietà (3.5-3.7) caratterizzano in modo unico i determinanti [cfr. (3.14)]
e noi ricaveremo ulteriori relazioni a partire da esse senza tornare alla definizione (3.4).
.I.
per definizione, la linearitu rispetto all'i-esima riga significa che, se R e S sono
vettori riga, allora
-
(3.8)
J
'
Se si aggiunge un multiplo di una riga a una riga adiacente, il determinante non cambia.
Infatti, da (3.6) e (3.7) segue che:
dove le altre righe delle matrici che compaiono in tali relazioni restano inalterate
dappertutto. Per esempio,
. ] . : . [d=
La stessa argomentazione vale nel caso in cui S 5 al di sopra di R.
(3.9)
Se si scambiano tra lom due righe adiacenti, il determinante viene
moltiplicato per -1.
l
Basta applicare più volte (3.8):
La linearità permette di operare su uno riga alla volta, mentre le altre righe
restano fisse.
Un'altra proprietà è la seguente:
Uperazioni tra matrici
1
Cap. i
Inoltre, se utilizzianno ancora le regole (3.8'1, (3.9') e (3.6), applicandole a una
matrice arbitraria A e usando i valori per d(E) che abbiamo appena determinato,
otteniamo il seguente risultato:
(3.12)
Sia E una matrice elementare e sia A una matrice arbitraria. Allora si
ha:
(3.7')
Se due righe di una matrice A sono uguuli, allora d(A) = 0.
Mani, scambiando righe adiacenti più volte, si ottiene una matrice A' avente
due righe adiacenti uguali. In base a (3.7), si ha: d(At) = 0, e da (3.9) segue clhe
d(A) = fd(A1).
Utilizzando (3.7')1,le dimostrazioni di (3.8) e (3.9) forniscono i seguenti risultati:
(3.8')
(3.9')
Aggiungendo un multiplo di una riga a un'altra riga, il determinante
mn
ia,
Scambiando tra loro due righe, il determinante viene moltiplicato per
Inoltre, da (3.6) discende il risultato seguente:
Ricordiamo che, in base a (2.19), ogni matrice quadrata A può essere ridotta,
mediante operazioni elementari sulle righe, a una matrice A', la quale o & l'identità
I oppure ha l'ultima riga nulla:
Sappiamo da (3.5) e (3.10) che si ha, rispettivamente: d(A1)= 1 oppure d(Af)= O.
Utilizzando (3.12) e l'induzione, si ottiene:
D'altra parte, conoscimno d(Ei), in virtù di (3.1 l), e pertanto possiamo utilizzare
questa formula per cztlcolare d(A).
di A è nulla, allora d(A) = O.
(3.14) TEOREMA (Definizione assiornatica del determinante) La funzione deteminante (3.4) è l'unica funzione che soddisfa alle proprietà (3.5-3.7).
'
ga è nulla, allora la matrice A non cambia moltiplicando tale
lora, in base a (3.6), d(A) viene moltiplicato per 0. hnqiie
, (3.9') e (3.6) descrivono l'effetto sul determinante di un'opesulle righe (2.7), sicché esse possono essere riscritte in termini
di matrici elementari. Esse si enunciano dicendo che d(EA) = d(A), se E è ima
matrice elementare del primo tipo, che d(EA) = -d(A), se E è del secondo tipo, e .
A) = C d(A), se E è del terzo tipo. Applichiamo ora tali regole
essendo E una matrice elementare. Poniamo A = I. Pillom,
regole determinano d(EI) = d(E):
(3.1 1)
11 determinante di una matrice elementare è:
(i) Primo tipo (aggiungere un rncrltiplo di una riga a un'altra): d(E) = l ,
in virtiì di (3.8').
(ii) Secondo tipo (scambio di righe): d(E) = -1, in virtù di (3.9').
(iii) k a tipo (moltiplicare una riga per una costmte non nulla): d(E) =
= C, in virtù di (3.6).
Dimostrazione. Abbiamo usato soltanto tali proprietà per giungere alle equazioni
(3.11) e (3.13), ed esse determinano d(A). Poiché lo sviluppo per minori (3.4)
soddisfa (3.5-3.7), esso coincide con (3.13). i
Ritorniamo ora alla notazione usuale det A per il determinante di una matrice.
(3.15) COROLLARIOUna matrice quadrata A è invertibile se e soltanto se
det A#O.
Infatti, ciò segue dalle formule (3.11), (3.13) e (2.18). Da (3.11) segue che
det Ei#O per ogni i. Pertanto, se A' è come in (3.13), allora det A# O se e soltanto
se det Ar#O, e ciò accade se e soltanto se A' = I. In base a (2.18), A' = I se e
soltanto se A è invertibile. i
Siamo in grado ora di dimostrare una delle proprietà più importanti della
funzione determinante: la sua compatibilità con la moltiplicazione tra matrici.
4
Operazioni tra ntarrici
28
I
1
Mafrici di permutazione
-<
.
Cap. 1
(3.16) TEOREMA Siano .4, B due matrici n x n arbitrarie. Allorcz si ha
(3.19) COROLLARIOLe proprietà (3.6-3.10) continuarzo a valere, se la parola
riga è sostituita ovunque dalla paro10 colonna. m
det(AB) = (det A) . (det B).
Dimostrazione. Notiamo che, se A è una matrice elementare, questa formula
coincide con (3.12).
Un'applicazione biiettiva p di un insieme S in sé è una permutazione dell'insieme:
Caso I : A è invertibile. In base a (2.18b), A è un prodotto di matrici elementari:
A = El - Ek. Utilizzando (3.12) e l'induzione, si ha: det A = (det E,) . - (det Ek)
Per esempio,
e
1-3
det(AB) = det(Ei . . . E@) = (det Ei) - (det Ek)(det B) = (det A)(det 3).
Caso 2: A non è invertibile. Allora, in virtù di (3.15), si ha: det A = 0; pertanto,
per dimostrare il teorema in questo caso, basta far vedere che det(AB) = O. In
base a (2.129, A può essere ridotta a una matrice A' = Ek . - - EIA avente l'ultima
riga nulla. Allora anche l'ultima riga di A'B è nulla; pertanto si ha:
(4.2)
2-1
3 ~
2
è una permutazione dell'insieme (1,2,3). Essa è una permutazione ciclica, poiché
opera nel modo seguente:
1
2
l
I
O =d e t ( ~ '=
~ det(Ek
)
- - El AB) = (det Ek)- . (det El)(det AB).
Poiché det Ei#O, ne segue che det(AB) = 0.
i
(3.17) COROLLARIO Se A è invertibile, si ha:
1
det(A- l) = det A
Dimostrazione. Basta osservare che (det A)(det A- ') = det I = 1 .
Osservazione. Si potrebbe pensare, in modo naturale, di cercare di definire
il determinante di una matrice utilizzando le regole (3.1 1) e (3.16). Tali regole
determinano certamente det A per ogni matrice invertibile A, poiché possiamo
scrivere una matrice siffatta come un prodotto di matrici elementari. Tuttavia c'è
un problema: vi sono molti modi di scrivere una matrice assegnata come un
prodotto di matrici elementari e non è affatto chiaro che due prodotti diversi
avrebbero lo stesso determinante. In realtà, non è per niente facile sviluppare
questa idea fino in fondo.
La dimostrazione della proposizione seguente è un buon esercizio.
(3.18) PROPOSIZIONEDenotiamo con A' la trasposta dì A. Allora si ha
det A = det A'.
i
\?i
sono parecchi modi di denotare le permutazioni. In questo paragrafo useremo la notazione funzionale, cosicché p(x) denota il valore della permutazione p
sull'elemento x. Così, se p è. la permutazione data in (4.2), allora
'Una matrice di permutazione P è una matrice con la seguente proprietà:
l'operazione di moltiplicazione a sinistra per P è una permutazione delle righe
di una matrice. Le matrici elementari del secondo tipo (2.6ii) costituiscono gli
esempi più semplici. Esse corrispondono alle permutazioni chiamate trasposizioni,
le quali scambiano tra loro due righe di una matrice, lasciando fisse le altre.
Inoltre,
l
è una matrice di permutazione. Essa agisce su un vettore colonna X = (x, y,r)'
nel modo seguente:
Scarica

, Capitolo 1 operazioni tra mabnci