Enrico Vitali
Università degli Studi di Pavia
Lezioni introduttive sulle equazioni
differenziali ordinarie
a.a. 2012/2013
Quelle che seguono sono alcune note della parte relativa all’argomento “Equazioni differenziali”
dell’insegnamento di Analisi Matematica 3 tenuto per il Corso di laurea in Matematica e per il
Corso di laurea in Fisica dell’Università degli Studi di Pavia.
Vorrebbero essere un punto di partenza per lo studio delle opere classiche espressamente dedicate
a questi argomenti e citate, in parte, in bibliografia.
Si ringraziano fin d’ora quanti (penso in particolare agli studenti del corso) segnaleranno errori,
proporanno suggerimenti, avanzeranno commenti, . . .
E.V.
Pavia, gennaio 2013
i
Indice
1
Esempi introduttivi
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2
Modelli di crescita per una singola popolazione
Cinetica chimica
1.2.1 Ordine di una reazione e modello differenziale
1.2.2 Datazione mediante radiocarbonio
L’oscillatore armonico
Circuiti elettrici
Specie in competizione: sistemi non lineari
Pendolo semplice
Equazione di Schrödinger
Elastiche piane; un esempio di problemi ai limiti
Equazioni in forma normale.
1
1
4
4
6
7
8
11
12
14
15
17
Problemi ai valori iniziali per sistemi del primo ordine
23
2.1
2.2
2.3
2.4
2.5
2.6
23
28
33
35
38
44
Risultati di esistenza ed unicità
Prolungamento delle soluzioni
Lemma di Gronwall
Disuguaglianze differenziali
Dipendenza delle soluzioni dai dati
Sistemi autonomi: generalità
iii
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
3
4
Tecniche elementari di integrazione
47
3.1
Equazioni a variabili separabili
3.2
Equazioni lineari del primo ordine
3.3
Equazioni di Bernoulli; equazione di Riccati
3.4
Equazioni di tipo omogeneo
3.5
Equazioni del tipo F (y, y ′ ) = 0 o F (x, y ′ ) = 0
3.6
Equazione di Clairaut
3.7
Equazioni differenziali e forme differenziali
Appendice A: equazione di Eulero di un funzionale
Appendice B: forme differenziali lineari
47
48
49
51
52
55
57
63
66
Equazioni e sistemi differenziali lineari
69
4.1
4.2
4.3
4.4
4.5
70
73
75
78
80
81
83
88
95
97
101
106
Equazione omogenea. Matrice risolvente
Equazione completa. Variazione delle costanti
Esponenziale di una matrice
Sistemi omogenei autonomi
Calcolo della matrice esponenziale
4.5.1 Matrice diagonalizzabile
4.5.2 Caso generale
4.5.3 Soluzioni reali
4.6
Equazioni scalari lineari di ordine superiore
4.7
Equazioni a coefficienti costanti
4.8
Sistemi omogenei autonomi: il caso bidimensionale
Appendice: rappresentazione di operatori lineari
5
Comportamento asintotico. Stabilità
5.1
5.2
5.3
5.4
6
Stabilità dei punti di equilibrio
Comportamento asintotico dei sistemi lineari
Stabilità linearizzata
Funzioni di Liapunov
Equazioni della Fisica Matematica
6.1
6.2
6.3
6.4
6.5
Equazione di Laplace su di un rettangolo
Equazione di Hermite
Equazione di Bessel
Oscillatore armonico quantistico
Modi normali di vibrazione per una membrana circolare
115
115
116
120
126
131
132
134
136
138
139
Bibliografia
143
Indice analitico
145
iv
Capitolo 1
ESEMPI INTRODUTTIVI
Le equazioni differenziali costituiscono uno degli strumenti più utilizzati nella fase di modellizzazione matematica quantitativa di un ‘fenomeno’, inteso nel senso ampio del termine: fenomeni
fisico-naturali (come la dinamica di un sistema meccanico, la variazione spaziale del potenziale
corrispondente a una data distribuzione di cariche o l’evoluzione nel tempo di una popolazione, . . . ),
fenomeni economico-sociali (dinamica di grandezze macroeconomiche come produzione, capitale e
lavoro in un sistema economico, . . . ), ecc.
In questo capitolo presentiamo alcuni esempi, tratti da contesti differenti, con lo scopo sia di
mettere in luce l’importanza delle equazioni differenziali in fase modellistica, sia di illustrare le
peculiarità rilevanti delle varie tipologie di equazioni (lineari, non lineari, autonome, . . . ) e i primi
concetti basilari.
1.1 MODELLI DI CRESCITA PER UNA SINGOLA POPOLAZIONE
Si consideri una ‘popolazione’, intesa in senso lato: un agglomerato di entità di qualunque genere
(batteri, esseri umani, nuclei radioattivi, . . . ) la cui consistenza complessiva varia nel tempo. Supponiamo di poter misurare quantitativamente la popolazione in modo ‘continuo’ (la variazione di una
singola unità sia trascurabile sul totale della popolazione).
Se x(t) misura l’entità della popolazione all’istante di tempo t, il valore
x′ (t)
x(t)
è il tasso di variazione di x: esso dà la rapidità di variazione di x rispetto al tempo rapportata al totale
della popolazione (cioè ‘per unità di popolazione’). Una situazione che, come vedremo fra poco, si
verifica in numerosi casi è quella in cui il tasso di variazione dipende dalla popolazione stessa ed
eventualmente dal tempo, cioè:
x′ (t)
= r(t, x(t)),
x(t)
o anche
x′ (t) = r(t, x(t))x(t).
(1.1)
Questa relazione esprime la legge di evoluzione di x. Si tratta di una equazione differenziale: un’equazione in cui l’incognita è una funzione (la x) e compare almeno una derivata della funzione stessa.
1
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Qui l’ordine massimo di derivazione che compare è 1, per cui abbiamo un’equazione differenziale
del primo ordine.
Assegnato il tasso r come funzione di t e di x, ci aspettiamo che la legge di evoluzione (1.1)
specifichi completamente la funzione x se è noto, ad esempio, il valore assunto in un istante t0 di
riferimento:
x(t0 ) = x0 (valore noto).
Spesso t0 = 0 (istante iniziale dell’esperimento o dell’intervallo di rilevazione dei dati, ecc.): ci
si riferisce pertanto alla condizione x(t0 ) = x0 come condizione iniziale per l’equazione (1.1). Il
problema:
′
x = r(t, x)x
(1.2)
x(t0 ) = x0 ,
è detto problema ai valori iniziali o problema di Cauchy per l’equazione (1.1).
Per soluzione dell’equazione (1.1) intendiamo una qualunque funzione x di classe C 1 su un
intervallo J per la quale
x′ (t) = r(t, x(t))x(t) per ogni t ∈ J.
Se t0 ∈ J e x(t0 ) = x0 allora x è soluzione di (1.2).
Vediamo alcuni esempi.
a) Tasso costante di variazione.
Il modello di crescita di una popolazione in cui il tasso di variazione è assunto costante è legato al
nome di Thomas Robert Malthus (1766–1834), demografo ed economista politico inglese.1
L’equazione (1.1) diventa:
x′ = rx.
(1.3)
Osserviamo innanzitutto che vi è la soluzione costante x ≡ 0. Sia x : J → R, con J intervallo,
una soluzione di classe C 1 (si noti che se x è una soluzione differenziabile allora è automaticamente
C 1 , dovendo sussistere l’uguaglianza x′ = rx). In ogni sottointervallo di J in cui x non si annulla,
l’uguaglianza x′ = rx equivale a:
Z ′
x (t)
dt = rt,
x(t)
che possiamo anche scrivere come:
∃c ∈ R log |x(t)| = rt + c,
oppure:
∃C > 0 |x(t)| = Cert .
Se inglobiamo il segno di x nella costante otteniamo infine:
∃C ∈ R \ {0} x(t) = Cert .
Pertanto ogni soluzione, dove non nulla, deve essere un’esponenziale Cert , per una qualche costante
C. Ne segue che ogni soluzione, se diversa dalla soluzione nulla, non si annulla mai ed è un
esponenziale di questo tipo. Concludiamo che la famiglia delle soluzioni della (1.3) è data da:
t 7→ Cert : R → R
1 Malthus
(C ∈ R).
enunciò per la prima volta le sue teorie sull’evoluzione della popolazione nel saggio anonimo An essay on the
principle of population as it affects the future improvement of society nel 1798, ripubblicato successivamente più volte a
proprio nome in forma ampliata. Sulla base dei dati demografici dei coloni inglesi nordamericani, Malthus sostenne che in
condizione di fecondità naturale la popolazione tende a raddoppiare a ogni generazione (circa 25 anni). Questa dinamica può
essere espressa tramite una crescita esponenziale come in (1.4): si calcoli il valore di r se y raddoppia ogni 25 anni.
2
Capitolo 1 - ESEMPI INTRODUTTIVI
Se x(t) = Cert è una soluzione della (1.3), il valore C non è altro che x(0), per cui possiamo
scrivere, più espressivamente:
x(t) = x(0)ert ;
(1.4)
a partire dal dato iniziale x(0) l’evoluzione è di tipo esponenziale. Nel caso in cui r < 0 abbiamo
una decrescita esponenziale.
Osservazione 1.1.1 Per meglio inquadrare le equazioni che incontreremo in questo capitolo,
conviene notare subito che l’equazione (1.3), che possiamo anche scrivere come y ′ − ry = 0, rientra
fra le equazioni differenziali lineari del primo ordine a coefficienti costanti: l’operatore differenziale
y 7→ y ′ − ry è infatti lineare, coinvolge solo il primo ordine di derivazione e presenta ogni termine
y (k) (con k = 0, 1) con coefficienti costanti.
b) Equazione logistica. Spesso in un ambiente naturale la crescita è inibita da fattori il cui
effetto è sempre più considerevole col passare del tempo, per esempio l’esaurimento delle risorse
alimentari disponibili, la quantità di rifiuti tossici prodotti, l’affollamento fisico, ecc. In tal caso
non è più ragionevole ammettere un tasso costante di crescita. Una possibile correzione al modello
di crescita malthusiano fu proposta da Pierre François Verhulst (matematico belga, 1804–
1849) assumendo l’esistenza di una capacità di carico (o portante) dell’ambiente, cioè di un livello
K della popolazione oltre al quale il tasso di crescita diventa negativo.2
Il più semplice modello che realizza ciò è una dipendenza lineare del tasso di crescita dalla
popolazione:
x′
x
(1.5)
=r 1−
x
K
Procediamo in modo analogo a quanto abbiamo fatto per la (1.3). Chiaramente le funzioni costanti
con valore 0 o K sono soluzioni. Se poi x è una soluzione che, su un intervallo I non assume mai i
valori 0 e K, allora in I deve essere:
x′
=r
x(1 − x/K)
cioè, per integrazione:
o anche:
∃c ∈ R log
x = rt + c
K −x
1
Cert
=K 1−
(1.6)
rt
rt
1 + Ce
1 + Ce
(per C = 0 si recupera la soluzione nulla, per ‘C = ∞’ la soluzione costante di valore K; queste
si scambiano ponendo C ′ = 1/C). Come per l’equazione (1.3), non è difficile vedere che queste
esauriscono le soluzioni di (1.5).
Consideriamo, in particolare, il caso 0 < x(0) < K (e r > 0): si ottiene (posto x0 = x(0))
∃C ∈ R x(t) = K
C=
x0
> 0.
K − x0
Se scriviamo C nella forma C = e−rt0 (come è sempre possibile per un opportuno valore t0 ∈ R) si
nota che le soluzioni sono traslate temporali l’una dell’altra:
x(t) = K
er(t−t0 )
.
1 + er(t−t0 )
È sufficiente studiare il caso t0 = 0 (vedi Figura 1.1). Coerentemente con l’interpretazione modellistica considerata, K è il valore su cui si stabilizza asintoticamente il valore y della popolazione.
2 Al
nome di Verhulst vanno associati anche quelli dei demografi americani R. Pearl e L.J. Reed, che negli anni ’20 del secolo
scorso riscopersero le memorie pubblicate da Verhulst negli anni attorno al 1840 e a lungo dimenticate.
3
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
y
K
t
Figura 1.1 - Curva logistica (Kert /(1 + ert ), con r > 0).
1.2 CINETICA CHIMICA
La cinetica chimica studia i meccanismi che portano alle condizioni di equilibrio termodinamico per
una data reazione. Come vedremo, le stesse equazioni (1.3) e (1.5) nascono come modelli naturali
anche in questo campo: la ‘popolazione’ in oggetto è ora una specie chimica.
1.2.1 Ordine di una reazione e modello differenziale
Consideriamo una generica reazione chimica del tipo
aA + bB −−→ cC + dD.
Mettiamoci nell’ipotesi che la reazione sia omogenea (cioè avvenga tra specie all’interno della stessa
fase (solida, liquida o gassosa)); supponiamo inoltre che si svolga a volume e a temperatura costanti.3
Come misura della velocità di reazione possiamo assumere l’aumento della concentrazione di uno
dei prodotti o la diminuzione di uno dei reagenti per unità di tempo:
v=−
1 d[B]
1 d[C]
1 d[D]
1 d[A]
=−
=
=
.
a dt
b dt
c dt
d dt
I coefficienti stechiometrici che compaiono tengono conto del fatto che le velocità di variazione delle
varie specie sono legate fra loro. Ad esempio:
N2 + 3 H2 −−→ 2 NH3
−
d[N2 ]
1 d[H2 ]
1 d[NH3 ]
=−
=
.
dt
3 dt
2 dt
La legge, detta legge cinetica, secondo cui evolve una reazione è determinata sperimentalmente. È
molto comune il caso in cui la velocità di reazione è proporzionale alla concentrazione di uno o
due dei reagenti, ciascuna elevata ad un esponente intero, generalmente piccolo: la somma di tali
esponenti è detta ordine della reazione.4 Ad esempio:
3 altrimenti
conviene definire la velocità di reazione come la variazione, nell’unità di tempo, del numero di moli della specie
considerata per unità di volume.
4 In realtà molte reazioni sono costituite da diversi stadi o processi elementari; l’ordine della reazione è individuato dallo stadio più lento. Ad esempio 2 N2 O5 −−→ 4 NO2 + O2 si scompone in N2 O5 −−→ NO3 + NO2 (lento; 1◦ ordine) e
2 NO3 −−→ 2 NO2 + O2 (veloce).
4
Capitolo 1 - ESEMPI INTRODUTTIVI
• 2 N2 O5 −−→ 4 NO2 + O2
v = k[N2 O5 ] reazione del 1◦ ordine
• H2 + I2 −−→ 2 HI
v = k[H2 ][I2 ] reazione del 2◦ ordine
(1◦ ordine rispetto a ciascun reagente)
• 2 HI −−→ H2 + I2
2
v = k[HI]
reazione del 2◦ ordine
• 2 H2 + 2 NO −−→ 2 H2 O + N2
2
v = k[H2 ][NO]
reazione del 3◦ ordine
In una reazione del primo ordine la velocità di variazione della concentrazione [A]t di un reagente,
al tempo t, è proporzionale alla concentrazione stessa; quindi
−
d[A]t
= k[A]t ,
dt
con k opportuna costante positiva dipendente dalla reazione in questione. Posto x(t) = [A]t si ottiene
l’equazione
x′ = −kx,
(1.7)
cioè la (1.3).
Consideriamo ora le reazioni del secondo ordine. Supponiamo che la legge cinetica sia del tipo:
v = k[A]t [B]t ,
(1.8)
con la stechiometria data da
A2 + B2 −−→ 2 AB
(una molecola A2 formata da due atomi A e una molecola B2 formata da due atomi B si combinano
dando luogo a due molecole del composto AB; un esempio è H2 + I2 −−→ 2 HI). Posto
y(t) = [AB]t ,
poiché ogni coppia A2 , B2 produce due molecole di AB(cioè 21 d[AB]/dt = −d[A2 ]/dt = −d[B2 ]/dt),
abbiamo (supponendo [AB]0 = 0)
1
[A2 ]t = [A2 ]0 − y(t),
2
1
[B2 ]t = [B2 ]0 − y(t).
2
Pertanto dall’equazione cinetica ricaviamo:
Questa è della forma:
1
1
y ′ = k [A2 ]0 − y(t) [B2 ]0 − y(t) .
2
2
(1.9)
y ′ = α(β − y)(γ − y),
con α, β e γ parametri dati. Mediante il cambiamento di variabile β − y = z si ottiene:
z ′ = αz[(β − γ) − z].
(1.10)
Per β 6= γ l’equazione è della stessa tipologia della (1.5).
5
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Se in (1.8) si ha [B]t ∼ [B]0 (ad esempio se uno dei reagenti è il solvente (presente in forte eccesso
rispetto al soluto)), allora la reazione diventa sostanzialmente del primo ordine.
Per una reazione del secondo ordine che segue una legge del tipo
−
d[A]t
= k[A]2t ,
dt
(ad esempio 2 HI −−→ H2 + I2 ) si ottiene l’equazione
x′ = −kx2 .
(1.11)
Questa rientra ancora nella tipologia (1.10), con β = γ. Come è facile vedere la famiglia delle
soluzioni di (1.11) è:
1/k
t 7→
,
α ∈ R.
t−α
1.2.2 Datazione mediante radiocarbonio
Dal punto di vista matematico il modello cinetico delle reazioni del primo ordine è alla base del ben
noto metodo di datazione mediante radiocarbonio.
L’isotopo radioattivo 14C del carbonio (o radiocarbonio) ha origine dalla trasformazione dell’azo14
to N negli strati alti dell’atmosfera mediante cattura di neutroni. Gli organismi viventi scambiano
continuamente carbonio con l’atmosfera attraverso processi di respirazione (animali) o di fotosintesi
(vegetali), oppure lo assimilano nutrendosi di altri esseri viventi o sostanze organiche. Finché l’organismo è vivo la concentrazione di 14C risultante nell’organismo rispetto a quella dell’isotopo stabile
12
C si mantiene costante e uguale a quella che si riscontra nell’atmosfera (attualmente 1 su 1012 ).
Alla morte dell’organismo, il radiocarbonio continua a decadere5 senza venire rimpiazzato: cambia
quindi il rapporto tra 14C e 12C; la misura di tale rapporto permette di stimare il tempo trascorso dalla
morte dell’organismo. Qualitativamente, questo è il principio su cui si basa il metodo di datazione
mediante radiocarbonio proposto nel 1949 da W. F. Libby (che ottenne, per questo contributo, il
premio Nobel per la Chimica nel 1960).
Poichè, come è sperimentalmente verificato, il decadimento radioattivo segue la stessa legge (1.7)
già vista per le reazioni del primo ordine, se y(t) indica la quantità di materiale radioattivo (nel nostro
caso 14C) presente al tempo t, allora
y(t) = y(0)e−kt ,
dove k è costante e caratteristica dell’elemento considerato. Spesso k viene determinata mediante il
tempo di dimezzamento: infatti se T1/2 è tale che y(T1/2 ) = y(0)/2, allora deve essere:
y(0)/2 = y(0)e−kT1/2 ,
da cui
k=
log 2
.
T1/2
Sperimentalmente si determina T1/2 , che per il radiocarbonio è circa
T1/2 ∼ 5730 anni, quindi k −1 ∼ 8267 anni.
Se p ∈ (0, 1) è la percentuale di 14C residua, rispetto alla percentuale iniziale, rilevata in un reperto,
ne possiamo stimare l’età t mediante:
log p
.
t=−
k
5 mediante
6
decadimento β − , trasformandosi in
14N: 14C
6
−−→
14
7N
+ e− + antineutrino.
Capitolo 1 - ESEMPI INTRODUTTIVI
0
i
Figura 1.2 - Oscillatore armonico: posizione di equilibrio.
F(x)
0
x(t)
i
Figura 1.3 - Oscillatore armonico: forza di richiamo.
Se il metodo di datazione mediante 14C è semplice in linea di principio, l’applicazione pratica
è tuttavia molto delicata6 (infiltrazioni spurie di 12C o 14C nel reperto, variazione nel tempo della
proporzione fra 12C e 14C, ecc.).
1.3 L’OSCILLATORE ARMONICO
Un esempio classico che porta a una semplice equazione differenziale lineare del secondo ordine a
coefficienti costanti (questo tipo di equazioni verrà studiato nel § 4.7) si ottiene considerando il moto
di un punto materiale P di massa m vincolato a scorrere senza attrito su di una retta sotto l’azione
di una forza elastica; quest’ultima può essere pensata realizzata mediante una molla come in Figura
1.2.
Si supponga che l’origine del sistema di riferimento coincida con la posizione in cui la lunghezza
della molla è quella a riposo. La forza di richiamo F(x) esercitata dalla molla quando il punto P si
trova nella posizione di ascissa x, secondo la legge di Hooke è:
F(x) = −kxi,
6A
titolo di esempio si veda al riguardo l’articolo [13].
7
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
dove i indica il versore dell’asse di riferimento e k la costante elastica della molla. Se x = x(t)
indica la legge oraria del punto P , la seconda legge della dinamica dà7:
mẍ(t) = −kx(t),
da cui
ẍ(t) + ω 2 x(t) = 0,
dove ω 2 = k/m.
(1.12)
Si tratta di un’equazione differenziale lineare del secondo ordine a coefficienti costanti (si ricordi
l’Osservazione 1.1.1): l’operatore differenziale x 7→ ẍ(t) + ω 2 x(t) è lineare e l’ordine massimo di
derivazione coinvolto è il secondo; inoltre i coefficienti di x(k) sono costanti (rispetto al tempo).
Le soluzioni di (1.12) sono date da (si veda § 4.7):
x(t) = c1 cos ωt + c2 sin ωt,
(1.13)
al variare di c1 , c2 ∈ R (la verifica che si tratta di soluzioni può, peraltro, essere svolta direttamente).
Una forma
più espressiva della famiglia delle soluzioni si ottiene mettendo in evidenza l’ampiezza
p
A = c21 + c22 delle oscillazioni:
!
c2
c1
cos ωt + p 2
sin ωt
x(t) = A p 2
c1 + c22
c1 + c22
= A (cos ϕ cos ωt + sin ϕ sin ωt) ,
dove ϕ è tale che (cos ϕ, sin ϕ) = (c1 /A, c2 /A). Le soluzioni possono allora essere espresse come:
x(t) = A cos(ωt − ϕ),
al variare di A ≥ 0 e ϕ ∈ R.
(1.14)
Dalla (1.14) risulta evidente l’oscillazione sinusoidale del punto P attorno alla posizione di ascissa
nulla, con periodo 2π/ω (moto armonico); risulta altresı̀ evidente che si può ottenere un moto
armonico mediante proiezione di un moto circolare uniforme su un diametro della traiettoria.
Come è noto dalla Fisica, la conoscenza della posizione x(t0 ) e della velocità ẋ(t0 ) in un istante
t0 determina univocamente il moto del punto a ogni istante di tempo (precedente o successivo a t0 ).
Analiticamente ciò corrisponde al fatto che il problema

 ẍ(t) + ω 2 x(t) = 0,
(1.15)

x(t0 ) = x0 , ẋ(t0 ) = v0 ,
con x0 e v0 assegnati, ammette una e una sola soluzione (cioè risultano univocamente individuate
le costanti A e ϕ in (1.14) o c1 e c2 in (1.13)). Il problema (1.15) è un problema ai valori iniziali,
o problema di Cauchy, per un’equazione del secondo ordine, analogamente al problema (1.2) già
incontrato per un’equazione del primo ordine.
1.4 CIRCUITI ELETTRICI
Vediamo alcune semplici equazioni e sistemi di equazioni differenziali che intervengono nello studio
dei circuiti elettrici elementari. In particolare il fenomeno della mutua induzione fra circuiti RL
fornirà un esempio della fondamentale famiglia dei sistemi differenziali lineari.
Circuiti RC.
Consideriamo un circuito in cui è presente un generatore di forza elettromotrice E , un resistore di
resistenza R e un condensatore di capacità C (vedi Figura 1.4). Sia q(t) la carica del condensatore
7 In un contesto fisico-matematico, nel caso in cui la variabile di derivazione rappresenti il tempo, utilizzeremo spesso la tipica
‘notazione puntata’ per indicare la derivata di una grandezza.
8
Capitolo 1 - ESEMPI INTRODUTTIVI
R
C
E
Figura 1.4 - Circuito RC
R
L
E
Figura 1.5 - Circuito RL
all’istante t; la corrente nel circuito è i = dq/dt. A partire da un qualunque punto del circuito la
somma algebrica delle variazioni di potenziale rilevate in un giro completo lungo il circuito stesso
è nulla (seconda legge di Kirchhoff). Procedendo nel verso della corrente si osserva un aumento di
potenziale E attraversando il generatore di f.e.m., una diminuzione di potenziale iR attraversando il
resistore e una diminuzione q/C corrispondente al condensatore. Ciò si traduce nell’equazione
E − iR −
q
= 0;
C
poiché i = dq/dt ricaviamo
R
dq
q
+
= E.
dt
C
(1.16)
Si tratta di un’equazione differenziale lineare del primo ordine non omogenea: rispetto alla (1.3),
scritta anche come y ′ − ry = 0, l’operatore differenziale del primo ordine è ora uguagliato ad un
funzione data (qui la costante E ). La soluzione corrispondente al dato iniziale q(0) = 0 si verifica
essere (rimandiamo al § 3.2 per la tecnica risolutiva):
q(t) = CE 1 − e−t/RC ).
Circuiti RL.
Consideriamo ora il caso in cui, in luogo del condensatore, nel circuito precedente sia presente un
induttore di induttanza L (vedi Figura 1.5). Questo componente del circuito dà luogo a una f.e.m. EL
tra i capi dell’induttore che si oppone alla variazione di corrente e che è proporzionale alla velocità
9
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
di variazione della corrente. La costante di proporzionalità è l’induttanza L:
EL = L
di
.
dt
Come per il circuito RC studiato prima, la legge di Kirchhoff dà:
E − iR − EL = 0,
ovvero
L
di
+ Ri = E .
dt
(1.17)
A prescindere dal significato delle grandezze in gioco questa equazione non è altro che la (1.16).
Pertanto abbiamo la soluzione:
E
i(t) =
1 − e−Rt/L ),
R
nel caso di corrente iniziale nulla.
Circuiti RLC.
Nel caso più generale in cui sia presente sia un resistore che un induttore e un condensatore, la
legge di Kirchhoff dà (i = dq/dt):
E − iR −
da cui:
L
q
− EL = 0,
C
dq
d2 q
1
+R
+ q = E.
2
dt
dt
C
(1.18)
Questa è un’equazione differenziale lineare del secondo ordine, a coefficienti costanti, non omogenea:
analogamente a quanto detto per la (1.16) rispetto alla (1.3), l’operatore differenziale lineare del
secondo ordine è uguagliato non a zero (come nella (1.12)), ma a una data funzione (in questo caso
la costante E ). Per la tecnica risolutiva rimandiamo al § 4.6.
Circuiti accoppiati: un sistema lineare
Consideriamo infine la situazione in cui due circuiti diano luogo a una mutua induzione. Una
corrente variabile i1 nel primo circuito produce, nel secondo circuito, una f.e.m. indotta proporzionale
alla velocità di variazione della stessa i1 :
(2)
EL = M
di1
,
dt
dove M è un coefficiente di proporzionalità. Analogamente, la variazione di corrente nel secondo
circuito produce nel primo la f.e.m.
di2
(1)
EL = M
.
dt
Si dimostra che il coefficiente M è il medesimo nei due casi e dipende solo dalla forma dei circuiti e
dal loro mutuo orientamento.
Nel caso di circuiti RL, sfruttando l’equazione (1.17) si ottiene la seguente relazione (in cui
abbiamo supposto, per fissare le idee, che le f.e.m. indotte da ciascun circuito sull’altro siano di
segno opposto rispetto a quello delle f.e.m. fornite dalle sorgenti):
L1
10
di2
di1
+ R1 i1 = E1 − M
dt
dt
Capitolo 1 - ESEMPI INTRODUTTIVI
per il primo circuito; assieme all’analoga equazione per il secondo si ha

di2
di1


+M
+ R1 i1 = E1
 L1
dt
dt


 M di1 + L2 di2 + R2 i2 = E2
dt
dt
Si tratta di un sistema di due equazioni differenziali lineari del primo ordine. Posto:
i (t)
E1
R1 0
L1 M
i(t) := 1
E :=
R :=
Λ :=
i2 (t)
E2
0 R2
M L2
possiamo riscrivere
di
+ Ri = E .
dt
Se assumiamo l’invertibilità di Λ il sistema assume la forma
Λ
di
= Ai + b
dt
(1.19)
dove A = −Λ−1 R e b = Λ−1 E . Questo tipo fondamentale di sistema di equazioni differenziali
verrà trattato nel Cap. 4.
1.5 SPECIE IN COMPETIZIONE: SISTEMI NON LINEARI
Presentiamo ora un classico modello per l’evoluzione di due specie interagenti che conduce a un
sistema nonlineare di equazioni differenziali.
Si abbiano due popolazioni, la cui entità al tempo t è data da
x′1 (t) :
“preda”;
x′2 (t) :
“predatore”
(ad esempio volpi e conigli). Siano r1 e r2 i loro tassi di crescita, rispettivamente:
x′1 (t)
= r1 ,
x1 (t)
x′2 (t)
= r2 .
x2 (t)
È naturale supporre che le variazioni delle singole popolazioni si influenzino a vicenda, per cui
assumiamo che
r1 = r1 (t, x1 , x2 ),
r2 = r2 (t, x1 , x2 ).
Otteniamo allora un sistema di equazioni differenziali che in generale è non lineare:
′′
x1 = x1 r1 (t, x1 , x2 )
x′′2 = x2 r2 (t, x1 , x2 )
Introducendo le funzioni vettoriali
x = (x1 , x2 ) : t 7→ (x1 (t), x2 (t)),
f = (f1 , f2 ) : (t, x) 7→ (x1 r1 (t, x), x2 r2 (t, x)),
possiamo anche scrivere, più semplicemente,
x′ = f (t, x).
Come nel caso di una singola popolazione esaminiamo due casi.
11
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
a) Partiamo dalla legge di variazione a tasso costante per ciascuna delle due specie in competizione
e modifichiamola per tenere conto della presenza dell’altra specie. Cosı̀, il tasso x′1 /x1 = α (con
α > 0 costante), valido in assenza di predatori, viene corretto sottraendo a secondo membro un
termine proporzionale all’entità del predatore; otteniamo:
x′1
= α − βx2 .
x1
Analogamente, al tasso costante negativo che caratterizzerebbe la variazione di x2 in assenza di preda,
viene sommato un termine proporzionale all’entità della preda:
x′2
= −γ + δx1 .
x2
Ne risulta il sistema delle equazioni di Lotka-Volterra8 :
′
x1 = x1 (α − βx2 )
x′2 = x2 (−γ + δx1 )
(1.20)
che possiamo anche scrivere, avendo posto x = (x1 , x2 ),
x′ = f (x), con f (x) = (x1 (α − βx2 ), x2 (−γ + δx1 )).
(1.21)
b) Correggiamo ora ciascuna delle due equazioni in (1.20) rimpiazzando i tassi α e −γ con un
termine analogo a quello che nell’equazione logistica introduceva la capacità di carico dell’ambiente:
′
x1 /x1 = α − λx1 − βx2
x′2 /x2 = −γ − µx2 + δx1
o anche
x′1 = (α − λx1 − βx2 )x1
x′2 = (−γ − µx2 + δx1 )x2
(1.22)
Accenneremo al comportamento delle soluzioni nel § 1.9, dopo aver puntualizzato il quadro
generale in cui collocare i problemi differenziali presentati in questo capitolo.
1.6 PENDOLO SEMPLICE
Assumiamo il punto di sospensione del pendolo come origine di un sistema di riferimento cartesiano
nel piano verticale in cui si svolge il moto; l’asse delle ordinate è verticale, diretto verso l’alto.
Indichiamo con ϑ lo scostamento angolare rispetto alla posizione verticale misurato in senso antiorario
(vedi Figura 1.6), e con ut il versore tangente (secondo l’orientamento antiorario).
Per individuare le equazioni del moto utilizziamo la seconda legge della dinamica F = ma,
proiettata lungo il versore tangente ut = (cos ϑ)i + (sin ϑ)j:
F · ut = ma · ut .
(1.23)
Indichiamo con ϑ = ϑ(t) il valore dell’angolo al tempo t; se l è la lunghezza del pendolo, risulta:
x(t) = l sin ϑ(t)
y(t) = −l cos ϑ(t)
8 Proposto indipendentemente nel 1924 dal demografo americano Alfred James Lotka e nel 1926 dal matematico italiano Vito
Volterra.
12
Capitolo 1 - ESEMPI INTRODUTTIVI
y
ut
ϑ
x
ϑ
ur
l
ut
F
Figura 1.6 - Pendolo semplice
da cui:
ẋ(t) = lϑ̇ cos ϑ
ẏ(t) = lϑ̇ sin ϑ.
Le componenti dell’accelerazione sono quindi:
ẍ(t) = −lϑ̇2 sin ϑ + lϑ̈ cos ϑ
ÿ(t) = lϑ̇2 cos ϑ + lϑ̈ sin ϑ
(1.24)
Allora, tenendo conto che l’unica forza che ha una componente non nulla lungo la direzione tangente
è la forza peso −mgj, la (1.23) diventa:
−mg sin ϑ = mlϑ̈
Quindi:
ϑ̈ +
g
sin ϑ = 0.
l
(1.25)
Si tratta di un’equazione differenziale non lineare del secondo ordine. Per “piccole” oscillazioni
possiamo assumere che sin ϑ ∼ ϑ, per cui si ottiene un’equazione lineare:
ϑ̈ + ω 2 ϑ = 0
ω2 =
g
,
l
che è l’equazione del moto armonico incontrata nel paragrafo 1.3. Nei limiti di questa approssimazione il periodo
s
l
T = 2π/ω = 2π
g
risulta indipendente dall’ampiezza delle oscillazioni (isocronismo delle piccole oscillazioni)9 .
9 Questa legge era stata sperimentalmente
osservata già da Galileo (ne accenna in una lettera del 1602 a Guidubaldo del Monte),
in connessione ai suoi studi sul moto dei gravi.
13
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
1.7 EQUAZIONE DI SCHRÖDINGER
L’equazione di Schrödinger svolge in meccanica quantistica il ruolo che le equazioni di Maxwell
svolgono in elettromagnetismo. Per una particella di massa m ed energia potenziale U (x, t) essa
assume la forma:
∂ψ(x, t)
~2
∆x ψ(x, t) + U (x, t)ψ(x, t) = i~
,
(1.26)
−
2m
∂t
dove x indica la variabile spaziale (in una, due o tre dimensioni) e t la variabile temporale, ∆x è il
laplaciano rispetto alle variabili spaziali e ~ = h/2π, con h costante di Planck. La ψ è la funzione
d’onda, a valori complessi; separando la parte reale e quella immaginaria possiamo equivalentemente
considerare due equazioni differenziali in campo reale.
Se supponiamo il potenziale indipendente dal tempo, il metodo della separazione delle variabili
consente di caratterizzare le eventuali soluzioni della forma
ψ(x, t) = u(x)ϕ(t).
Infatti per tali soluzioni la (1.26) diventa:
−
~2
(∆u(x))ϕ(t) + U (x)u(x)ϕ(t) = i~u(x)ϕ′ (t);
2m
dividendo per u(x)ϕ(t) abbiamo:
1 ~2
ϕ′ (t)
−
∆u(x) + U (x)u(x) = i~
.
u(x) 2m
ϕ(t)
Deve pertanto esistere E ∈ C tale che
~2
∆u(x) + U (x)u(x) = Eu(x)
2m
E
ϕ′ (t) = ϕ(t)
i~
−
(1.27)
(1.28)
La seconda equazione, a parte essere espressa in C, è della stessa forma di (1.3). Sia t0 è un punto
in cui ϕ non si annulla; ricordando che, se log indica una qualunque determinazione del logaritmo
d
differenziabile in un intorno di ϕ(t0 ) allora dt
log ϕ(t) = ϕ′ (t)/ϕ(t), possiamo svolgere i medesimi
E
ragionamenti utilizzati nel § 1.1. Allora localmente, e quindi globalmente, deve essere ϕ(t) = Ce i~ t ,
per un’opportuna costante C. Concludiamo che la famiglia delle soluzioni è data da:
E
ϕ(t) = ϕ(0)e i~ t ,
al variare del valore ϕ(0) ∈ C.
Osservazione 1.7.1 Sia a = α + iβ un dato numero complesso; l’equazione ϕ′ (t) = aϕ(t) (fra
cui rientra la (1.28)) dà luogo a un sistema differenziale lineare considerando separatamente la parte
reale e la parte immaginaria di ϕ. Infatti, posto ϕ(t) = u(t) + iv(t), l’uguaglianza ϕ′ (t) = aϕ(t)
diventa:
′
u = αu − βv
v ′ = βu + αv ,
che è della stessa forma di (1.19)) (qui ora b = 0).
L’equazione soddisfatta da u nel caso monodimensionale, cioè
−
14
~2 ′′
u (x) + U (x)u(x) = Eu(x)
2m
(1.29)
Capitolo 1 - ESEMPI INTRODUTTIVI
è detta equazione di Schrödinger degli stati stazionari ed è una equazione lineare del secondo ordine
a coefficienti, in generale, non costanti. La variabilità dei coefficienti rende la studio di questo
tipo di equazioni completamente diverso dallo studio delle equazioni a coefficienti costanti (come
l’equazione (1.12) del moto armonico o l’equazione (1.18) per i circuiti RLC). Vedremo un esempio
nel Capitolo 6.
Le soluzioni dipendono dal tipo di energia potenziale considerata. Le condizioni di regolarità che
devono essere richieste per avere soluzioni fisicamente significative (in primis la condizione di essere
a quadrato integrabile) individuano una successione ψn di funzioni e di valori En corrispondenti.
Questi ultimi, che si dimostrano essere numeri reali, hanno il significato di energia totale dello stato
stazionario individuato dalla corrispondente soluzione: ne risulta la quantizzazione dell’energia del
sistema.
Caso del potenziale armonico. Nel caso monodimensionale, se
U (x) =
1
Kx2
2
eseguiamo, nella (1.29), il cambiamento di variabili:
ξ = αx, u(x) = u(ξ/α) =: v(ξ),
dove
α=
Poiché u(x) = v(αx), si ottiene l’equazione:
mK 1/4
~2
.
v ′′ (ξ) + (ε − ξ 2 )v(ξ) = 0,
(1.30)
dove si è posto ε = 2α2 E/K. L’ulteriore cambiamento di variabile:
1
v(ξ) = H(ξ)e− 2 ξ
2
conduce (svolgere i calcoli) all’equazione di Hermite
H ′′ − 2ξH ′ + (ε − 1)H = 0.
(1.31)
A partire da questa è possibile ricavare la famiglia dei cosiddetti polinomi di Hermite, mediante i
quali rappresentare la generica soluzione dell’equazione di Schrödinger degli stati stazionari.
1.8 ELASTICHE PIANE; UN ESEMPIO DI PROBLEMI AI LIMITI
In questo paragrafo accenniamo alla modellizzazione matematica delle cosiddette verghe elastiche
nel caso piano. Una verga è un solido deformabile che, dal punto di vista geometrico è rappresentabile
mediante una linea γ (pertanto supponiamo che la sezione sia di ampiezza trascurabile rispetto alla
lunghezza), mentre dal punto di vista meccanico soddisfa opportune richieste, di seguito precisate,
sugli sforzi interni che si producono in presenza di sollecitazioni.
Sia ϕ : [a, b] → R3 una rappresentazione parametrica semplice e C 1 della curva γ; poniamo
A = ϕ(a) e B = ϕ(b). Supponiamo che la verga AB sia in equilibrio sotto l’azione di date
forze esterne. Comunque preso il punto P = ϕ(t), se immaginiamo di rimuovere il tratto P B, la
parte rimanente AP non sarà più, in generale, in equilibrio. Per ripristinarne l’equilibrio dobbiamo
applicare in P un sistema di forze che traduce l’azione di P B su AP : tale sistema si può ridurre
ad una forza T e una coppia di momento Γ. I due vettori T e Γ caratterizzano gli sforzi interni nel
15
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
u
A=O
F(A)
F(B)
b
x
Figura 1.7 - Una verga elastica piana sollecitata da forze opposte applicate agli estremi.
punto P .10 Supporremo regolari quanto sarà necessario le due funzioni T e Γ che risultano cosı̀
definite su [a, b]. La componente di T tangente alla curva e la componente nel piano normale sono
dette rispettivamente sforzo assiale e sforzo di taglio, mentre le componenti tangente e normale di Γ
si dicono momento torcente e momento flettente, rispettivamente.
Particolarizziamo ora la situazione: consideriamo verghe che giacciono su un piano, diciamo xy,
e sono soggette solamente a forze di questo piano applicate agli estremi: siano esse F(A) e F(B).
Poiché il sistema è in equilibrio deve essere F(A) + F(B) = 0. Del resto, fissato arbitrariamente un
punto P della linea, per definizione di T e Γ anche il tratto AP è in equilibrio sotto l’azione delle
forze F(A) e T(P ) e del momento Γ(P ) applicato in P . Pertanto deve essere:
F(A) + T(P ) = 0,
(P − A) ∧ T(P ) + Γ(P ) = 0.
In particolare la forza T è costante e vale la relazione:
Γ(P ) = (P − A) ∧ F(A), per ogni punto P di AB.
(1.32)
Allora il momento Γ è in ogni punto perpendicolare al piano xy della verga, e quindi è un momento
flettente: Γ = Γz k.
Le condizioni di equilibrio, in particolare l’equazione (1.32), non possono essere da sole sufficienti
per determinare la configurazione di equilibrio una volta note le forze applicate: infatti deve essere
nota una relazione costitutiva che specifichi il legame fra gli sforzi interni e la variazione della
configurazione corrispondente. Si è rivelata modellisticamente proficua, come relazione costitutiva,
l’ipotesi (risalente a Eulero) che
il momento flettente è proporzionale alla variazione ∆κ della curvatura della verga.
La costante di proporzionalità dipende dalla natura della verga (materiale utilizzato, dimensione
della sezione trasversale, ecc.). Per tradurre analiticamente la relazione costitutiva, ci poniamo nella
situazione particolare in cui la verga, in assenza di sollecitazione, sia rettilinea, disposta come l’asse x
e che le forze applicate agli estremi siano (opposte e) disposte anch’esse come l’asse x. Supponiamo
inoltre che la configurazione di equilibrio che si realizza con questo sistema di forze sia rappresentabile
come grafico y = u(x) di una funzione u : [0, b] → R (vedi Figura 1.7). Poiché in condizioni di
riposo la verga è rettilinea, la variazione di curvatura prodotta coincide con la curvatura stessa, cioè:
3/2
κ = u′′ (x) 1 + u′ (x)2
. Cosı̀ espressa la curvatura presenta segno positivo o negativo nei punti
di convessità o concavità, rispettivamente; queste due situazioni corrispondono a momenti flettenti
10 I
concetti ora esposti trovano la loro naturale collocazione nello studio dei continui deformabili, per i quali svolge un ruolo
chiave il cosiddetto tensore degli sforzi. Per una trattazione approfondita rimandiamo ai testi dedicati all’argomento (citiamo,
ad esempio, [6]).
16
Capitolo 1 - ESEMPI INTRODUTTIVI
Γz k con Γz ≥ 0 o Γz ≤ 0, rispettivamente. Tenendo conto di ciò possiamo tradurre la relazione
costitutiva nell’equazione:
u′′ (x)
Γz = K
3/2 ,
1 + u′ (x)2
con K costante positiva. Posto F(A) = f i, con f > 0, abbiamo
(P − A) ∧ F(A) = (xi + u(x)j) ∧ f i = −f u(x)k.
Allora la (1.32) diventa:
Ku′′ (x)
cioè
1 + u′ (x)2
3/2
= −f u(x),
u′′ (x) + λu(x) 1 + u′ (x)2
3/2
= 0,
(1.33)
con λ = f /K > 0. Questa è la cosiddetta equazione delle linee elastiche piane.
L’equazione (1.33) è un’equazione del secondo ordine non lineare,poiché l’operatore differenziale
a primo membro non è lineare nella derivata prima. Se la configurazione di equilibrio y = u(x) si
discosta poco dalla configurazione rettilinea è però possibile trascurare il termine u′ nell’espressione
della curvatura, ottenendo cosı̀ l’equazione
u′′ (x) + λu(x) = 0,
cioè l’equazione del moto armonico.
Nelle ipotesi in cui ci siamo posti, la configurazione di equilibrio è soluzione di un problema
del secondo ordine di tipo differente rispetto ai problemi ai valori iniziali per equazioni del secondo
ordine di cui abbiamo incontrato un esempio in (1.15). Infatti ora cerchiamo, fra le soluzioni della
(1.33), quelle che verificano le condizioni agli estremi u(0) = u(b) = 0, quindi:

 u′′ (x) + λu(x) 1 + u′ (x)2 3/2 = 0 ,
(1.34)

u(0) = u(b) = 0 .
Si tratta di un cosiddetto problema ai limiti per un’equazione del secondo ordine. Per questo tipo di
problemi accenneremo solamente, nel paragrafo 6.1, al caso particolare dell’equazione linearizzata
u′′ + λu = 0, per la quale, come vedremo, incontreremo lo stesso problema ai limiti in un contesto
molto differente.
1.9 EQUAZIONI IN FORMA NORMALE. RAPPRESENTAZIONE DELLE SOLUZIONI.
Molti problemi e risultati fondamentali per le equazioni differenziali presentate nei paragrafi precedenti possono essere utilmente inquadrati in una teoria generale. Cerchiamo innanzitutto di unificare,
anche dal punto di vista notazionale, le equazioni incontrate finora.
Sia D un aperto di Rn+1 e f : D → Rn una funzione continua.
Definizione 1.9.1 Diciamo che una funzione x : J → Rn è soluzione dell’equazione differenziale:
x′ = f (t, x)
(1.35)
1
n
se J è un intervallo, x ∈ C (J; R ), risulta t, x(t) ∈ D per ogni t ∈ J e
x′ (t) = f t, x(t)
per ogni t ∈ J.
17
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Le equazioni della forma (1.35) si dice che sono poste in forma normale. Useremo in genere la parola
‘equazione’ anche nel caso dei ‘sistemi’ di equazioni, cioè n > 1.
In questa tipologia, con n = 1, rientrano palesemente le equazioni (1.1), (1.16), (1.17) precedentemente incontrate; nel caso n = 2, invece, rientrano gli esempi (1.19), (1.21) e (1.22).
Il significato modellistico delle soluzioni già motiva l’opportunità di considerare come soluzioni
funzioni definite su intervalli (non è ammessa una discontinuità temporale): se matematicamente una
funzione è definita sull’unione di due intervalli disgiunti e risolve l’equazione, intenderemo che dà
luogo a due soluzioni. Questa convenzione semplificherà anche alcuni degli enunciati generali che
verranno esposti nel seguito.
Definizione 1.9.2 Dato (t0 , x0 ) ∈ D, diciamo soluzione del problema ai valori iniziali (o di
Cauchy):
′
x = f (t, x)
x(t0 ) = x0
ogni funzione x che sia una soluzione di x′ = f (t, x) in un intervallo J contenente t0 e si abbia
x(t0 ) = x0 . Diremo anche che la soluzione x passa per il punto (t0 , x0 ).
L’estensione al secondo ordine della forma normale (1.35) è:
x′′ (t) = f (t, x(t), x′ (t)),
(1.36)
con f : D → Rn funzione continua su un aperto D ⊆ R2n+1 . È facile vedere che in questa tipologia
rientrano le equazioni (1.12), (1.25), (1.29) o (1.31), e (1.33) precedentemente incontrate. Tuttavia
le equazioni (1.36) possono essere equivalentemente trasformate in equazioni in forma normale del
primo ordine, a patto di aumentare il numero delle equazioni e delle funzioni incognite. Infatti, se
poniamo
x′ = v,
l’equazione (1.36) si trasforma nel sistema del primo ordine:
′
x =v
v ′ = f (t, x, v)
che possiamo anche scrivere, in forma più compatta, come:
u′ = F (t, u(t))
(1.37)
con
u = (x, v) e
F (t, u) = (v, f (t, x, v)).
È facile vedere la generalizzazione a equazioni differenziali di ordine n del tipo:
x(n) = f t, x(t), x′ (t), x′′ (t), . . . , x(n−1) (t) ,
(1.38)
dette in forma normale. Anche per esse possiamo ricondurci allo studio di un’equazione del primo
ordine; ponendo
x0 = x, x1 = x′ , x2 = x′′ , . . . , xn−1 = x(n−1) ;
otteniamo, equivalentemente
18
 ′

 x′0 = x1


 x1 = x2
...


x′
= xn−1


 x′n−2 = f t, x , x , x , . . . , x
0
1
2
n−1 .
n−1
Capitolo 1 - ESEMPI INTRODUTTIVI
Questo sistema è della forma
u′ = f (t, u),
con u = (x0 , x1 , . . . , xn ),
quindi della forma (1.35). Per l’equazione (1.38) il problema ai valori iniziali:

 x(n) = f t, x(t), x′ (t), x′′ (t), . . . , x(n−1) (t) ,

x(t0 ) = x0 , x′ (t0 ) = x1 , x′′ (t0 ) = x2 , . . . , xn−1 (t0 ) = xn−1 ,
con x0 , x1 , x2 , . . . , xn−1 assegnati, si traduce nel problema ai valori iniziali per il sistema equivalente
del primo ordine con i dati:
x0 (t0 ) = x0 , x1 (t0 ) = x1 , x2 (t0 ) = x2 , . . . , xn−1 (t0 ) = xn−1 ,
secondo la Definizione 1.9.2. Pertanto, possiamo affermare che la teoria dei sistemi di equazioni differenziali ordinarie in forma normale conserva tutta la sua generalità anche se ci si limita a considerare
sistemi del primo ordine.
Nel capitolo successivo svilupperemo gli elementi di base della teoria delle equazioni differenziali
del primo ordine che possono essere poste in forma normale: per esse è infatti possibile sviluppare
un soddisfacente quadro di risultati. La teoria per le equazioni della forma più generale
F t, x(t), x′ (t), x′′ (t), . . . , x(n−1) (t), x(n) (t) = 0
è invece fortemente dipendente dalla tipologia della funzione F .
Poiché alla base della risoluzione di un’equazione differenziale sta un procedimento di integrazione, per indicare la famiglia di tutte le soluzioni di un’equazione differenziale viene spesso utilizzato
il termine di integrale generale dell’equazione stessa.
∼·∼·∼·∼·∼·∼·∼
Nel caso scalare (n = 1) la richiesta che una funzione x : J → R di classe C 1 sia soluzione
dell’equazione x′ = f (t, x) si traduce nella condizione che il suo grafico sia contenuto in D (dominio
di f ) e in ogni suo punto (t, x(t)) la retta tangente abbia pendenza f (t, x(t)) (Figura 1.9). Un discorso
analogo, anche se di minor efficacia dal punto di vista grafico, può essere svolto nel caso generale
n ≥ 1 relativamente alle tangenti alla curva t 7→ (t, x(t)) nello spazio delle coordinate tx.
Particolarmente importante, anche dal punto di vista grafico, è la situazione in cui la funzione f
non dipende dalla variabile t (nella notazione della (1.35)). Sia Ω un sottoinsieme aperto di Rn e
f : Ω → Rn
continua;
l’equazione (sistema di equazioni):
x′ = f (x)
è detta autonoma. Gli esempi precedentemente visti rientrano tutti in questa categoria (a parte i casi
generali esposti nei § 1.1 e § 1.5, in cui i tassi di variazione dipendono dal tempo). Per equazioni di
ordine superiore si utlizza il termine autonomo nel caso in cui tale sia il sistema equivalente del primo
ordine. Cosı̀, è autonoma l’equazione (1.25) del pendolo semplice o la (1.33) delle linee elastiche;
mentre non è di tipo autonomo l’equazione (1.29): infatti i coefficienti dell’equazione dipendono da
x, per cui il sistema equivalente (ponendo y0 = u)
 ′

 y0 = y1
2m

 y1′ =
(U (x) − E)y0
~2
19
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
y
pendenza=f (t,x(t))
(t,x(t))
t
t
Figura 1.8 - La condizione che la funzione (scalare) x sia soluzione dell’equazione x′ = f (t, x) si
traduce geometricamente nella condizione che il grafico di x abbia in ogni punto come pendenza
proprio il valore di f in quel punto.
γy
y(·)
y(t0 )
f (y(t0 ))
J
Figura 1.9 - Rappresentazione grafica di una soluzione: γy è il luogo descritto dal punto y(t) al
variare di t ∈ J.
non è di tipo autonomo (a meno che il potenziale non sia costante).
L’insieme Ω è lo spazio degli stati: se y(·) è una soluzione, il valore y(t) rappresenta lo ‘stato’ del
‘sistema’ (fisico, naturale, . . . ) all’istante di tempo t: la consistenza della popolazione che evolve
secondo la (1.3) o la (1.5), la carica o l’intensità di corrente nei circuiti di cui alle (1.16) o (1.17),
il valore della coppia i = (i1 , i2 ) nel caso dei circuiti accoppiati in (1.19), il valore della coppia
preda-predatore nelle equazioni (1.20) di Lotka-Volterra, ecc. Per le equazioni del secondo ordine,
come la (1.12) (oscillatore armonico), in cui la grandezza è la posizione di un punto (o di un sistema di
punti), lo spazio degli stati per il sistema equivalente del primo ordine diventa lo spazio delle coppie
posizione-velocità (e si parla anche di spazio delle fasi).
Le soluzioni danno luogo a curve in Ω che sono tangenti al campo f in ciascun punto (vedi Figura
1.9). La conoscenza del campo vettoriale f (indipendente dal ‘tempo’) permette cosı̀ di ricavare
informazioni sulle ‘traiettorie’ del punto y(t).
Ad esempio, in Figura 1.10 è rapresentato il campo vettoriale relativo all’equazione (1.20) o (1.21):
si intuisce che le curve-soluzione “ruotano attorno al punto di equilibrio” (x01 , x02 ) = (γ/δ, α/β).
20
Capitolo 1 - ESEMPI INTRODUTTIVI
x2
1.8
1.6
1.4
1.2
1
0.8
0.6
0.4
0.2
0
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
x1
Figura 1.10 - Campo f per il sistema (1.20) (nel caso α = β = γ = δ = 1). Qui il punto di equilibrio
(x01 , x02 ) è (1, 1).
21
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
x2
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
x1
Figura 1.11 - Campo f per il sistema (1.22) (nel caso α = β = γ = δ = µ = 1 e λ = 1/2). Qui il
punto di equilibrio (x01 , x02 ) è (4/3, 1/3).
La Figura 1.11 è invece relativa all’equazione (1.22) nel caso in cui il “punto di equilibrio” (x01 , x02 )
corrispondente alla soluzione costante che annulla il secondo membro dell’equazione sia in R+ × R+ .
Si intuisce un movimento a spirale verso (x01 , x02 ).
Rimandiamo al § 2.6 per alcuni concetti di base sui sistemi automoni.
22
Capitolo 2
PROBLEMI AI VALORI INIZIALI PER SISTEMI
DEL PRIMO ORDINE
In questo capitolo esponiamo i risultati di base relativi alle soluzioni dei sistemi di equazioni differenziali del primo ordine in forma normale. Un ruolo chiave è svolto dallo studio del problema ai
valori iniziali: dopo averne illustrato i classici risultati di esistenza e unicità, viene affrontata l’indagine dell’ampiezza dell’intervallo su cui possiamo garantire l’esistenza di una soluzione. Il contesto
porge l’occasione per presentare due risultati (Lemma di Gronwall e disuguaglianze differenziali)
che forniscono importanti strumenti di stima per le soluzioni di un’equazione differenziale, strumenti
spesso utili nel problema della determinazione del più ampio intervallo di esistenza delle soluzioni.
Un altro aspetto che verrà preso in considerazione, e la cui rilevanza è messa bene in luce dagli esempi del capitolo precedente, riguarda l’analisi della dipendenza delle soluzioni dai vari dati
del problema: è infatti essenziale, per l’utilizzo di un modello matematico, che al variare dei parametri che intervengono nell’equazione (spesso noti a meno di un’approssimazione sperimentale) la
corrispondente soluzione vari almeno con continuità.
Il capitolo si chiude con l’esposizione dei concetti chiave che verranno utilizzati nel seguito
riguardo all’importante classe dei sistemi autonomi.
2.1 RISULTATI DI ESISTENZA ED UNICITÀ
Sia D un aperto di Rn+1 e f : D → Rn una funzione continua. Ci occupiamo dell’esistenza di
soluzioni per l’equazione
x′ = f (t, x)
(2.1)
con il valore iniziale x(t0 ) = x0 , dove (t0 , x0 ) è un dato punto di D. Stiamo pertanto considerando
il problema ai valori iniziali, o problema di Cauchy,
′
x = f (t, x)
(P )
x(t0 ) = x0 .
Ricordiamo che, nella definizione di soluzione, abbiamo posto la richiesta che il dominio sia un
intervallo (vedi § 1.9).
Premettiamo una caratterizzazione integrale delle soluzioni del problema (P ).
Lemma 2.1.1 Sia x una funzione continua su un intervallo J e tale che t, x(t) ∈ D per ogni
t ∈ J. Sia (t0 , x0 ) ∈ D. Allora le seguenti condizioni sono equivalenti:
a) x è soluzione di (P );
23
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
b) x(t) = x0 +
Z
t
t0
f s, x(s) ds per ogni t ∈ J.
Dimostrazione. Una semplice applicazione del teorema fondamentale del calcolo integrale. Ricordiamo che una funzione g : A → Rk , con A ⊆ Rm insieme dato, si dice lipschitziana su un
insieme E ⊆ A se esiste una costante LE ≥ 0 tale che
|g(x1 ) − g(x2 )| ≤ L|x1 − x2 |
comunque presi x1 , x2 ∈ E. Nel seguito utilizzeremo, per la funzione f di cui all’equazione (2.1), la
cosiddetta condizione di lipschitzianità nella seconda variabile, uniformemente rispetto alla prima,
su un insieme E ⊆ D, condizione che si traduce nella richiesta che esista una costante LE > 0 per
la quale
|f (t, x1 ) − f (t, x2 )| ≤ LE |x1 − x2 |
comunque presi (t, x1 ), (t, x2 ) ∈ E. Nel caso in cui questa condizione sia richiesta su ogni compatto
K di D parleremo di lipschitzianità locale di f su D (nella seconda variabile, uniformemente rispetto
alla prima).
Mediante il teorema del valor medio non è difficile vedere come la condizione f ∈ C 1 (D; Rk )
assicuri la condizione di lipschitzianità locale nell’ipotesi che D sia convesso. In realtà si può
dimostrare come sia sufficiente che D sia un aperto connesso. Vale infatti il seguente risultato.
Proposizione 2.1.2 Ogni funzione g ∈ C 1 (G; Rk ), con G sottoinsieme aperto di Rm , è lipschitziana su ciascun sottoinsieme compatto di G.
Dimostrazione. Sia K ⊆ G compatto. Se g non fosse lipschitziana, per ogni j ∈ N esisterebbero
K
x1j , x2j ∈ K tali che
|g(x1j ) − g(x2j )| > j|x1j − x2j | .
(2.2)
Poiché K è compatto possiamo supporre (a meno di passare a sottosuccessioni) che (x1j )j e (x2j )j
siano convergenti. Dal momento che
2
max |g| −→ 0 ,
j→+∞
j K
|x1j − x2j | ≤
il limite delle due successioni è uno stesso punto x ∈ K. Sia r > 0 tale che Br (x) ⊆ G; per j
sufficientemente grande risulta x1j , x2j ∈ Br (x). Possiamo allora definire la funzione ϕ : [0, 1] → Rk
ϕ(t) = g x1j + t(x2j − x1j ) .
Risulta:
g(x2j )
= ϕ(1) = ϕ(0) +
Z
1
ϕ′ (s) ds
0
= g(x1j ) +
Z
0
1
Dg x1j + s(x2j − x1j ) · (x2j − x1j ) ds ;
quindi
|g(x2j ) − g(x1j )| ≤ max |Dg| |x2j − x1j |.
B r (x)
Ciò contraddice la (2.2). 24
Capitolo 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE
x
R
D
(t0 ,x0 )
x0
t0
t
Figura 2.1 - Se Ra,b (t0 , x0 ) ⊆ D l’esistenza di una soluzione soddifacente al dato x(t0 ) = x0 è
garantita nell’intervallo [t0 − α, t0 + α], con α = min(a, b/ maxR |f |) (Teorema 2.1.3).
Siano ora a, b > 0 tali che il “rettangolo” (vedi Figura 2.1)
R = Ra,b (t0 , x0 ) = [t0 − a, t0 + a] × B b (x0 )
sia contenuto in D (con B b (x0 ) intendiamo la chiusura della palla di centro x0 e raggio b).
Teorema 2.1.3 (Esistenza e unicità) (Picard-Lindelöf) Supponiamo che in D la funzione
f = f (t, x) sia continua e sia localmente lipschitziana nella seconda variabile uniformemente
rispetto alla prima. Sia Ra,b (t0 , x0 ) ⊆ D. Allora:
a) il problema (P ) ammette soluzione nell’intervallo [t0 − α, t0 + α], dove
α = min a,
essendo M una limitazione per |f | su R.
b ,
M
b) esiste al più una soluzione del problema (P ), nel senso che se x1 , x2 sono due soluzioni di (P )
in un intorno J (destro o sinistro) di t0 contenuto in [t0 − α, t0 + α], allora x1 = x2 in J.
Dimostrazione. a) (Esistenza) In base al lemma precedente ricerchiamo una funzione x continua
in I = [t0 − α, t0 + α] il cui grafico sia contenuto in D e tale che
Z t
f s, x(s) ds
per ogni t ∈ I.
(2.3)
x(t) = x0 +
t0
Osserviamo che, data una funzione x ∈ C 0 (I; Rn ), se il suo grafico è contenuto in R, allora la
funzione
Z t
f s, x(s) ds
T x : t 7→ x0 +
t0
25
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
è definita in I e ha anch’essa il grafico in R. Infatti, per ogni t ∈ I
Z
t
(T x)(t) − x0 ≤ f s, x(s) ds ≤ M |t − t0 | ≤ b.
t0
0
Allora T è un operatore da C I; B b (x0 ) in sé, per cui possiamo definire, per ricorrenza, la seguente
successione di funzioni:
x0 (·) ≡ x0
xk+1 = T xk (k = 0, 1, 2 . . .)
Dimostriamo che (xk ) converge uniformemente in I a una funzione continua x. Innanzitutto risulta:
Z
t
|x1 (t) − x0 (t)| ≤ f (s, x0 ) ds ≤ M |t − t0 |;
t0
mediante questa stimiamo analogamente |x2 (t)−x1 (t)|, tenendo conto della lipschitzianità di f nella
seconda variabile:
Z
t
|x2 (t) − x1 (t)| ≤ f (s, x1 (s)) − f (s, x0 (s) ds
t0
Z
Z
t
t
≤L
|x1 (s) − x0 (s)| ds ≤ M L
|s − t0 | ds
t0
t0
(L è una costante di Lipschitz di f su R), da cui
|x2 (t) − x1 (t)| ≤
1
M L|t − t0 |2 .
2
Un semplice ragionamento per induzione porta a:
|xk+1 (t) − xk (t)| ≤
1
M Lk |t − t0 |k+1 .
(k + 1)!
(2.4)
Allora comunque presi k, j ∈ N
|xk+j (t) − xk (t)| ≤ |xk+j (t) − xk+j−1 (t)| + |xk+j−1 (t) − xk+j−2 (t)| + . . .
≤
M
L
∞
X
h
h=k+1
. . . + |xk+1 (t) − xk (t)|
(αL)
→ 0 per k → ∞.
h!
Pertanto:
max |xk+j (t) − xk (t)| → 0 per k → ∞ e per ogni j.
t∈I
Per il criterio di Cauchy per la convergenza uniforme la successione (xk ) converge uniformemente
in I e la funzione limite x è ivi continua.
Dalla definizione di (xk ) abbiamo
Z t
f s, xk (s) ds
per ogni t ∈ I.
xk+1 (t) = x0 +
t0
La convergenza uniforme di (xk ) a x in I assicura che f (·, xk (·)) converge uniformemente in I alla
funzione f (·, x(·)) (se ne lascia la verifica al lettore), per cui possiamo passare al limite sotto il segno
di integrale, ottenendo:
Z t
f s, x(s) ds
per ogni t ∈ I.
x(t) = x0 +
t0
26
Capitolo 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE
Per il Lemma 2.1.1 la funzione x è soluzione del problema (P ).
b) (Unicità) Sia ora z una qualunque soluzione del problema (P ) in un intorno destro [t0 , t0 + δ] di
t0 , con δ ≤ α (analogamente si procede per un intorno sinistro). Stimiamo la differenza fra z e gli
elementi della successione (xk ) costruita sopra. Per ogni t ∈ [t0 , t0 + δ]
z(t) = x0 +
Z
t
t0
Quindi,
f s, z(s) ds.
|z(t) − x0 (t)| ≤ M1 (t − t0 ),
. Detta L1 una
dove M1 è una limitazione di |f | su un compatto contenente il grafico di z
[t0 ,t0 +δ]
costante di Lipschitz per f su un compatto contenente z
e R, se procediamo in modo analogo
[t0 ,t0 +δ]
a quanto fatto per stimare |x2 − x1 |, abbiamo:
|z(t) − x1 (t)| ≤ Z
t
t0
f (s, z(s)) − f (s, x0 (s) ds ≤ L1
≤ M1 L1
Z
t
t0
|s − t0 | ds =
Z
t
t0
|z(s) − x0 (s)| ds
1
M1 L1 (t − t0 )2 .
2
Iterando il procedimento otteniamo cosı̀
|z(t) − xk (t)| ≤
1
M1 Lk1 (t − t0 )k+1
(k + 1)!
per ogni t ∈ [t0 , t0 + δ].
Al tendere di k all’infinito risulta x(t) = z(t). Il teorema precedente può essere sostanzialmente riformulato come segue:
Teorema 2.1.4 Sia f = f (t, x) localmente lipschitziana su D in x uniformemente rispetto a t.
Allora il problema (P ) ammette, in un opportuno intorno di t0 , una e una sola soluzione.
Osservazione 2.1.5 [Unicità locale e globale] L’unicità di cui al teorema precedente è locale, nel
senso che è ristretta alla considerazione dell’intorno [t0 − α, t0 + α]. A partire da ciò si può tuttavia
ottenere facilmente un risultato di unicità globale. Più precisamente, dimostriamo che se x1 , x2 sono
due soluzioni del problema (P ) negli intervalli J1 e J2 rispettivamente, allora x1 e x2 coincidono su
J := J1 ∩ J2 , e quindi è individuata un’“unica soluzione” su tutto l’intervallo J1 ∪ J2 . Poniamo
t = sup{t ∈ J : t ≥ t0 , x1 = x2 in [t0 , t]}
(per t ≤ t0 si procede in modo analogo). Se t = sup J non vi è nulla da dimostrare. Altrimenti x1
e x2 sarebbero definite in un intorno destro di t e coinciderebbero in t (per continuità); per l’unicità
asserita nel Teorema 2.1.3 (applicato con t in luogo di t0 ) si avrebbe x1 = x2 in un intorno destro di
t, contro la definizione di t.
In modo differente l’unicità globale delle soluzioni può anche essere enunciata dicendo che due
soluzioni dell’equazione x′ = f (t, x) o hanno grafici disgiunti o coincidono.
Ai fini dell’esistenza di una soluzione del problema (P ) la lipschitzianità di f non è necessaria.
Vale infatti il seguente risultato.
Teorema 2.1.6 (Peano) Sia R = Ra,b (t0 , x0 ) come sopra. Allora:
27
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
x
t2 /4
(t − c)2 /4
c
Figura 2.2 - Soluzioni distinte del problema di Cauchy x′ =
t
p
|x|, x(0) = 0.
il problema (P ) ammette soluzione nell’intervallo [t0 − α, t0 + α], dove
` b ´
α = min a,
,
M
essendo M una limitazione per |f | su R.
In assenza della condizione di lipschitzianità può venire a mancare l’unicità. Si consideri, ad
esempio, la funzione :
p
f (x) = |x| ,
che non è lipschitziana intorno all’origine. Il problema (P ) con (t0 , x0 ) = (0, 0) ha come soluzioni,
oltre la funzione nulla, tutte quelle della seguente forma, al variare di c ≥ 0 (vedi Figura 2.2):

 1 (t − c)2
se t ≥ c
x(t) = 4
(2.5)

0
se t ≤ c.
In vista degli sviluppi successivi è utile esplicitare il fatto che il valore α relativo all’ampiezza
dell’intervallo di esistenza del problema (P ) garantita dal Teorema di Peano possa essere stimata
uniformemente rispetto al punto (t0 , x0 ) se questo varia in un compatto K in D. Più precisamente:
Corollario 2.1.7 Se K ⊆ D è compatto, esiste α > 0 tale che per ogni (t0 , x0 ) ∈ K il problema
(P ) ha una soluzione definita nell’intervallo [t0 − α, t0 + α].
Dimostrazione. È sufficiente osservare che il Teorema di Peano può essere applicato, per ogni
(t0 , x0 ) ∈ K, con a e b dipendenti soltanto da dist(K, ∂D) > 0. 2.2 PROLUNGAMENTO DELLE SOLUZIONI
Come risulta evidente dall’esempio x′ = f (t, x) con f (t, x) = x2 (vedi esercizi alla fine del paragrafo), anche se la funzione f è ovunque definita e regolare non è detto che le soluzioni della
corrispondente equazione siano definite su tutto R.
28
Capitolo 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE
Vediamo ora alcuni risultati sulla prolungabilità delle soluzioni.
Sia D aperto di Rn+1 e f : D → Rn continua. Data una soluzione x : J → Rn di (2.1), chiamiamo
prolungamento di x ogni soluzione x̂ che sia definita su un intervallo Jˆ strettamente contenente J. Se
x non ammette prolungamenti allora diciamo che è definita su un intervallo massimale di esistenza.
(Si pensi, ad esempio, alle soluzioni dell’equazione x′ = x2 ).
Prima di enunciare il principale risultato sulla prolungabilità delle soluzioni conviene svolgere
una semplice osservazione, la cui dimostrazione è lasciata per esercizio.
Osservazione 2.2.1 Se x è soluzione di (2.1) in (a, b) ed esiste finito
lim x(t) = l,
t→b−
con (b, l) ∈ D,
allora x può essere estesa in modo C 1 in (a, b] e
x′ (b) = f (b, x(b)),
cioè x è soluzione di (2.1) in (a, b]. (Si utilizzi il teorema del valor medio).
Teorema 2.2.2 (prolungamento massimale) Sia D aperto di Rn+1 e f : D → Rn continua. Ogni soluzione x di (2.1) ammette un prolungamento ad un intervallo massimale di esistenza
(ω− , ω+ ). Inoltre (t, x(t)) “abbandona definitivamente” ogni compatto di D per t → ω± , cioè
comunque preso K compatto contenuto in D, esiste un intorno U di ω+ [e, analogamente, di ω− ]
tale che
(t, x(t)) ∈
/K
per t ∈ (ω− , ω+ ) ∩ U .
Scriveremo sinteticamente questa proprietà come:
(t, x(t)) → ∂D
per t → ω±
(2.6)
Osservazione 2.2.3 In assenza di ipotesi di unicità per le soluzioni dei problemi dipCauchy il
prolungamento massimale non è necessariamente unico. Si pensi all’equazione y ′ = |y| e alle
soluzioni (2.5), tutte definite su intervalli massimali e coincidenti su (−∞, c].
Dimostrazione (del Teorema 2.2.2). Sia x : J → Rn soluzione di (2.1). Occupiamoci del prolungamento a destra. Sia a un punto di J e b = sup J. Se J è massimale allora deve essere b ∈
/ J:
infatti, in caso contrario, il problema di Cauchy con dato iniziale x(b) in b permetterebbe di estendere
l’intervallo di esistenza, che pertanto non sarebbe massimale. Quindi se J è massimale (destro) allora
è aperto a destra.
Se J non è un intervallo massimale (destro) allora possiamo supporre che x sia prolungabile
almeno in b. Pertanto è lecito assumere che x : [a, b] → Rn .
Passo 1. Sia K un qualunque compatto contenuto in D e contenente il grafico di x. In base al
Corollario 2.1.7 esiste αK > 0 tale che il problema ai valori iniziali
′
z = f (t, z)
z(t0 ) = z0
ha soluzione nell’intervallo [t0 − αK , t0 + αK ] comunque preso (t0 , z0 ) ∈ K. Scegliendo (t0 , z0 ) =
(b, x(b)) possiamo prolungare x fino a b + αK ; se (b + αK , x(b + αK )) ∈ K possiamo ulteriormente
prolungare x fino a b + 2αK . Ripetendo il ragionamento un numero finito di volte si ottiene bK tale
che (bK , x(bK )) ∈
/ K.
Passo 2. Sia (Vk ) una successione crescente di aperti di D a chiusura compatta in D:
Vk ⊆ Vk+1 ⊂⊂ D.
29
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Supponiamo inoltre che V1 contenga il grafico di x e che
(t, x(t)) ∈ V1
S
Vk esaurisca D:
[
per ogni t ∈ [a, b];
Vk = D.
Per ricorrenza sia bk = bV k il valore costruito al passo precedente per K = V k a partire dal
prolungamento ottenuto su [a, bk−1 ]. Possiamo supporre che
• (bk ) sia non decrescente;
• (bk ) sia limitata superiormente (altrimenti si avrebbe un prolungamento ad [a, +∞), che è già
massimale).
Allora (bk ) converge ad un valore reale ω+ cosı̀ che abbiamo ottenuto un prolungamento ad [a, ω+ ).
Mostriamo che tale prolungamento è massimale (destro). Se infatti cosı̀ non fosse x sarebbe
prolungabile in ω+ , quindi per continuità si avrebbe:
(bk , x(bk )) → (ω+ , x(ω+ )) ∈ D;
del resto, fissato N ∈ N, risulta:
(bk , x(bk )) ∈
/ V k ⊇ VN
per ogni n ≥ N ;
quindi
(bk , x(bk )) ∈
/ VN
per ogni n ≥ N ,
da cui (ω+ , x(ω+ )) ∈
/ VN . Per l’arbitrarietà di N ∈ N concludiamo che
[
(ω+ , x(ω+ )) ∈
/
VN = D : assurdo.
N
Per ora abbiamo dimostrato che è sempre possibile estendere x ad un intervallo massimale destro
e che tale intervallo è aperto a destra.
Passo 3. Rimane da dimostrare che (t, x(t)) → ∂D per t → ω+ .
Se ω+ = +∞ non c’è nulla da dimostrare; sia pertanto ω+ < +∞. Per assurdo supponiamo che
esista K compatto di D e una successione tk → ω+ tali che:
(tk , x(tk )) ∈ K.
Assumiamo (tk ) strettamente crescente. Per la compattezza di K possiamo anche supporre che
(tk , x(tk )) → (ω+ , x) ∈ K.
Passo fondamentale è ora dimostrare che non si ha solo x(tk ) → x, ma
lim x(t) = x.
(2.7)
t→ω+
Dobbiamo pertanto escludere la possibile non esistenza del limite di x per t → ω+ (vedi Figura 2.3).
Sia B una palla chiusa di centro (ω+, x) e tutta contenuta in D. Possiamo supporre che (tk, x(tk )) ∈
B per ogni k. Sia M = maxB |f |. Se sapessimo che (s, x(s)) ∈ B per ogni s in un intorno di ω+
allora per k sufficientemente grande, diciamo k ≥ k, e τ ≥ tk :
Z τ
|f (s, x(s))| ds ≤ M (τ − tk )
|x(τ ) − x(tk )| ≤
tk
≤ M (ω+ − tk ) → 0
30
per k → +∞;
Capitolo 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE
y
D
K
tk
ω+
t
y(·)
Figura 2.3 - La negazione che x(t) → ∂D per t → ω+ porta ad un assurdo (vedi Passo 3 della
dimostrazione del Teorema 2.2.2).
di conseguenza se ne dedurrebbe facilmente la (2.7): infatti, se k ≥ k soddisfa la disuguaglianza ora
ottenuta, per ogni τ ≥ tk abbiamo:
|x(τ ) − x| ≤ |x(τ ) − x(tk )| + |x(tk ) − x|
≤ M |ω+ − tk | + |x(tk ) − x| → 0
(2.8)
Consideriamo pertanto l’insieme dei valori τ per i quali vale la disuguaglianza |x(τ ) − x(tk )| ≤
M (ω+ − tk ) o, più precisamente, per ogni k consideriamo
ωk = sup{t ∈ [tk , ω+ ) : |x(τ ) − x(tk )| ≤ M (ω+ − tk ) per ogni τ ∈ [tk , t]}.
Mostriamo che ωk = ω+ per k sufficientemente grande. Osserviamo i seguenti due fatti:
• Per ogni t ∈ [tk , ωk ) è lecito applicare la disuguaglianza (2.8). Quindi possiamo affermare che
(t, x(t)) ∈ B
per ogni t ∈ [tk , ωk ) per k sufficientemente grande.
(2.9)
• Per ogni k per il quale sussiste (2.9) e ωk < ω+ (quindi, in particolare, risulta definito x(ωk ))
abbiamo:
Z ωk
|f (s, x(s))| ds ≤ M (ωk − tk ) < M (ω+ − tk ).
|x(ωk ) − x(tk )| ≤
tk
Pertanto esiste ε tale che per ogni ε < ε
|x(ωk + ε) − x(tk )| < M (ω+ − tk );
ciò è assurdo in base alla definizione di ωk .
Abbiamo quindi dimostrato che per tutti i k per i quali vale la (2.9) deve essere ωk = ω+ . Di
conseguenza da (2.8) ricaviamo la (2.7).
Dall’esistenza del limite (2.7) concludiamo che x è prolungabile in ω+ (si ricordi l’Osservazione
2.2.1): assurdo poiché al passo precedente si era dimostrato che [a, ω+ ) è massimale destro. 31
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
x(t0 ) + M |t − t0 |
t0
t
Figura 2.4 - Se la funzione f nell’equazione x′ = f (t, x) è limitata, allora la soluzione è confinata
nella regione |x − x0 | ≤ M |t − t0 |.
Alcune conseguenze: condizioni per l’esistenza globale. Supponiamo che D sia della forma I × Ω,
con I intervallo aperto e Ω aperto di Rn . Sia x : J → Rn una soluzione di (2.1); supponiamo che J
sia un intervallo massimale di esistenza.
a) Se esiste un compatto Y di Ω per il quale
x(t) ∈ Y
per ogni t ∈ J,
allora deve essere J = I: si ha cioè esistenza globale.
Infatti x(t), che rimane confinato in Y , non può raggiungere ∂Ω, per cui l’unico modo di
soddisfare la condizione (2.6) è che J = I.
b) Sia Ω = Rn . Se f è limitata allora J = I (esistenza globale).
Infatti, fissato t0 ∈ I, per ogni t ∈ I si ha:
Z t
|x(t) − x(t0 )| ≤ f (s, x(s)) ds ≤ M |t − t0 |.
(2.10)
t0
Ancora, la condizione (2.6) dà J = I (vedi Figura 2.4).
c) Sia Ω = R (n = 1) ed esistano due funzioni continue u1 , u2 : I → R tali che
u1 ≤ x ≤ u2
in J.
(2.11)
Allora J = I.
Si noti che i casi (b) e (c) si possono ricondurre al punto (a) poiché le stime (2.10) e (2.11)
assicurano che su ogni compatto di I la x rimane in un compatto di Ω = Rn .
32
Capitolo 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE
Definizione 2.2.4 In ipotesi di unicità per i problemi di Cauchy (P ) indicheremo con x(·, t0 , x0 )
l’unica soluzione del problema (P ), definita nel suo intervallo massimale di definizione.
Se D è una striscia della forma I × Rn con I ⊆ R intervallo aperto, il fatto che x(·, t0 , x0 ) sia
definita in tutto I comunque preso (t0 , y0 ) ∈ D viene spesso espresso dicendo che vi è esistenza
globale per l’equazione x′ = f (t, x).
Esercizi
1. Si valuti la massima ampiezza garantita dal Teorema 2.1.3 per l’intervallo di definizione della
soluzione del problema di Cauchy:
′
x = x2
x(0) = x0 .
2. Si dimostri quanto affermato nell’Osservazione 2.2.1.
3. Sia D aperto di Rn+1 e f : D → Rn continua. Siano x1 e x2 soluzioni dell’equazione (2.1) negli
intervalli (a, b] e [b, c), rispettivamente. Dimostrare che se x1 (b) = x2 (b) allora la funzione
x1
in (a, b],
x=
x2
in [b, c)
è soluzione di (2.1) in (a, c).
4. Sia f come sopra. Se f è limitata in D, ogni soluzione x in un intervallo (a, b) ammette limiti
finiti
lim+ x(t) = x(a+ ) e lim− x(t) = x(b− ).
t→a
t→b
−
Se inoltre f è o può essere definita in (b, x(b )) in modo continuo, allora x è soluzione di (2.1) in
(a, b]. Analogamente per l’estremo sinistro a.
5. Se D è della forma I × Rn con I intervallo e f è lipschitziana su tutto D nella seconda variabile, uniformemente rispetto alla prima, come può essere svolto, più rapidamente, il Passo 3 della
dimostrazione del Teorema 2.2.2?
2.3 LEMMA DI GRONWALL
Il Lemma di Gronwall e le disuguaglianze differenziali di cui al successivo paragrafo sono strumenti
che spesso permettono di ottenere stime a priori per le soluzioni di un’equazione differenziale; queste
possono dare luogo a risultati di esistenza globale in connessione con il Teorema 2.2.2.
Ci sarà utile (per la dimostrazione del Lemma di Gronwall) premettere la tecnica risolutiva delle
equazioni differenziali lineari del primo ordine, cioè della forma:
x′ + p(t)x = q(t),
(2.12)
dove p, q sono funzioni continue su un intervallo I.
Sia y : J → R una soluzione. Detta P una primitiva di p, moltiplichiamo entrambi i membri
d
(eP (t) x(t)).
dell’equazione per eP (t) e osserviamo che cosı̀ facendo il primo membro non è altro che dt
Pertanto, passando agli integrali indefiniti:
Z
P (t)
e
x(t) = eP (t) q(t) dt.
33
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Concludiamo che la famiglia delle soluzioni di (2.12) è data da:
Z
x(t) = e−P (t) eP (t) q(t) dt.
In particolare, consideriamo il problema
 ′
 u (t) = β(t)u(t)

u(a) = α
dove β è una funzione continua su un intervallo I, α ∈ R e a è un punto di I. Ricordiamo che la
formulazione integrale di questo problema è:
Z t
u(t) = α +
β(s)u(s) ds.
(2.13)
a
In base a quanto precede, la soluzione è data da:
u(t) = αe
Rt
a
β(s) ds
.
(2.14)
Il Lemma seguente risponde alla domanda: se in (2.13) vale il segno di disuguaglianza, anziché di
uguaglianza, lo stesso si riflette nella (2.14)?
Lemma 2.3.1 (Gronwall) Sia I un dato intervallo e β ∈ C 0 (I), con β ≥ 0. Sia a un punto di
I e sia u ∈ C 0 (I) una funzione per la quale esiste α ∈ R tale che
Z t
β(s)u(s) ds per ogni t ∈ I.
u(t) ≤ α +
a
Allora:
u(t) ≤ αe
Rt
a
β(s) ds
per ogni t ∈ I, con t ≥ a.
Dimostrazione. Poniamo
R(t) =
Z
t
β(s)u(s) ds.
a
Allora (ricordiamo che β ≥ 0)
R′ (t) = β(t)u(t) ≤ β(t) α + R(t) .
Applichiamo alla disuguaglianza R′ (t) − βR(t) ≤ αβ(t) il ragionamento utilizzato poco sopra per
le equazioni differenziali lineari del primo ordine. Sia B la primitiva di β definita da:
Z t
B(t) =
β(s) ds.
a
Allora, moltiplicando per e−B(t) , si ha:
d −B(t)
e
R(t) ≤ αβ(t)e−B(t) .
dt
Integriamo ora fra a e t ≥ a, tenendo conto che R(a) = 0:
34
t
e−B(t) R(t) ≤ −α e−B(s) a = −α(e−B(t) − 1).
Capitolo 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE
Concludiamo ricavando R(t) ≤ −α+αeB(t) e sostituendo tale stima nella disuguaglianza data come
ipotesi. Un’applicazione all’unicità delle soluzioni. Un’efficace dimostrazione alternativa dell’unicità globale, rispetto a quanto già visto nell’Osservazione 2.1.5, si può ottenere facilmente come applicazione
del Lemma di Gronwall.
Proposizione 2.3.2 Sia D aperto di Rn+1 e f : D → Rn funzione continua e localmente lipschitziana nella seconda variabile, uniformemente rispetto alla prima. Siano xi : Ji → Rn (i = 1, 2)
due soluzioni dell’equazione x′ = f (t, x). Se x1 (t0 ) = x2 (t0 ) per qualche t0 ∈ J1 ∩ J2 allora
x1 = x2 su J1 ∩ J2 (e quindi è individuata un’“unica soluzione”, definita su tutto J1 ∪ J2 ).
Dimostrazione. Supponiamo J1 ∩ J2 6= {t0 }, altrimenti non vi è nulla da dimostrare. Prendiamo
in considerazione i valori t ≥ t0 (per t ≤ t0 si procede in modo analogo).
Utilizzando la caratterizzazione integrale delle soluzioni abbiamo, per t ≥ t0 :
Z t
|f (s, x1 (s)) − f (s, x2 (s))| ds.
|x1 (t) − x2 (t)| ≤ |y1 (t0 ) − x2 (t0 )| +
t0
Fissiamo arbitrariamente t > t0 in J1 ∩ J2 . Esiste K compatto di D contenente i grafici di x1,2 .
[t0 ,t]
Sia LK una costante di Lipschitz per f in K. Allora per ogni t ∈ [t0 , t]:
Z t
|x1 (t) − x2 (t)| ≤ |y1 (t0 ) − x2 (t0 )| + LK
|x1 (s) − x2 (s)| ds.
t0
Per il Lemma di Gronwall (con α = |y1 (t0 ) − x2 (t0 )| e β = LK ):
|x1 (t) − x2 (t)| ≤ |y1 (t0 ) − x2 (t0 )|eLK (t−t0 ) = 0,
poiché y1 (t0 ) − x2 (t0 ) = 0. Notiamo come la disuguaglianza ora ottenuta dia una stima di |x1 (t) −
x2 (t)| in termini dei dati iniziali e del tempo t. Possiamo quindi dire che le condizioni di lipschitzianità locale assicurano l’unicità globale.
2.4 DISUGUAGLIANZE DIFFERENZIALI
Il teorema che ora enunciamo è una formalizzazione del fatto che date due funzioni (scalari) x e u,
se negli eventuali punti di intersezione dei grafici la pendenza della prima è sempre inferiore a quella
della seconda, allora l’informazione che x ≤ u in un istante a permette di concludere che x ≤ u per
tutti i tempi successivi t ≥ a.
Teorema 2.4.1 (confronto) Sia D ⊆ Rn aperto. Sia ω : D → R una funzione continua e localmente lipschitziana nella seconda variabile, uniformemente rispetto alla prima. Siano
x, u : J → Rn funzioni di classe C 1 con grafico contenuto in D e tali che
x′ (t) ≤ ω(t, x(t)),
per ogni t ∈ J. Sia a ∈ J tale che
Allora
x(t) ≤ u(t)
u′ (t) = ω(t, u(t))
x(a) ≤ u(a).
per ogni t ∈ J con t ≥ a.
Questo risultato vale in realtà nelle ipotesi di unicità per l’equazione differenziale u′ = ω(t, u),
indipendentemente dall’ipotesi di lipschitzianità (vedi, ad esempio, [7]).
35
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Dimostrazione. Supponiamo che in J esista t > a con x(t) > u(t). Sia
t0 = sup{t ∈ [a, t] : x(t) ≤ u(t)}.
Deve essere (teorema permanenza del segno) x(t0 ) = u(t0 ) e t0 < t. Inoltre:
x(t) > u(t)
In [t0 , t] risulta:
x(t) = x(t0 ) +
Z
t
t0
e
per t0 < t ≤ t.
′
x (s) ds ≤ x(t0 ) +
u(t) = u(t0 ) +
Z
t
ω(s, x(s)) ds,
t0
t
Z
ω(s, u(s)) ds.
t0
Sottraendo questa uguaglianza alla disuguaglianza precedente si ha:
x(t) − u(t) ≤ x(t0 ) − u(t0 ) +
Z
t
t0
Se K è un compatto di D contenente i grafici di x, u
K, allora:
x(t) − u(t) ≤ LK
Z
ω(s, x(s)) − ω(s, u(s)) ds.
[t0 ,t]
e LK è una costante di Lipschitz per ω in
t
t0
|x(s) − u(s)| ds = LK
Z
t
t0
x(s) − u(s) ds
(notiamo la necessità di lavorare in un intervallo in cui x(t) − u(t) ≥ 0). Per il Lemma di Gronwall
concludiamo che (α = 0)
x(t) − u(t) ≤ 0.
Ciò è assurdo. Osservazione 2.4.2 Risultati analoghi a quello enunciato si ottengono invertendo opportunamente le disuguaglianze. Ad esempio, se x(a) ≥ u(a) deve essere x(t) ≥ u(t) per t ≤ a; oppure, sempre
nell’ipotesi x(a) ≥ u(a), se x′ (t) ≥ ω(t, x(t)) allora x(t) ≥ u(t) per t ≥ a.
Come applicazione dimostriamo l’esistenza globale per le soluzioni del sistema di Lotka-Volterra:
 ′
 x = (α − βy)x
(2.15)
 ′
y = (−γ + δx)y
Sia x(·), y(·) : J → R2 una soluzione, con J intervallo massimale di esistenza. Come si vedrà
più avanti, ed è immediatamente verificabile, poichè le equazioni sono autonome, cioè in esse non
compare esplicitamente il tempo t, la soluzione del problema ai valori iniziali con dato in t0 può essere
ottenuta per traslazione temporale dalla soluzione che assume lo stesso dato al tempo 0. Pertanto
supponiamo 0 ∈ J e poniamo:
x(0) = x0 ,
y(0) = y0 .
È facile vedere che se y0 = 0 e x0 6= 0 allora la funzione y ≡ 0 è soluzione della seconda equazione,
mentre la prima fornisce;
x(t) = x0 eαt .
Analogamente se x0 = 0 e y0 6= 0.
36
Capitolo 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE
Assumiamo ora (caso di interesse modellistico) che x0 > 0 e y0 > 0. Per unicità deve allora
essere x > 0 e y > 0 in tutto J. Allora la prima delle due equazioni dà x′ ≤ αx; se u è la soluzione
del problema di Cauchy
′
u = αu(t),
u(0) = x0 ,
cioè u(t) = x0 eαt , per il Teorema del confronto deduciamo che
x(t) ≤ x0 eαt
per ogni t > 0 (t ∈ J).
Di conseguenza la seconda delle due equazioni di Lotka-Volterra dà:
y ′ (t) ≤ φ(t)y(t)
per ogni t ∈ J,
dove si è posto φ(t) = −γ + δx0 eαt . Applichiamo allora il confronto utilizzando la soluzione v del
problema
′
v (t) = φ(t)v(t)
v(0) = y0 .
Notiamo che v è definita su tutto R (l’equazione è lineare del primo ordine, con coefficienti ovunque
definiti). Risulta pertanto:
y(t) ≤ v(t)
per ogni t > 0 (t ∈ J).
Le limitazioni cosı̀ ottenute per x(t) e y(t) assicurano, in base al Teorema 2.2.2, l’esistenza della
soluzione per tutti i tempi t > 0. Un ragionamento analogo può essere svolto per dimostrare
l’esistenza globale per i tempi negativi (si inizi stimando la y mediante un’esponenziale).
Corollario 2.4.3 Sia D = I × R ⊆ R2 con I intervallo aperto e sia f : D → R continua
soddisfacente la seguente condizione:
|f (t, x)| ≤ ϕ(t) + ψ(t)|x|
per ogni (t, x) ∈ D,
per opportune funzioni ϕ e ψ continue e non negative su I. Allora l’equazione x′ = f (t, x) ha
esistenza globale.
Dimostrazione. Sia x : J → R una soluzione dell’equazione x′ = f (t, x). Fissato t0 ∈ J diamo
limitazioni per x(t) per t ≥ t0 .
Per ipotesi:
x′ (t) = f (t, x(t)) ≤ ϕ(t) + ψ(t)|x(t)|.
Sia u la soluzione del problema:
u′ (t) = ϕ(t) + ψ(t)|u(t)|
u(t0 ) = |x(t0 )|.
Notiamo che u(t) ≥ 0 per ogni t ≥ t0 poiché u(t0 ) ≥ 0 e u′ (t) ≥ 0; allora u soddisfa, per t ≥ t0 ,
un’equazione differenziale lineare del primo ordine, per cui risulta definita per ogni t ∈ I con t ≥ t0 .
Applichiamo ora il Teorema di confronto 2.4.1 con ω(t, x) = ϕ(t) + ψ(t)|x|; dal momento che
x(t0 ) ≤ u(t0 ), abbiamo:
x(t) ≤ u(t)
per ogni t ≥ t0 .
In modo analogo, per avere una stima dal basso osserviamo che
x′ (t) = f (t, x(t)) ≥ −ϕ(t) − ψ(t)|x(t)|;
37
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
consideriamo poi la soluzione v del problema
′
v (t) = −ϕ(t) − ψ(t)|v(t)|
v(t0 ) = −|x(t0 )|.
La funzione v risulta non positiva per t ≥ t0 , quindi risolve un’equazione differenziale lineare del
primo ordine per la quale vi è esistenza globale. Inoltre, per il Teorema del confronto risulta:
x(t) ≥ v(t)
per ogni t ≥ t0 .
Il grafico di x è quindi confinato fra quelli di u e v, per cui abbiamo esistenza globale (Teorema
2.2.2). Osservazione 2.4.4 Il corollario ora considerato ha portata più generale, valendo in realtà anche
per sistemi di equazioni (e non soltanto per incognite scalari), con il medesimo enunciato (ora D =
I × Rn ). Una dimostrazione può essere ottenuta mediante il Lemma di Gronwall come segue.
Sia x : J → Rn una soluzione, con J intervallo massimale, e sia t0 ∈ J. Occupiamoci dei tempi
t ≥ t0 . Risulta:
Z t
|f (s, x(s))| ds
|x(t)| ≤ |x(t0 )| +
≤ |x(t0 )| +
Z
t0
t
t0
ϕ(s) + ψ(s)|x(s)| ds
Detto b l’estremo destro di I, fissiamo t ∈ (t0 , b). Dalla disuguaglianza precedente abbiamo subito,
per ogni t ∈ J ∩ [t0 , t]:
Z t
|x(s)| ds,
|x(t)| ≤ α + M
t0
dove
α = |x(t0 )| + (t − t0 ) max ϕ,
[t0 ,t]
M = max ψ.
[t0 ,t]
Per il Lemma di Gronwall
|x(t)| ≤ αeM(t−t0 ) ≤ αeM(t−t0 )
per ogni t ∈ J ∩ [t0 , t]. Ne segue che la soluzione x rimane in un compatto di Rn su J ∩ [t0 , t], per
cui J deve contenere [t0 , t] (si ricordi quanto detto dopo la dimostrazione del Teorema 2.2.2).
Osservazione 2.4.5 Il Corollario 2.4.3, nella forma estesa di cui all’osservazione precedente, ha
una notevole applicazione al caso dei sistemi lineari:
x′ = A(t)x + b(t),
con A matrice n × n di funzioni continue su un intervallo I e b : I → Rn continua.
2.5 DIPENDENZA DELLE SOLUZIONI DAI DATI
Teorema 2.5.1(Dipendenza continua) Sia (fj )j una successione di funzioni continue D →
Rn e sia (tj , xj ) una successione di punti di D. Supponiamo esistano
f 0 : D → Rn ,
38
(t0 , x0 ) ∈ D
Capitolo 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE
tali che
i) fj → f0 uniformemente sui compatti di D;
ii) (tj , xj ) → (t0 , x0 )
iii) la funzione f0 è localmente lipschitziana in D.
Sia φ0 la soluzione del problema di Cauchy
 ′
 x = f0 (t, x)

x(t0 ) = x0

x(tj ) = xj .
e supponiamo sia definita su un intervallo [a, b].
Sia φj una soluzione del problema
 ′
 x = fj (t, x)
Allora per j sufficientemente grande φj può essere definita su [a, b] e φj → φ0 uniformemente in
[a, b].
Osservazione 2.5.2 Il teorema vale in realtà nell’ipotesi che il problema che risolve φ0 abbia
unicità, indipendentemente dall’ipotesi di lipschitzianità (vedi, ad esempio, [7], Lemma 3.1, pag. 24).
Osservazione 2.5.3 Si notino i casi particolari in cui la successione (fj ) o i punti (tj , xj ) non
dipendano da n.
Alla dimostrazione del teorema premettiamo un lemma, che precisa quanto già contenuto nel
Corollario 2.1.7, mettendo in evidenza l’uniformità dell’ampiezza dell’intervallo di esistenza in presenza di una limitazione uniforme per f ; ciò vale per ogni soluzione, indipendentemente dall’ipotesi
di unicità o della specifica costruzione considerata per dimostrare l’esistenza di una soluzione.
Lemma 2.5.4 Sia f : D → Rn continua, K compatto e V aperto di Rn tali che
K ⊆ V ⊂⊂ D.
Sia M ≥ maxV |f |. Esiste allora α > 0 dipendente soltanto da K, V e M 11 tale che, comunque
preso (t0 , x0 ) ∈ K, se x : J → Rn è una soluzione di
 ′
 x = f (t, x)

(2.16)
x(t0 ) = x0
con J intervallo massimale, allora J ⊇ [t0 − α, t0 + α] e il grafico di x
è contenuto in
[t0 −α,t0 +α]
V.
11 In
particolare è possibile scegliere α in modo che sia comune a tutti gli elementi di una data famiglia di funzioni f che sia
equilimitata su V .
39
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
V
K
(t0 , x0 )
Ra,b (t0 , x0 )
(t0 , x0 )
Ra,b (t0 , x0 )
t
t0 −a
t0 +a
t
t0 −a
t0 +a
(a)
t
(b)
Figura 2.5 - Dimostrazione del teorema di dipendenza continua
Dimostrazione. Chiaramente esistono a, b > 0 dipendenti soltanto da d(K, ∂V ), tali che
R := Ra,b (t0 , y0 ) := {(t, y) : |t − t0 | < a, |x − x0 | < b} ⊆ V.
Mostriamo che se x : J → Rn è una soluzione di (2.16), con J = (ω− , ω+ ) intervallo massimale di
esistenza, allora J ⊇ [t0 − α, t0 + α], con
α = min a,
b M
(e pertanto α dipende soltanto da K, V e M ). Occupiamoci dell’intervallo [t0 , t0 + α] (analogamente
si procede per [t0 − α, t0 ]).
Sia
t = sup{t ∈ [t0 , ω+ ) : ∀τ ∈ [t0 , t] (τ, x(τ )) ∈ Ra,b (t0 , x0 )}.
Se fosse t = ω+ allora il grafico di x in [t0 , ω+ ) sarebbe tutto contenuto in R, che è un compatto
di D: ciò è assurdo. Pertanto t < ω+ . Mostriamo che t0 + α ≤ t. Supponiamo, per assurdo, che
t < t0 + α. Allora deve essere (vedi Figura 2.5(b))
|x(t) − x0 | = b;
ma per ogni t ∈ [t0 , t] risulta (t, x(t)) ∈ Ra,b (t0 , x0 ), per cui |f (t, x(t))| ≤ M e
b = |x(t) − x0 | ≤
Z
t
t0
|f (s, x(s))| ds ≤ M |t − t0 | < M α ≤ b.
Allora deve essere t ≥ t0 + α e quindi, essendo ω+ > t, anche ω+ > t0 + α. Dimostrazione. (Teorema di dipendenza continua). Siano V e V ′ aperti di D, con
graf φ0 ⊆ V ′ ⊂⊂ V ⊂⊂ D.
[a,b]
Per (ii) possiamo supporre
(tj , xj ) ∈ V ′
per ogni j.
Poiché su V risulta, in base all’ipotesi (i),
|fj | ≤ |fj − f0 | + |f0 | ≤ max |fj − f0 | + max |f0 | → max |f0 | < M ,
V
40
V
V
Capitolo 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE
posto M = 1 + maxV |f0 | possiamo supporre che
|fj | ≤ M
in V per ogni j.
′
Applichiamo il lemma precedente con K = V : poiché M dà una maggiorazione comune ad ogni
|fj |, esiste α > 0 tale che
φj è definita in [tj − α, tj + α] per ogni j
è contenuto in V per ogni j.
graf φj [tj −α,tj +α]
A motivo della convergenza di tj a t0
[tj − α, tj + α] ⊇ [t0 −
α
α
, t0 + ]
2
2
per j sufficientemente grande.
Mostriamo ora la convergenza uniforme φj → φ0 su tutto [t0 − α/2, t0 + α/2]. Occupiamoci di
[t0 , t0 + α/2] (analogamente si procede su [t0 − α/2, t0 ]). In tale intervallo abbiamo:
φj (t) − φ0 (t) = xj − x0 +
= xj − x0 +
t
Z
fj (s, φj (s)) ds −
tj
Z t0
t
Z
fj (s, φj (s)) ds +
f0 (s, φ0 (s)) ds
t0
Z
t
t0
tj
fj (s, φj (s)) − f0 (s, φ0 (s)) ds
da cui
|φj (t) − φ0 (t)| ≤ |xj − x0 | + M |t0 − tj | +
+
Z
t0 +α/2
t0
Z t
t0
|fj (s, φj (s)) − f0 (s, φj (s))| ds
|f0 (s, φj (s)) − f0 (s, φ0 (s))| ds.
Per la convergenza uniforme di fj a f0 in V (in cui stanno i grafici di φj ), risulta:
Z
t0 +α/2
t0
|fj (s, φj (s)) − f0 (s, φj (s))| ds
≤
α
max |fj − f0 | := σj → 0 per n → +∞.
2 V
Inoltre, per la locale lipschitzianità di f0 su V :
Z t
Z t
|f0 (s, φj (s)) − f0 (s, φ0 (s))| ds ≤ LV
|φj (s) − φ0 (s)| ds ,
t0
t0
con LV costante di Lipschitz. Allora
|φj (t) − φ0 (t)| ≤ αj + LV
Z
t
t0
|φj (s) − φ0 (s))| ds,
con
αj = |xj − x0 | + M |tj − t0 | + σj → 0.
Per il Lemma di Gronwall:
|φj (t) − φ0 (t)| ≤ αj eLV (t−t0 ) ≤ αj eLV α/2 → 0 per n → +∞.
41
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Quindi φj → φ0 uniformemente in [t0 , t0 + α/2].
Il procedimento seguito per dimostrare che per n sufficientemente grande le funzioni φj sono
definite in [t0 − α/2, t0 + α/2] e che su tale intervallo convergono uniformemente a φ0 può essere
ripetuto a partire dagli estremi t0 ± α/2: l’ampiezza α è infatti indipendente dal punto iniziale
considerato. Allora, con un numero finito di passi si ottiene quanto asserito. Dal Teorema precedente si può ricavare con facilità il seguente risultato.
Sia F un aperto di R × Rn × Rm e f : F → Rn una funzione continua. Si considerino i problemi
di Cauchy
 ′
 x = f (t, x, λ)
(2.17)

x(t0 ) = x0 .
Supponiamo che per ogni λ la funzione f (·, ·, λ) sia localmente lipschitziana (nella seconda variabile,
uniformemente rispetto alla prima). 12 Pertanto il problema (2.17) ammette soluzione unica, che
indichiamo con
x(·, t0 , x0 , λ)
Sia (ω− (t0 , x0 , λ), ω+ (t0 , x0 , λ)) il suo intervallo massimale di esistenza.
Teorema 2.5.5 La funzione ω− (t0 , x0 , λ) [ω+ (t0 , x0 , λ)] è semicontinua superiormente [inferiormente], l’insieme
E = {(t, t0 , x0 , λ) : (t0 , x0 , λ) ∈ F, ω− (t0 , x0 , λ) < t < ω+ (t0 , x0 , λ)}
è aperto e la funzione
x : (t, t0 , x0 , λ) 7→ x(t, t0 , x0 , λ)
è continua in E.
La dimostrazione utilizza la continuità (uniforme) garantita dal Teorema 2.5.1 rispetto alle variabili (t0 , x0 , λ): assieme
alla continuità in t si ottiene la continuità di (t, t0 , x0 , λ) 7→ x(t, t0 , x0 , λ). Il fatto che E sia aperto discende dalla
semicontinuità delle funzioni ω− e ω+ (per questa dimostrazione si veda [9], Theorem 2.1 pag. 94 e [7], Capitolo 1, Theorem
3.4 e Theorem 3.1).
Osservazione 2.5.6 Il teorema precedente contiene, in particolare, la seguente versione del Teo
rema 2.5.1. Dati t0 , x0 e λ0 , se [a, b] è un intervallo contenuto in ω− (t0 , x0 , λ0 ), ω+ (t0 , x0 , λ0 ) ,
la semicontinuità di ω± assicura l’esistenza di un intorno U di (t0 , x0 , λ0 ) tale che y(·, τ, z, λ) è
definita almeno in [a, b] per ogni (τ, z, λ) ∈ U ; inoltre, potendosi chiaramente supporre U chiuso, la
continuità (uniforme) di x su [a, b] × U dà:
lim
(τ,z,λ)→(t0 ,y0 ,λ0 )
x(t, τ, z, λ) = x(t, t0 , y0 , λ0 )
uniformemente per t ∈ [a, b].
Dipendenza continua e stabilità Consideriamo il caso in cui l’equazione differenziale x′ = f (t, x)
presenti la funzione f definita su tutto R × Rn . Supponiamo inoltre di essere in ipotesi di unicità per
i problemi di Cauchy
 ′
 x = f (t, x)

x(t0 ) = x0
e indichiamone con x(·, t0 , x0 ) la soluzione. Supponiamo inoltre che la funzione nulla sia soluzione.
Dati comunque t0 ∈ R e T > 0 applichiamo i risultati visti sulla dipendenza continua all’intervallo
[t0 , t0 +T ], al variare del dato iniziale x0 (si ricordi, in particolare, l’Osservazione 2.5.6). Esiste allora
12 In
42
realtà, come per il Teorema di dipendenza continua, sarebbe sufficiente l’ipotesi che i problemi (2.17) abbiano unicità.
Capitolo 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE
z
(t0 , x0 )
ε
x
δ
t
t0
t0 + T
Figura 2.6 - Dipendenza continua dal dato iniziale y0
un valore δ(T ) > 0 tale che se |x0 | < δ(T ) la soluzione x(·, t0 , x0 ) è definita su tutto [t0 , t0 + T ].
Inoltre x(·, t0 , x0 ) converge uniformemente alla funzione nulla (che è la soluzione corrispondente al
dato (t0 , 0)) per x0 → 0. Quindi (vedi Figura 2.6), fissati t0 e T :
per ogni ε > 0 esiste δ(T, ε) > 0 tale che se |x0 | < δ(T, ε) allora la soluzione x(·, t0 , x0 ) è
definita su tutto [t0 , t0 + T ] e |x(t, t0 , x0 )| < ε per ogni t ∈ [t0 , t0 + T ].
È istruttivo verificare questo fatto nel caso dell’equazione
x′ = x2 .
Sappiamo che la soluzione con dato x0 6= 0 per t0 = 0 è data da:
x(t, 0, x0 ) =
1
.
(1/x0 ) − t
Dati ε > 0 e T > 0 abbiamo esistenza su [0, T ] se x0 < 1/T , mentre la condizione |x(t, 0, x0 )| < ε
per ogni t ∈ [0, T ] è verificata se |x0 | < δ, con δ tale che
1
< ε,
(1/δ) − T
cioè δ <
1
ε
1
.
+T
Al crescere di T o al decrescere di ε l’ampiezza δ dell’intorno di 0 in cui prendere il dato iniziale per
avere una soluzione vicina alla soluzione nulla a meno di ε diminuisce e tende a zero. Quindi per
l’equazione x′ = x2 non è possibile generalizzare il ragionamento precedente all’intervallo [0, +∞).
Si cerchi di visualizzare la situazione in un grafico.
La dipendenza continua dai dati iniziali su intervalli illimitati è una proprietà molto rilevante su
cui torneremo, la cosiddettà proprietà di stabilità.
43
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
2.6 SISTEMI AUTONOMI: GENERALITÀ
Consideriamo un sistema autonomo di equazioni differenziali:
x′ = f (x)
con f : Ω → Rn continua (Ω aperto di Rn )
(2.18)
(il campo vettoriale f non dipende dalla variabile temporale (vedi pag. 19)).
Osservazione 2.6.1 Dato un sistema in forma normale
x′ = f (t, x),
(t, x) ∈ D ⊆ R × Rn ,
(2.19)
è possibile trasformarlo in un sistema autonomo a patto di aumentare il numero delle equazioni. Più
precisamente, denotando con xi (·) le componenti di x(·), si ha che: i grafici delle soluzioni di (2.19)
sono tutte e sole le orbite del sistema (autonomo)
′
x0 = 1
(2.20)
x′i = f (x0 , x),
i = 1, . . . , n
nell’incognita X = (x0 , x) = (x0 , x − 1, . . . , xn ) ∈ Rn+1 . Infatti, è evidente che se x : J → Rn
risolve (2.19) allora X : t 7→ t, x(t) : J → D è soluzione di (2.20), e il grafico di x(·) è l’orbita di
X(·). Viceversa, se X = (x0 , x) : J → Rn+1 è soluzione di (2.20), allora x′0 (t) = 1, per cui esiste
τ ∈ R tale che x0 (t) = t + τ ; di conseguenza l’orbita di X è
{ (x0 (t), x(t) ∈ Rn+1 : t ∈ J} = { s, x(s − τ ) ∈ Rn+1 : s ∈ J + τ } = graph xτ ,
dove xτ : t 7→ x(t − τ ) : J + τ → Rn . Poiché
x′τ (t) = x′ (t − τ ) = f x0 (t − τ ), x(t − τ ) = f (t, xτ (t)),
la funzione xτ è soluzione di (2.19).
La prima proprietà da mettere in evidenza per un sistema autonomo è la seguente:
Se x : J → Ω è una soluzione, allora tale è anche ogni sua traslazione temporale xτ (t) := x(t−τ )
(per t ∈ J + τ ).
(Abbiamo già incontrato questa caratteristica dei sistemi autonomi nel § 1.1 studiando l’equazione
logistica). Infatti:
x′τ (t) = x′ (t − τ ) = f (x(t − τ )) = f (xτ (t)).
Ricordiamo che, secondo la Definizione 2.2.4, se f è tale da assicurare l’unicità per i corrispondenti
problemi di Cauchy, con x(·, t0 , x0 ) indichiamo la soluzione del problema di Cauchy con dato x0 in
t0 , definita nel suo intervallo massimale di esistenza. Allora la proprietà ora dimostrata implica che
x(t, t0 , x0 ) = x(t − t0 , 0, x0 ).
(2.21)
Pertanto, per i sistemi autonomi è sufficiente considerare la funzione x(t, 0, x0 ), cioè considerare,
per ogni x0 ∈ Ω, la soluzione per la quale x(0) = x0 . Indichiamo con ω− (x0 ), ω+ (x0 ) il suo
intervallo massimale di esistenza.
Definizione 2.6.2 La funzione ϕ definita da ϕ(t, x0 ) = x(t, 0, x0 ) è detta flusso (o sistema
dinamico) associato all’equazione (2.18).
Proposizione 2.6.3 Valgono le seguenti proprietà:
a) L’insieme E = {(t, x) ∈ R × Ω : ω− (x) < t < ω+ (x)} è aperto e ϕ : E → Ω è continua.
b) ϕ(0, ·) = idΩ ;
c) ϕ t, ϕ(s, x) = ϕ(s + t, x).
44
Capitolo 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE
x2
γ
x1
x(·)
t
Figura 2.7 - L’orbita della soluzione x(·) è la proiezione γ del grafico di x(·) sullo spazio degli stati.
Dimostrazione. Per la prima proprietà si veda il Teorema 2.5.5, mentre la seconda è immediata
per la definizione stessa di ϕ. Per la terza proprietà basta osservare che le funzioni ϕ ·, ϕ(s, x) e
ϕ(s + ·, x) sono entrambe soluzioni del problema con dato iniziale ϕ(s, x), quindi coincidono. Fissato x ∈ Ω, la funzione t 7→ ϕ(t, x) porta lo stato x del sistema modellizzato dall’equazione
differenziale nel nuovo stato ϕ(t, x), che rappresenta l’evoluzione del sistema dopo che è trascorso
il tempo t. Diciamo orbita di un punto x0 ∈ Ω l’immagine della soluzione ϕ(·, x0 ). Altrimenti
detto, le orbite sono le proiezioni dei grafici delle soluzioni sullo spazio degli stati o delle fasi Rn . Se
interpretiamo “cinematicamente” una soluzione x(·) come legge oraria del moto di un punto, l’orbita
individuata da x (detta anche orbita della soluzione x) non è altro che l’insieme delle posizioni assunte.
Notiamo che, se x0 è tale che f (x0 ) = 0, allora x(t) ≡ x0 è soluzione e {x0 } è un’orbita.
Proposizione 2.6.4 Valgono le seguenti proprietà:
a) due orbite distinte non possono avere alcun punto in comune.
b) se x : J → Ω è una soluzione non costante, allora è necessariamente una curva regolare, cioè
x′ (t) 6= 0 per ogni t ∈ J.
Dimostrazione. a) Siano γ1 e γ2 due orbite, corrispondenti alle soluzioni x1 e x2 , rispettivamente.
Se fosse
x1 (t1 ) = x2 (t2 )
per una coppia t1 , t2 (nei rispettivi domini),
allora
u(t2 ) = x2 (t2 ),
con u(t) := x1 t − (t2 − t1 ) .
La funzione u è soluzione, per cui u ≡ x2 e quindi le orbite di x1 e di x2 poiché u è una traslata
temporale di x1 .
b) Se esistesse t0 ∈ J con x′ (t0 ) = 0 allora dovrebbe essere
0 = x′ (t0 ) = f (x(t0 )),
quindi x0 := x(t0 ) sarebbe tale che f (x0 ) = 0: l’orbita di x e quella della soluzione costante con
valore x0 dovrebbero coincidere perché presentano un punto in comune. 45
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Nello studio delle orbite del sistema (2.18), le particolari rappresentazioni parametriche fornite
dalle soluzioni del sistema stesso perdono la loro centralità. Infatti, dal punto di vista della geometria
delle orbite, non è rilevante la velocità con cui sono percorse (il che è specificato dalla rischiesta
che x′ (t) = f (x(t))); cosı̀, se γ è l’orbita individuata dalla soluzione x : (a, b) → Ω, è naturale
considerare la classe delle rappresentazioni parametriche di γ equivalenti a x (le riparametrizzazioni
di x), cioè la classe delle funzioni u per le quali esiste una funzione ψ : (α, β) → (a, b) di classe C 1 ,
invertibile con inversa C 1 , per la quale:
u = x ◦ ψ.
Risulta
u′ = λf (u),
con λ = ψ ′ .
La funzione λ è continua e mai nulla, per cui l’uguaglianza u′ = λf (u) traduce il parallelismo fra il
vettore tangente u′ e il campo assegnato f . Inoltre caratterizza le riparametrizzazioni delle soluzioni
di (2.18). Più precisamente vale il seguente risultato:
Proposizione 2.6.5 Si consideri il problema
u′ //f (u)
(2.22)
cioè il problema della determinazione delle funzioni u : J → Ω, con J intervallo di R, di classe C 1
per le quali esiste λ ∈ C 0 (J) mai nulla e tale che
u′ = λf (u)
in J.
Le soluzioni di (2.22) sono tutte e sole le riparametrizzazioni delle soluzioni di (2.18).
Dimostrazione. Già abbiamo visto che se u è una riparametrizzazione di una soluzione allora
u′ = λf (u) per un’opportuna λ continua e mai nulla. Viceversa, sia ψ una primitiva di λ. Allora
ψ è invertibile, con inversa C 1 , e si controlla immediatamente che x = u ◦ ψ −1 è una soluzione di
(2.18). Il problema (2.22) viene anche espresso mediante la scrittura seguente (dove utilizziamo la variabile
x in luogo della u):
dx2
dxn
dx1
=
= ... =
.
(2.23)
f1 (x)
f2 (x)
fn (x)
Riprenderemo questo problema, per il caso n = 2, nel § 3.7.
46
Capitolo 3
TECNICHE ELEMENTARI DI INTEGRAZIONE
3.1 EQUAZIONI A VARIABILI SEPARABILI
Si tratta di equazioni scalari della forma
x′ = g(t)h(x)
g ∈ C 0 (I1 ), h ∈ C 0 (I2 ),
(3.1)
con I1 e I2 intervalli aperti. Osserviamo subito che le funzioni costanti che assumono uno degli
eventuali zeri di h sono soluzioni dell’equazione differenziale.
Sia ora x una soluzione di (3.1), su un intervallo J in cui t 7→ h(x(t)) è non nulla; risulta:
1
x′ (t) = g(t)
h(x(t))
per ogni t ∈ J,
(3.2)
e quindi, passando agli integrali indefiniti di entrambi i membri:
Z
Z
1
x′ (t) dt = g(t) dt;
h(x(t))
quest’ultima uguaglianza può anche essere riscritta come:
Z
Z 1
dξ
= g(t) dt
h(ξ)
ξ=x(t)
(t ∈ J).
In tal modo viene individuata implicitamente la soluzione x su J.
Più precisamente, detto t0 un punto di J e posto x0 = x(t0 ) (per cui h(x0 ) 6= 0), definiamo
Z x
1
dξ,
H(x) =
x0 h(ξ)
per ogni x nella componente connessa U di h−1 (R \ {0}) contenente x0 ; e sia
G(t) =
Z
t
g(τ ) dτ
t0
per t ∈ I1 .
Allora, integrando la (3.2) fra t0 e t ∈ J, risulta:
H(x(t)) = G(t)
per t ∈ J.
47
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Poiché su U la funzione H è invertibile con inversa C 1 (essendo la derivata 1/h mai nulla), quest’ultima equazione individua univocamente x su J:
per t ∈ J.
(3.3)
x(t) = H −1 G(t)
Analizziamo ora la funzione a secondo membro. L’insieme V = H(U ) è un intervallo aperto in
quanto H, come detto, è di classe C 1 , invertibile e con inversa C 1 . La composizione di G con
H −1 : V → U è definita in G−1 (V ): pertanto la componente connessa J0 di G−1 (V ) cui appartiene
t0 contiene J e costituisce quindi il più ampio intervallo contenente t0 in cui estendere la soluzione
y con la condizione che h ◦ y non si annulli (vedi [2]).
Riassumendo:
Dato (t0 , x0 ) ∈ I1 × I2 con h(x0 ) 6= 0, risulta univocamente individuato un intervallo J0 che
risulta essere per ogni soluzione x dell’equazione (3.1), con y(t0 ) = y0 , il più ampio in cui x può
essere definita con h ◦ x 6= 0; in tale intervallo queste soluzioni sono univocamente individuate
dall’equazione
H(x(t)) = G(t).
Osservazione 3.1.1 Le considerazioni sopra esposte tengono conto della possibilità che l’equazione non presenti unicità per i corrispondenti problemi di Cauchy: due soluzioni che coincidono in
un punto t0 in cui h(x0 ) 6= 0 devono coincidere fintanto che si mantengono diverse da uno zero di h.
Può essere utile pensare all’esempio
p
x′ = |x|,
che presenta le soluzioni
x0 ≡ 0,
x1 =
1
4 (t
0
− c)2
se t ≥ c
,
se t ≤ c
x2 =
1
2
4 (t − c)
1
− 4 (t − c)2
Esempi x′ = 2te−x , x′ = −2t(x − 1), x′ = x(x − 1), x′ = tx(x − 1),
se t ≥ c
.
se t ≤ c
x′ = ext+1 ′ √
3
, x = x2 .
x(0) = 0
3.2 EQUAZIONI LINEARI DEL PRIMO ORDINE
In occasione dello studio del Lemma di Gronwall abbiamo già incontrato le equazioni della forma
x′ + p(t)x = q(t),
(3.4)
dove p e q sono funzioni continue su un intervallo I.
Detta P una primitiva di p, la famiglia delle soluzioni è data da:
Z
−P (t)
x(t) = e
eP (t) q(t) dt.
Osserviamo che se q ≡ 0 allora la (3.4) diventa un’equazione a variabili separabili, le cui soluzioni
sono:
x(t) = Ce−P (t)
al variare di C ∈ R.
Mostriamo ora come da queste sia possibile ricavare l’integrale generale della (3.4). Al riguardo
utilizzeremo il seguente risultato di struttura.
Proposizione 3.2.1 Se x è una fissata soluzione dell’equazione (3.4) tutte e sole le soluzioni della
stessa equazione (3.4) sono esprimibili nella forma
x = xo + x,
al variare di xo fra le soluzioni dell’equazione omogenea associata x′ + p(t)x = 0.
48
Capitolo 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE
Dimostrazione. La dimostrazione è immediata conseguenza del risultato successivo, applicato
all’operatore lineare
L : C 1 (I) → C 0 (I),
Lx = x′ + p(t)x. Proposizione 3.2.2 Sia L : V → W un’applicazione lineare fra spazi vettoriali. Sia q ∈ W e
x ∈ V tale che Lx = q. Allora
L−1 (q) = L−1 (0) + x.
Dimostrazione. Un elemento x sta in L−1 (q) se e solo se Lx = q = Ly, cioè L(x − x) = 0. Ma
ciò significa che x − x ∈ L−1 (0), cioè x ∈ L−1 (0) + x. Una soluzione cosiddetta particolare x dell’equazione completa (3.4) può essere ottenuta dall’espressione Ce−P (t) dell’integrale generale dell’equazione omogenea mediante il metodo di variazione delle costanti arbitrarie, che consiste nel cercare una soluzione nella forma
x(t) = C(t)e−P (t) ,
con C(t) funzione da determinare. Deve allora essere:
C ′ (t)e−P (t) − C(t)e−P (t) p(t) + p(t)C(t)e−P (t) = q(t),
da cui
C ′ (t) = q(t)eP (t) .
Per integrazione si ricava una possibile funzione C; ad esempio, se t0 è un punto di I, possiamo
scegliere
Z t
q(s)eP (s) ds.
C(t) =
t0
Quindi l’integrale generale dell’equazione (3.4) diventa (K costante arbitraria):
Z t
−P (t)
−P (t)
x = Ke
+e
q(s)eP (s) ds
t0
Z t
q(s)eP (s) ds
= e−P (t) K +
t0
Z
= e−P (t) q(t)eP (t) dt,
(3.5)
coerentemente con quanto già noto.
1
Esempi x′ = t2 x + t5 , x′ + t+1
x = sin t.
3.3 EQUAZIONI DI BERNOULLI; EQUAZIONE DI RICCATI
Sono dette di Bernoulli le equazioni della forma
x′ + p(t)x = q(t)xα ,
α ∈ R,
con p e q funzioni continue su un intervallo I. Se α = 0 o α = 1 l’equazione si riduce ad un’equazione
lineare. Se α > 0 vi è la soluzione x ≡ 0. In ogni caso le altre soluzioni si ottengono dividendo per
x−α
x−α x′ + p(t)x1−α = q(t)
49
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
e ponendo
z = x1−α .
Infatti risulta z ′ = (1 − α)x−α x′ e quindi l’equazione si trasforma nella
1
z ′ + p(t)z = q(t),
1−α
che è un’equazione lineare.
Esempio Determinare la curva y = ϕ(x) del piano xy per la quale il punto medio dei segmenti di
normale aventi un estremo sulla curva stessa e l’altro sull’asse x si trova sulla parabola di equazione
x = y 2 . [Si ottiene l’equazione ϕ′ − 21 ϕ = −2x/ϕ].
Un caso classico in cui si giunge ad un’equazione differenziale di Bernoulli è quello dell’equazione
di Riccati. Si tratta di un’equazione della forma
x′ = a(t) + b(t)x + c(t)x2 ,
(3.6)
con a, b e c funzioni continue su un intervallo I.
Osservazione 3.3.1 Notiamo come il secondo membro costituisca la più semplice nonlinearità
in x, ottenibile, ad esempio, sviluppando in x = 0 una funzione x 7→ f (t, x). Inoltre, osserviamo
anche che se utilizziamo la variabile u individuata dalla relazione:
x(t) = −
1 d
log u(t)
c(t) dt
è immediato verificare che l’equazione soddisfatta da u è lineare del secondo ordine (a coefficienti
variabili).
Si verifica immediatamente che se è nota una soluzione x di (3.6), la posizione u = x − x dà
un’equazione di Bernoulli in u:
u′ − b(t) + 2c(t)x u = c(t)u2 .
Esempio
1
1
−
+ 2 x + tx2
t
t
Una soluzione è data da x(t) = 1/t. La sostituzione u = x − 1/t porta all’equazione di Bernoulli
(con α = 2):
1
u′ + u = tu2 ,
t
la quale, con la sostituzione z = 1/u, si trasforma nell’equazione lineare
x′ =
1
z ′ − z = −t.
t
Esempio Per ogni α ∈ R consideriamo l’equazione
x′ + x2 = t2 + α.
(3.7)
Se α = 1 la funzione x(t) = t è soluzione; ciò permette di applicare il metodo risolutivo (le soluzioni
Rt
2
saranno espresse tramite 0 e−s ds). Per un generico valore di α osserviamo che la posizione
u(t) = t +
50
α+1
x+t
Capitolo 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE
trasforma l’equazione (3.7) nella seguente:
u′ + u2 = t2 + (α + 2).
Si tratta della stessa equazione (3.7), ma con α+ 2 in luogo di α. Poiché per α = 1 è nota la soluzione
x(t) = t, ciò consente di ricavare una soluzione particolare per α = 3:
u(t) = t +
2
1
=t+ .
x(t) + t
t
Quindi l’equazione (3.7) è risolubile per ogni α dispari.
3.4 EQUAZIONI DI TIPO OMOGENEO
Si tratta di equazioni della forma
y
y ′ = g( )
x
(g continua).
(qui chiameremo x la ‘variabile indipendente’, per cui y = y(x)). Si risolve ponendo
z(x) =
y(x)
.
x
Infatti, y = xz e y ′ = z + xz ′ , per cui l’equazione diventa:
z′ =
g(z) − z
,
x
che è a variabili separabili.
x+y
(le soluzioni sono archi di spirale logaritmica).
Esempio y ′ =
x−y
Equazioni di tipo omogeneo generalizzato.
a) Per equazioni della forma
y ′ = g(ax + by)
(g continua, a, b costanti).
dove, chiaramente possiamo supporre b 6= 0, la posizione
z(x) = ax + by(x)
conduce all’equazione:
z ′ = a + bg(z),
che è a variabili separabili.
b) Consideriamo ora equazioni della forma
y′ = g
ax + by + c
a ′ x + b ′ y + c′
con g continua.
a b
Se ′ ′ = 0 allora si può scrivere, ad esempio, a′ x + b′ y = λ(ax + by), per cui si ricade nel
a b
caso precedente.
51
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
a b
Sia pertanto ′ ′ 6= 0. In tal caso le equazioni ax + by + c = 0 e a′ x + b′ y + c′ = 0 sono le
a b
equazioni di due rette incidenti: sia (x0 , y0 ) il loro punto di intersezione. Eseguiamo un cambiamento
di variabili che porti l’origine in (x0 , y0 ), in modo da ricondursi al caso in cui l’argomento di g sia
quoziente di due polinomi omogenei. Poniamo:
t = x − x0 ,
u = y − y0 ;
ciò significa considerare come nuova incognita la funzione u(t) = y(t + x0 ) − y0 . Pertanto:
at + bu
a(t + x0 ) + b(u + y0 ) + c
′
′
,
=g
u (t) = y (t + x0 ) = g
a′ (t + x0 ) + b′ (u + y0 ) + c′
a′ t + b ′ u
poiché ax0 + by0 + c = 0 e a′ x0 + b′ y0 + c′ = 0. Allora l’equazione può essere riscritta come:
a + b(u/t)
′
,
u =g
a′ + b′ (u/t)
che è di tipo omogeneo.
y−x−2
Esempio y ′ =
.
y+x
3.5 EQUAZIONI DEL TIPO F (y, y ′ ) = 0 O F (x, y ′ ) = 0
Consideriamo equazioni della forma
a) F (y, y ′ ) = 0;
b) F (x, y ′ ) = 0
dove y = y(x) (trattiamo assieme i due casi fin dove possibile). Cerchiamo di risolverle mediante
un cambiamento di variabile x = x(s). Più geometricamente, detta y : J → R una soluzione,
cerchiamo di individuare una rappresentazione parametrica del grafico di y: se x = x(s), al variare
di s in un opportuno intervallo I, l’ordinata y del corrispondente punto del grafico è y = y(x(s)).
Con notazione impropria, ma significativa, poniamo y(s) := y(x(s)). Per evitare equivoci denotiamo
dy
la derivazione di y rispetto alla variabile s, mentre y ′ indica la derivazione rispetto a x. Per
con
ds
ogni s ∈ I deve essere
a) F (y(s), y ′ (x(s))) = 0;
b) F (x(s), y ′ (x(s))) = 0
Possiamo esprimere queste uguaglianze dicendo che, al variare di s ∈ I,
a) s 7→ (y(s), y ′ (x(s)));
b) s 7→ (x(s), y ′ (x(s)))
(3.8)
forniscono rappresentazioni parametriche di un arco C della curva di equazione F = 0 (nel piano
yy ′ o xy ′ , rispettivamente). Supponiamo sia nota una rappresentazione parametrica
y = A(s)
x = A(s)
a)
;
b)
(3.9)
y ′ = B(s)
y ′ = B(s)
di tale arco C . Cerchiamo di determinare il cambiamento di variabile x(s) in modo che la rappresentazione (3.9) coincida con la (3.8); quindi richiediamo che sia:
x(s) = A(s)
y(s) = A(s)
.
;
b)
a)
y ′ (x(s)) = B(s)
y ′ (x(s)) = B(s)
52
Capitolo 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE
Allora:
dy
dx
= y ′ (x(s)) .
ds
ds
(3.10)
Nel caso (a) questo dà:
A′ (s) = B(s)x′ (s)
quindi, ricavando x′ (s) e integrando,
x(s) =
Z
A′ (s)
ds.
B(s)
La coppia (x(s), y(s)) fornisce, chiaramente, una rappresentazione parametrica del grafico della
soluzione:

Z ′
A (s)

 x = x(s) =
ds
B(s)
a)


y = y(s) = A(s)
Nel caso (b) la (3.10) dà invece
dy
= B(s)A′ (s)
ds
per cui il grafico della soluzione è rappresentato da

 x = x(s) = A(s)
b)
R

y = y(s) = A′ (s)B(s) ds.
Osservazione 3.5.1 Sottolineiamo come le espressioni per x(s) e y(s) sono ricavate dall’uguaglianza (3.10):
dy dx
dy
=
ds
dx ds
tenendo conto delle rappresentazioni parametriche (3.9) dell’arco C della curva di equazione F = 0.
Esempio (Brachistòcrona o problema della più rapida discesa: Johann Bernoulli - 1696)
Dati due punti P1 e P2 in un piano verticale (il primo a quota maggiore), determinare il cammino
liscio che li congiunge lungo il quale un punto materiale discenda da P1 a P2 per effetto della sola
gravità nel più breve tempo possibile (Figura 3.1).
Siano P1 = (x1 , y1 ) e P2 = (x2 , y2 ), con x1 < x2 e y1 > y2 , e sia
x = x(t)
y = y(t)
la legge oraria del moto del punto. Supporremo che la curva descritta sia grafico di una funzione
u : [x1 , x2 ] → R.
Se assumiamo che il tempo t = 0 corrisponda alla posizione iniziale P1 , lo spazio percorso fino
all’istante t è
Z x(t) p
s(t) =
1 + u′ (x)2 dx.
x1
Pertanto la velocità (scalare) è
v(t) =
da cui
p
1 + u′ (x(t))2 x′ (t),
v(t)
.
x′ (t) = p
1 + u′ (x(t))2
(3.11)
53
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
y
P1
y=u(x)
P2
x
Figura 3.1 - Il problema del cammino di più rapida discesa
Del resto possiamo calcolare v utilizzando la conservazione dell’energia: se m è la massa del punto
e v0 = v(0) la velocità iniziale, allora
1
1
mv 2 + mgy1 = mv(t)2 + mgy(t)
2 0
2
da cui, tenendo conto che y(t) = u(x(t)),
v(t)2 = v02 + 2gy1 − 2gu(x(t))
v2
= 2g H − u(x(t)) ,
con H = 0 + y1 .
2g
Sostituiamo nella (3.11) e otteniamo
q
2g H − u(x(t))
x′ (t) = p
.
1 + u′ (x(t))2
Possiamo assumere che la funzione x(t) sia invertibile; per l’inversa t′ (x) risulta
p
1 + u′ (x)2
1
′
=p
t (x) = ′
.
x (t)
2g(H − u(x))
Il tempo impiegato per percorrere l’arco fra P1 e P2 si ottiene ora per integrazione:
Z x2 p
1 + u′ (x)2
1
p
dx.
T (u) = √
2g x1
H − u(x)
Come verrà maggiormente dettagliato in appendice a questo capitolo, le eventuali soluzioni del
problema di minimo per il funzionale
p
Z x2
1 + u′ (x)2
′
′
f (u(x), u (x)) dx, con f (u, u ) = p
T (u) =
H − u(x)
x1
54
Capitolo 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE
rendono costante la funzione f (u, u′ ) − u′ fu′ (u, u′ ) (vedi Osservazione 3.7.11). Un calcolo diretto
porta cosı̀ alla condizione:
(H − u)(1 + u′2 ) = c2
(c costante).
Si tratta di un’equazione della forma F (u, u′ ) = 0.
Seguiamo il metodo di risoluzione sopra delineato. Una rappresentazione parametrica della curva
(H − u)(1 + u′2 ) = c2 è:
1 2
c2
2 s = H − 2 c (1 + cos s) =: A(s)
1 + tan 2
.

 u′ = tan s =: B(s)
2


u = H −
Pertanto
x(s) =
Z
A′ (s)
ds = c2
B(s)
con K costante arbitraria. Quindi:
o anche:
Z
cos2
c2
s
ds = (s + sin s) + K,
2
2

c2


 x = K + (s + sin s)
2
,
2

c

 y = H − (1 + cos s)
2

 x = K + r(s + sin s)

y = H − r(1 + cos s)
con K ∈ R e r ≥ 0 arbitrari.
Si tratta delle equazioni parametriche di una cicloide, cioè del luogo delle posizioni assunte da un
punto fissato su una circonferenza di raggio r quando viene fatta rotolare su una retta come in Figura
3.2. Le coordinate del punto dopo la rotazione di un angolo ϑ come in figura sono date da
x = rϑ − r sin ϑ = r(ϑ − sin ϑ),
z = r − r cos ϑ = r(1 − cos ϑ);
il cambiamento di parametro ϑ = π + s dà (a meno di una traslazione)
x = r(s + sin s),
z = r(1 + cos s).
Rispetto a questa curva l’arco di minima discesa è capovolto (e opportunamente traslato).
3.6 EQUAZIONE DI CLAIRAUT
Si tratta di equazioni cui si perviene spesso nella determinazione di una curva mediante imposizioni
di condizioni sulla retta tangente. Sono equazioni della forma
y = xy ′ + g(y ′ ),
(3.12)
con g di classe C 2 .
Se y è una soluzione C 2 , derivando entrambi i membri dell’equazione otteniamo
y ′′ (x + g ′ (y ′ )) = 0;
55
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
y
C
ϑ
P
O
A
x
Figura 3.2 - Cicloide: le coordinate di P sono x = rϑ − r sin ϑ e y = r − r cos ϑ
quindi y ′′ = 0, cioè y ′ = C costante, oppure x + g ′ (y ′ ) = 0. Nel primo caso la costante C individua
subito la soluzione a partire dall’equazione stessa:
y = Cx + g(C),
C ∈ R.
(3.13)
Si tratta di una famiglia di funzioni lineari che effettivamente sono soluzioni. La condizione x +
g ′ (y ′ ) = 0, cioè x = −g ′ (y ′ ), assieme all’equazione stessa dà:
x = −g ′ (y ′ )
;
y = −y ′ g ′ (y ′ ) + g(y ′ )
ciò suggerisce la curva in forma parametrica:
x = −g ′ (t)
.
y = −tg ′ (t) + g(t)
(3.14)
Negli intervalli in cui g ′ è invertibile si verifica che questa definisce effettivamente una soluzione
dell’equazione data. Infatti possiamo eliminare il parametro t ricavandolo dalla prima equazione e
ottenere cosı̀ per la funzione y:
y′ =
−g ′ (t) − tg ′′ (t) + g ′ (t)
dy dx
=
= t,
dt dt
−g ′′ (t)
per cui l’uguaglianza y = −tg ′ (t) + g(t) assieme a x = −g ′ (t) dà y = xy ′ + g(y ′ ).
Si può dimostrare che la curva (3.14) è l’inviluppo dei grafici (rette) della famiglia (3.13) di
soluzioni.
Esempio y = xy ′ + y ′2 .
Si ottiene la famiglia di rette
y = Cx + C 2
(C ∈ R).
La curva (3.14) diventa:
x = −2t
y = −t2
che in forma cartesiana è y = −x2 /4: è facile verificare che la famiglia delle rette tangenti a questa
parabola è proprio data da y = Cx + C 2 al variare di C ∈ R.
56
Capitolo 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE
3.7 EQUAZIONI DIFFERENZIALI E FORME DIFFERENZIALI
Riprendiamo le considerazioni fatte nel §2.6, in particolare il problema sintetizzato dall’equazione
(2.23), nel caso n = 2. Data la funzione continua f = (g, h) : Ω → R2 (con Ω aperto di R2 ),
consideriamo il sistema autonomo
′
x = g(x, y)
.
y ′ = h(x, y)
e il problema della determinazione delle curve in Ω i cui vettori tangenti siano in ogni punto paralleli
al campo f in quel punto, richiesta espressa dall’uguaglianza:
dy
dx
=
.
g(x, y)
h(x, y)
(3.15)
A questa situazione può essere ricondotto anche il caso di una singola equazione scalare y ′ (x) =
f (x, y(x)), considerando il sistema (vedi Osservazione 2.6.1)
′
x (t) = 1
y ′ (t) = f (x(t), y(t))
nel senso che i grafici dell’equazione sono le orbite del sistema.
L’equazione (3.15) può formalmente essere riscritta come
h(x, y)dx − g(x, y)dy = 0.
(3.16)
Nel caso dell’equazione y ′ = f (x, y), cioè dy/dx = f (x, y), questa diventa
f (x, y)dx − dy = 0.
Il significato dell’uguaglianza (3.16) è precisato dalla seguente proposizione.
Proposizione 3.7.1 Sia u = (x, y) : J → Ω una curva regolare di classe C 1 e tale che f ◦ u non
si annulli mai. Allora u soddisfa (3.15) se e solo se
h(x(t), y(t))x′ (t) − g(x(t), y(t))y ′ (t) = 0
per ogni t ∈ J.
(3.17)
Dimostrazione. Sia u soddisfacente (3.15), per cui esiste λ ∈ C 0 (J) per la quale u′ (t) =
λ(t)f (u(t)); allora
hx′ − gy ′ = hλg − gλh = 0
in J,
da cui la (3.17). Viceversa, se vale (3.17) e t è un dato punto di J, si abbia, ad esempio, h(x(t), y(t)) 6=
0 (per ipotesi f ◦ (x, y) non si annulla mai). Per continuità questa relazione è vera per tutti i t in un
intorno di t; allora
x′ (t) =
y ′ (t)
g(x(t), y(t)),
h(x(t), y(t))
y ′ (t) =
y ′ (t)
h(x(t), y(t)),
h(x(t), y(t))
in un intorno di t, da cui u′ = λf (u) con λ(t) = y ′ (t)/h(u(t)); notiamo che λ è una funzione
continua e λ(t) 6= 0 poiché altrimenti x′ (t) = y ′ (t) = 0. Se ricordiamo la nozione di forma differenziale lineare, la condizione (3.17) esprime proprio
l’annullarsi, nei punti della curva u = (x(·), y(·)), della forma differenziale
ω(x, y) := h(x, y)dx − g(x, y)dy
57
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
sul vettore tangente u′ (t) = (x′ (t), y ′ (t)).13
In generale, data una forma differenziale lineare
ω(x) =
n
X
(ai ∈ C 0 (Ω))
ai (x)dxi
i=1
su un aperto Ω di Rn , diciamo che una funzione x = (x1 (·), . . . , xn (·)) : J → Ω, con J intervallo,
è una (curva-)soluzione dell’equazione
ω=0
se
n
X
ai (x(t))x′i (t) = 0
per ogni t ∈ J.
i=1
(3.18)
Questa condizione può anche essere espressa dicendo che il pull-back x∗ ω della forma ω tramite la
funzione x è nullo.
Esempi Il sistema di equazioni di Lotka-Volterra
′
x = (α − βy)x
y ′ = (−γ + δx)y
dà luogo all’equazione:
(γ − δx)ydx + (α − βy)xdy = 0.
L’equazione scalare
y′ = −
(3.19)
x
y
fornisce l’equazione
xdx + ydy = 0.
(3.20)
Rilevante è il caso in cui la forma differenziale ω(x, y) = h(x, y)dx − g(x, y)dy è esatta, cioè
esiste H ∈ C 1 (Ω) (detta primitiva) tale che
dH(x, y) = ω(x, y).
Un esempio è proprio la (3.20). In tal caso H si mantiene costante sulle orbite. Ciò è precisato nella
successiva proposizione, alla quale anteponiamo una definizione.
Data H ∈ C 1 (Ω) e c ∈ R, diciamo che c è un valore regolare per H se
dH(x, y) 6= 0
per ogni (x, y) ∈ H −1 (c).
Ad esempio c = 0 non è un valore regolare per H(x, y) = x2 − y 2 ; l’insieme H −1 (0) si spezza in
due rette incidenti.
Proposizione 3.7.2 Sia data la forma differenziale
ω(x, y) = a(x, y)dx + b(x, y)dy
(a, b ∈ C 0 (Ω)).
Supponiamo che ω sia esatta: esiste H ∈ C 1 (Ω) tale che
dH = ω
13 Un
58
[cioè
∂H
∂H
= a(x, y) e
= b(x, y)].
∂x
∂y
richiamo alle forme differenziali lineari è in Appendice B.
Capitolo 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE
Allora ogni curva soluzione di ω = 0 è contenuta in un insieme di livello di H (cioè H è costante
lungo ogni soluzione di ω = 0).
Viceversa, se c è un valore regolare di H, allora l’insieme di livello H −1 (c) è localmente orbita
di una soluzione dell’equazione ω = 0.
Dimostrazione. Se (x, y) : J → Ω è soluzione di ω = 0, allora
0 = a(x(t), y(t))x′ (t) + b(x(t), y(t))y ′ (t) =
d
H(x(t), y(t)),
dt
per cui per ogni t ∈ J
H(x(t), y(t)) = c
per un opportuno valore c ∈ R.
Viceversa, se c è un valore regolare di H, per il Teorema della funzione implicita H −1 (c) è
localmente grafico di una funzione C 1 ; sia, ad esempio, H(x0 , y0 ) = c, con ∂H
∂y (x0 , y0 ) 6= 0: allora
nell’intorno di (x0 , y0 ) l’insieme H −1 (c) è grafico di una funzione y = ψ(x). Quindi t 7→ (t, ψ(t))
risolve l’equazione ω = 0:
a(t, ψ(t)) + b(t, ψ(t))ψ ′ (t) =
d
H(t, ψ(t)) = 0,
dt
poiché (t, ψ(t)) ∈ H −1 (c). Esempio. Sia
ω(x, y) = xdx + ydy
2
2
la funzione H(x, y) = (x + y )/2 ne è una primitiva, per cui le orbite sono archi di circonferenza:
x2 + y 2 = costante.
Esempio. Consideriamo l’equazione (1.25) del pendolo senza attrito:
ϑ̈ + ω 2 sin ϑ = 0
(ω 2 =
g
).
l
Scriviamo il sistema del primo ordine equivalente:
ϑ̇ = v
v̇ = −ω 2 sin ϑ
e la corrispondente equazione delle orbite:
ω 2 sin ϑdϑ + vdv = 0.
La forma è esatta: una primitiva è data da:
H(ϑ, v) =
1 2
v − ω 2 cos ϑ.
2
In accordo con la Proposizione 3.7.2, le orbite hanno equazioni H(ϑ, v) = c con c costante, cioè
(posto c = −ω 2 γ)
p
v = ±ω 2(cos ϑ − γ),
al variare di γ ∈ R. Una semplice analisi porta al diagramma di fase di cui alla Figura 3.7 (si studino
i casi γ < −1, γ = −1, −1 < γ < 1 e γ = 1).
59
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
5
4
3
2
1
0
−1
−2
−3
−4
−5
−6
−4
−2
0
2
Figura 3.3 - Orbite per il pendolo libero.
60
4
6
Capitolo 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE
L’esempio precedente rientra fra i problemi della forma
x′′ = f (x)
(3.21)
con f assegnata funzione reale definita su un intervallo I. Il sistema del primo ordine equivalente è:
′
x =y
y ′ = f (x)
che dà luogo alla forma differenziale esatta
ω(x, y) = −f (x)dx + ydy = dH(x, y),
dove
H(x, y) =
1 2
y − F (x),
2
con F primitiva di f .
Osserviamo che il moto di un punto materiale di massa m mobile lungo una retta r (riferita a
un sistema di ascisse x) e soggetto a una forza posizionale f (x) è dato dall’equazione mẍ = f (x),
quindi, a meno del fattore m, dall’equazione (3.21). In tal caso la funzione
E(x) =
1
my 2 − F (x)
2
(con y = ẋ) rappresenta l’energia totale del sistema. Più in generale, la coordinata x nella (??)
può avere il significato di coordinata lagrangiana del sistema ad un grado di libertà in oggetto (cioè
una coordinata che individua univocamente la configurazione del sistema): ad esempio la coordinata
angolare ϑ nel caso del pendolo.
Come si può notare nel caso specifico del pendolo, le linee di livello contenenti un punto in cui
si annulla il campo separano regioni del piano xy in cui le linee di livello sono topologicamente
differenti: si parla, al riguardo di curve separatrici.
∼·∼·∼·∼·∼·∼·∼
Nei casi in cui ω non è esatta, è talvolta possibile determinare una funzione µ(x, y) mai nulla per
la quale µω sia esatta. Chiaramente vale il seguente risultato:
Proposizione 3.7.3 Sia µ ∈ C 0 (Ω) mai nulla. Allora u è soluzione di ω = 0 se e solo se u è
soluzione di µω = 0.
Si dice che la funzione µ è un fattore integrante per la forma ω.
Esempio Riprendiamo l’esempio della forma differenziale (3.19), che non è esatta; cerchiamone un
fattore integrante µ. Deve essere
∂µ
∂µ
(γ − δx)y + µ(x, y)(γ − δx) =
(α − βy)x + µ(x, y)(α − βy).
∂y
∂x
Cerchiamo µ nella forma a variabili separate: µ(x, y) = ϕ(x)ψ(y); allora
ϕ(x)[ψ ′ (y)y + ψ(y)](γ − δx) = ψ(y)[ϕ′ (x)x + ϕ(x)](α − βy).
Una possibile soluzione si ottiene richiedendo:
ψ ′ (y)y + ψ(y) = 0 = ϕ′ (x)x + ϕ(x).
61
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
y
α/β
γ/δ
x
Figura 3.4 - Orbite delle equazioni di Lotka-Volterra (linee di livello di H(x, y) = γ log x+ α log y −
δx − βy).
Otteniamo cosı̀ ϕ(x) = 1/x e ψ(y) = 1/y, cioè µ(x, y) = 1/(xy). Allora:
µω =
con
γ
α
− δ dx +
− β dy = dH(x, y),
x
y
H(x, y) = γ log x + α log y − δx − βy.
Pertanto gli insiemi di livello di H danno le orbite del sistema di equazioni di Lotka-Volterra (vedi
Figura 3.4).
Esempio L’equazione
x+y
y′ =
x−y
che abbiamo risolto come equazione di tipo omogeneo (ottenendo come soluzioni archi di spirale
logaritmica), una volta espressa come annullamento di una forma lineare diventa:
ω := (x + y)dx + (y − x)dy = 0.
Tuttavia la forma ω non è esatta, e non è immediato individuare un fattore integrante, anche localmente.
Risulta più naturale esprimere l’equazione in coordinate polari, cioè cercare soluzioni nella forma
x(t) = ρ(t) cos ϑ(t)
y(t) = ρ(t) sin ϑ(t).
Se calcoliamo x′ (t) e y ′ (t) e applichiamo la definizione di soluzione (vedi (3.18)), otteniamo (per
ρ 6= 0):
ρdρ − ρ2 dϑ = 0,
(3.22)
62
Capitolo 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE
cioè (per ρ 6= 0) (1/ρ)dρ − dϑ = 0: questa è esatta, con primitiva log ρ − ϑ. Pertanto otteniamo
come orbite le curve di equazione log ρ − ϑ = c o anche
ρ = Ceϑ .
L’esempio ora illustrato è un caso di cambiamento di variabili nella forma differenziale (vedi
Appendice B di questo capitolo). Formalmente la forma differenziale in (3.22) non è altro che
l’espressione di ω(x, y) in cui alle variabili x e y si ostituiscano ρ cos ϑ e ρ sin ϑ, rispettivamente.
Appendice A: equazione di Eulero di un funzionale
Nel problema della brachistòcrona, il tempo T di percorrenza relativo al cammino di discesa z = u(x),
con x1 ≤ x ≤ x2 , è dato da:
Z x2 √
1 + u′2
1
√
T = T (u) = √
dx,
(3.23)
2g x1
H −u
con H costante assegnata; si cerca una funzione u che risolva il problema di minimo:
min T (u),
u∈X
dove X = {u ∈ C 1 ([a, b]) : u(x1 ) = z1 , u(x2 ) = z2 }. Questo problema può essere inquadrato in
un contesto più generale e di ampia applicabilità.
Sia V uno spazio vettoriale reale e X un sottoinsieme di V . Sia F : X → R una funzione definita
(almeno) in X e consideriamo il problema
(P )
min F (u) .
u∈X
Dato u ∈ X, diremo variazione ammissibile di u rispetto a X ogni elemento v ∈ V per il quale esiste
δ > 0 tale che
u + tv ∈ X
per ogni |t| < δ .
Vale la semplice, ma fondamentale:
Osservazione 3.7.4 Se u è soluzione del problema (P ) e v è una variazione ammissibile di u
rispetto a X, allora la funzione
φ(t) = F (u + tv) ,
(|t| < δ)
ha minimo in t = 0. Pertanto, se φ è derivabile in t = 0, risulta φ′ (0) = 0.
Motivati da ciò, indipendentemente dalla considerazione del problema (P ), diamo la seguente:
Definizione 3.7.5 (Variazione prima) Sia F : X → R, con X sottoinsieme di uno spazio
vettoriale V . Dato u ∈ X e v ∈ V variazione ammissibile di u rispetto a X, se φ(t) = F (u + tv) è
derivabile per t = 0, diciamo variazione prima di F in u rispetto a v il valore
δF (u; v) := φ′ (0) .
Pertanto:
Proposizione 3.7.6 Sia u soluzione del problema (P ). Allora
δF (u; v) = 0
(3.24)
63
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
per ogni variazione ammissibile v (per la quale esista δF (u; v)).
Osservazione 3.7.7 La condizione δF (u; v) = 0 è soltanto una condizione necessaria per la
minimalità; si tratta di una condizione di stazionarietà.
Specializziamo ora lo studio al caso di funzionali integrali della forma
Z b
F (u) =
f x, u(x), u′ (x) dx
(3.25)
a
dove (f = f (x, u, ξ)):
f ∈ C 1 ([a, b] × R × R) ,
u ∈ C 1 ([a, b]).
In tal caso F : V → R con V = C 1 ([a, b]) (e pertanto ogni elemento di V è una variazione
ammissibile).
Il problema della stazionarietà per funzionali della forma (3.25) si incontra, ad esempio, in Meccanica Analitica: si ricordi infatti il principio variazionale di Hamilton, secondo cui fra tutti i moti virtuali nello spazio delle configurazioni i moti effettivi x(t) in un intervallo [t1 , t2 ] rendono stazionario
l’integrale
Z t2
L t, x(t), ẋ(t) dt
L (x) =
t1
dove L è la funzione lagrangiana del sistema e la stazionarietà è intesa nella cosiddetta classe dei
moti variati sincroni, cioè soddisfacenti le stesse condizioni iniziali e finali di x.
Proposizione 3.7.8 Nelle ipotesi poste risulta:
Z bh
i
fu x, u(x), u′ (x) v(x) + fξ x, u(x), u′ (x) v ′ (x) dx
δF (u; v) =
a
1
comunque prese u, v ∈ C ([a, b]).
Dimostrazione. Date u e v risulta
d
f x,u + tv, u′ + tv ′
dt
= fu x, u + tv, u′ + tv ′ v + fξ x, u + tv, u′ + tv ′ v ′ ;
l’applicazione (x, t) 7→ x, u(x) + tv(x), u′ (x) + tv ′ (x) su [a, b] × [−1, 1] è continua e quindi ha
d
immagine compatta. Pertanto dt
f x, u(x) + tv(x), u′ (x) + tv ′ (x) è limitata in x uniformemente
rispetto a t: possiamo applicare il teorema di derivazione sotto il segno di integrale. Ritornando al funzionale T : X → R in (3.23), ogni ϕ ∈ Cc1 ([a, b]) è una variazione ammissibile
di u rispetto a X comunque preso u ∈ X. Questo si verifica tutte le volte che X è un sottoinsieme
di C 1 ([a, b]) ottenuto prescrivendo i dati al bordo. In tal caso l’equazione (3.24), assieme a quanto
asserito nella Proposizione 3.7.8, dà:
Z bh
i
fu x, u(x), u′ (x) ϕ + fξ x, u(x),u′ (x) ϕ′ dx = 0
a
per ogni ϕ ∈ Cc1 ([a, b]).
Se ora supponiamo che f sia di classe C 2 e che u ∈ C 1 ([a, b]) ∩ C 2 ((a, b)), un’applicazione della
regola di integrazione per parti dà:
Z bh
i
d
fu x, u(x), u′ (x) −
fξ x, u(x),u′ (x) ϕ dx = 0
dx
(3.26)
a
1
per ogni ϕ ∈ Cc ([a, b]).
64
Capitolo 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE
Ciò implica che la funzione in parentesi quadre sia nulla per ogni x ∈ (a, b). Per dimostrare ciò
supponiamo che esista x tale che [. . .](x) > 0; allora dovrebbe essere [. . .](x) > 0 in tutto un intorno
aperto I di x. Detta ϕ una funzione Cc1 ([a, b]) che sia nulla su [a, b] \ I e strettamente positiva
in I, l’integrale a primo membro in (3.26) sarebbe strettamente positivo, contro quanto assunto.
Concludiamo pertanto con il seguente risultato:
Proposizione 3.7.9 Se u ∈ C 1 ([a, b]) ∩ C 2 ((a, b)) risolve il problema (P ), con f di classe C 2 ,
allora u soddisfa l’equazione di Eulero:
d
fξ (x, u, u′ ) = fu (x, u, u′ )
dx
in (a, b).
Definizione 3.7.10 Diciamo estremale del funzionale F ogni soluzione u ∈ C 1 ([a, b])∩C 2 ((a, b))
dell’equazione di Eulero.
Osservazione 3.7.11 Se f non dipende esplicitamente da x allora la funzione
f (u, u′ ) − u′ fu′ (u, u′ )
è un integrale primo del funzionale F , cioè è costante lungo ogni estremale (qui fu′ sta per fξ ).
Infatti:
d
f (u,u′ ) − u′ fξ (u, u′ ) =
dx
fu u′ + fξ u′′ − u′′ fξ − u′
d
fξ = fu u′ − u′ fu = 0.
dx
65
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Appendice B: forme differenziali lineari
Ricordiamo la definizione di differenziale.
Sia f : Ω → Rk , con Ω aperto di Rn . Sia x0 un punto di Ω. Diciamo che la funzione f è
differenziabile in x0 se esiste A : Rn → Rk lineare tale che
lim
h→0
f (x0 + h) − f (x0 ) − Ah
= 0.
|h|
(3.27)
L’applicazione A è detta differenziale di f in x0 e indicata con
df (x0 ) oppure (df )x0
Se k = 1 il differenziale df (x0 ) è un elemento del duale (Rn )∗ di Rn .
La (3.27) può anche essere riscritta come:
f (x0 + h) = f (x0 ) + Ah + o(h)
per h → 0,
od anche
f (x) = f (x0 ) + A(x − x0 ) + o(x − x0 )
per x → x0 .
Pertanto:
l’applicazione x 7→ f (x0 ) + hdf (x0 ), x − x0 i è la funzione affine che meglio approssima f
nell’intorno del punto x0 .
Si dimostra che
hdf (x0 ), hi = Df (x0 ) · h
con Df (x0 ) matrice jacobiana di f in x0 .
Si visualizzino i casi n = k = 1 e n = 2, k = 1.
È utile interpretare il differenziale anche in altra forma. Dato v ∈ Rn studiamo il modo in cui viene
trasformato da f il moto di un punto mobile che passa per x0 con velocità v. Pertanto consideriamo
una curva
ϕ : (−1, 1) → Ω con ϕ(0) = x0 , ϕ′ (0) = v,
e valutiamo la velocità del punto f (ϕ(t)) all’istante t = 0. Risulta:
d
f (ϕ(t))
= Df (ϕ(0)) · ϕ′ (0) = Df (x0 ) · v,
dt
t=0
cioè
pertanto
d
= hdf (x0 ), vi.
f (ϕ(t))
dt
t=0
(3.28)
il differenziale df dà la trasformazione dei vettori velocità tramite la funzione f .
∼·∼·∼·∼·∼·∼·∼
La (3.28) trova facile generalizzazione al caso in cui f sia una funzione fra “sottoinsiemi ddimensionali regolari in Rn ” (più precisamente “varietà differenziabili”), come ad esempio le curve
e le superficie C 1 in R3 . Pertanto, consideriamo il caso di una funzione f : M → N , con M e
N , per fissare le idee, superficie in R3 . Come svolto sopra per una funzione su un aperto di uno
spazio euclideo, analizziamo come f trasforma il moto di un punto su M . Quest’ultimo viene dato
66
Capitolo 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE
y
y
f
hdf (x0 ),vi
v
x0
N
M
ϕ
y
−1
y
1
0
J
x
x
Figura 3.5 - Trasformazione dei vettori velocità tramite f
assegnando una curva ϕ : (−1, 1) → M sulla superficie M ; sia ϕ(0) = x0 e ϕ′ (0) = v. Osserviamo
subito che la regolarità di M permette di dimostrare che l’insieme
Tx0 M = {v ∈ R3 : ∃ϕ : (−1, 1) → M, ϕ(0) = x0 , ϕ′ (0) = v}
è un sottospazio di R3 detto spazio tangente a M in x0 . L’immagine tramite f della curva ϕ è data
da f ◦ ϕ, che è una curva su N passante per f (x0 ). Allora risulta definita l’applicazione
d
∈ Tf (x0 ) N
v ∈ Tx0 M 7→ f (ϕ(t))
dt
t=0
(e si dimostra non dipendere dalla particolare curva ϕ scelta a cui il vettore v è tangente). Questa
applicazione è detta differenziale di f in x0 :
df (x0 ) : Tx0 M → Tf (x0 ) N.
Si verifica essere un’applicazione lineare.
Se M e N sono aperti di Rn e Rk rispettivamente, allora (le definizioni sopra riportate continuano
a valere e) risulta:
Tf (x0 ) N = Rk ;
T x 0 M = Rn ,
In questo caso si ottiene cosı̀ nuovamente la definizione già vista.
Osserviamo inoltre che se N = R allora df (x0 ) è un funzionale lineare su Tx0 M , cioè un elemento
del suo duale algebrico:
∗
df (x0 ) ∈ Tx0 M .
∼·∼·∼·∼·∼·∼·∼
Un caso particolare è quello in cui f è la i-esima proiezione di Rn :
πi : x 7→ xi : Rn → R.
In tal caso il differenziale coincide con πi stessa:
hdπi , vi = v i ,
se v =
X
v j ej .
j
Usualmente si utilizza il simbolo dxi anzichè dπi ; quindi:
X
v j ej .
hdxi , vi = v i ,
se v =
j
67
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
La sequenza
dx1 , dx2 , . . . , dxn
P
forma una base del duale di R ; infatti se A ∈ (Rn )∗ e v = j v j ej , allora:
X
X
X
αj dxj , vi,
αj hdxj , vi = h
v j hA, ej i =
hA, vi =
n
j
j
j
dove si è posto αj = hA, ej i. Quindi
A=
X
αj dxj .
j
In particolare, sia f : Ω → R un’applicazione differenziabile in x0 ; allora
X ∂f
hdf (x0 ), vi =
vj ,
∂x
j
j
per cui
∂f
∂f
∂f
dx1 +
dx2 + . . . +
dxn .
∂x1
∂x2
∂xn
Definizione 3.7.12 Diciamo forma differenziale lineare (o 1-forma) di classe C 0 su un aperto Ω
di Rn l’assegnazione continua in ogni punto di Ω di un elemento di (Rn )∗ .
df (x0 ) =
Quindi una forma ω su Ω può essere scritta come:
ω(x) =
n
X
ai (x)dxi ,
i=1
ai ∈ C 0 (Ω).
Un caso particolare è chiaramente il differenziale di una funzione C 1 . Una forma ω su Ω si dice
esatta se esiste H ∈ C 1 (Ω) tale che ω = dH.
Dalle considerazioni svolte sopra si può cogliere come il concetto di forma differenziale lineare
possa essere esteso al caso in cui anzichè un aperto Ω si abbia, ad esempio, una superficie.
Pn
Una forma differenziale ω(x) = i=1 ai (x)dxi su Ω si dice chiusa se
∂ai (x)
∂aj (x)
=
∂xj
∂xi
per ogni x ∈ Ω.
Se i coefficienti ai sono di classe C 1 , allora il Teorema di Schwarz sull’inversione dell’ordine di
derivazione implica che se ω è esatta allora è chiusa. Si può dimostrare che il viceversa vale se Ω è
semplicemente connesso. In quest’ultimo caso la verifica dell’esattezza di una forma è immediata.
∼·∼·∼·∼·∼·∼·∼
Ricordiamo infine la nozione di pull-back di una forma differenziale. P
Siano G ⊆ Rm e Ω ⊆ Rn aperti e φ : G → Ω di classe C 1 . Sia ω(x) = i ai (x)dxi una forma
differenziale su Ω. Per ogni ξ ∈ G e v ∈ Rm poniamo
h(φ∗ ω)(ξ), vi := hω(φ(ξ)), h(dφ)ξ , vii
(la forma ω agisce nel punto immagine φ(ξ) sul vettore trasformato di v tramite l’applicazione
differenziale dφ in ξ). In ogni punto ξ di G è quindi assegnata un’applicazione lineare su Rm ,
ottenendo pertanto una forma differenziale φ∗ ω su G, detta pull-back di ω tramite φ. La forma φ∗ ω
è il modo più naturale di trasportare la forma ω da Ω su G tramite φ.
Posto φ = (φi )i , poiché hdxi , (dφ)ξ (v)i = (dφi )ξ (v), possiamo scrivere φ∗ ω come
φ∗ ω =
n
X
i=1
(ai ◦ φ)dφi .
Formalmente, questa si ottiene dall’espressione di ω(x) sostituendo la variabile x con φ(ξ).
68
Capitolo 4
EQUAZIONI E SISTEMI DIFFERENZIALI
LINEARI
Ci occupiamo ora di (sistemi di) equazioni differenziali lineari, cioè della forma
x′ = A(t)x + b(t),
(4.1)
dove la funzione incognita x(·) è a valori in Rn , il coefficiente A è una matrice n × n a elementi reali
continui in un intervallo I , mentre b è una funzione continua in I a valori in Rn :
A ∈ C 0 (I; M n×n (R)),
b ∈ C 0 (I; Rn ).
Il prodotto A(t)x(t) è inteso come usuale prodotto fra una matrice n × n e un vettore (colonna)
x(t).14
Un esempio di sistema del tipo (4.1) è stato incontrato nello studio dei circuiti accoppiati (vedi
(1.19)).
Sappiamo (vedi l’Osservazione 2.4.5) che ogni soluzione di (4.1) è prolungabile a tutto l’insieme
I di continuità dei coefficienti, per cui assumiamo
x : I → Rn .
L’equazione
x′ = A(t)x
(4.2)
verrà detta equazione omogenea associata all’equazione (4.1); per contro, ci si riferisce a volte
all’equazione (4.1), come all’equazione completa.
Osserviamo inoltre che sono chiaramente soddisfatte le condizioni che assicurano l’unicità per i
problemi di Cauchy (il secondo membro della (4.1) è lineare in x). Indicheremo la soluzione (unica)
del problema
 ′
 x = A(t)x + b(t)
con x(·, t0 , x0 ).

x(t0 ) = x0
Osservazione 4.0.13 Se le funzioni A e b nell’equazione (4.1) sono di classe C 1 , allora ogni
soluzione x ha la derivata x′ di classe C 1 . Per induzione otteniamo
A, b ∈ C k
14 Per
⇒
x ∈ C k+1
comodità, se il contesto è sufficientemente chiaro, scriveremo a volte in riga anche i vettori colonna.
69
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
per k = 0, 1, . . .. Se A e b sono di classe C ∞ anche le soluzioni sono pertanto di classe C ∞ .
Analizziamo ora la struttura dell’insieme delle soluzioni, iniziando dal caso dell’equazione omogenea (4.2).
4.1 EQUAZIONE OMOGENEA. MATRICE RISOLVENTE
Basilare è il seguente semplice risultato sulla struttura dell’insieme delle soluzioni di un’equazione
omogenea.
Teorema 4.1.1 (di struttura per l’equazione omogenea) L’insieme V delle soluzioni
dell’equazione (4.2) è un sottospazio vettoriale di C 1 (I; Rn ). Per ogni t0 ∈ I l’applicazione
φt0 : ξ 7→ x(·, t0 , ξ) : Rn → V
è un isomorfismo di spazi vettoriali. Pertanto V ha dimensione n.
Dimostrazione. Dati u1 , u2 ∈ V e α, β ∈ R, la funzione u = αu1 + βu2 è una soluzione di (4.2):
u′ = αu′1 + βu′2 = αA(t)u1 + βA(t)u2 = A(t)(αu1 + βu2 ) = A(t)u.
Quindi V è un sottospazio di C 1 (I; Rn ).
Siano assegnati ξ1 , ξ2 ∈ Rn e α, β ∈ R e indichiamo con u1 e u2 le soluzioni con dati ξ1 e ξ2 per
t = t0 , rispettivamente, cioè u1 = φt0 (ξ1 ) e u2 = φt0 (ξ2 ); la soluzione u = αu1 + βu2 assume in
t0 il valore αξ1 + βξ2 , quindi è la soluzione φt0 (αξ1 + βξ2 ), cioè:
αφt0 (ξ1 ) + βφt0 (ξ2 ) = αu1 + βu2 = φt0 (αξ1 + βξ2 ).
Ciò dice che φt0 è un omomorfismo. Del resto se la funzione u = φt0 (ξ) è l’elemento nullo di V ,
allora ξ = u(t0 ) = 0; pertanto φt0 è iniettivo. La suriettività è ovvia (ogni soluzione u è definita
anche in t0 , per cui u = φt0 (ξ) con ξ = u(t0 )).
Dall’essere φt0 un isomorfismo discende che la dimensione di V è n. Corollario 4.1.2 Siano u1 , u2 , . . . , un in V e t0 ∈ I. Allora u1 , u2 , . . . , un sono linearmente
indipendenti ( in V ) se e solo se u1 (t0 ), u2 (t0 ), . . . , un (t0 ) sono linearmente indipendenti ( in Rn ).
Dimostrazione. Discende immediatamente dal fatto che φt0 è un isomorfismo. Osservazione 4.1.3 Quanto detto sopra continua a sussistere ambientando, con ovvia estensione,
lo studio in C (e considerando, più in generale, matrici a coefficienti complessi). Il passaggio al
campo C, algebricamente chiuso, renderà più agevole lo studio dei sistemi a coefficienti costanti
(vedi §§ 4.4 e 4.5).
Dal corollario precedente segue che per verificare l’indipendenza di n soluzioni u1 , u2 , . . . , un è
sufficiente verificare la lineare indipendenza di u1 (t), u2 (t), . . . , un (t) per un qualche t ∈ I, quindi
valutare l’annullarsi o meno di:
W (t) = det X(t),
dove
X(t) = (u1 (t) | u2 (t) | . . . | un (t))
70
(4.3)
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
è la matrice che ha nelle colonne le soluzioni u1 , . . . , un . La matrice X(t) e il suo determinante
W (t) sono detti, rispettivamente matrice wronskiana e determinante wronskiano delle n soluzioni
u1 , . . . , un .
Osservazione 4.1.4 Dare n soluzioni dell’equazione (4.2) equivale a dare una soluzione dell’equazione matriciale
X ′ = A(t)X
(le colonne di X(t) sono soluzioni di x′ = A(t)x).
Esempio. Consideriamo un caso elementare per illustrare i concetti esposti:
 ′
„
x1 = ωx2
0
cioè x′ = Ax con A =
′
x2 = −ωx1
−ω
«
ω
.
0
Sappiamo (vedi § 1.9) che questo sistema è equivalente all’equazione:
2
x′′
2 + ω x2 = 0.
Le soluzioni sono fornite da (si ricordi la (1.14) del Cap. I):
x2 (t) = K cos(ωt + ϕ),
Inoltre x1 = −x′2 /ω, per cui:
x(t) =
„
x1 (t)
x2 (t)
«
=
„
K ≥ 0, ϕ ∈ R;
«
K sin(ωt + ϕ)
.
K cos(ωt + ϕ)
Da questa formula generale possiamo ricavare, in particolare, le soluzioni u1 e u2 del problema di Cauchy
 ′
x = Ax
x(0) = ξ
(4.4)
(4.5)
con ξ = e1 e ξ = e2 ; le funzioni u1 e u2 si ottengono per K = 1 e ϕ = π/2 o ϕ = 0, rispettivamente:
„
«
„
«
cos ωt
sin ωt
u1 =
,
u2 =
.
− sin ωt
cos ωt
Queste sono linearmente indipendenti, come si può ricavare osservando che la loro matrice wronskiana X(t) ha sempre
determinante uguale a 1 (basterebbe osservare che, per come sono state definite u1 e u2 , risulta det X(0) = det I = 1, con
I matrice identità). Dalla (4.4) si deduce che la generica soluzione x(·) si esprime come combinazione lineare di u1 e u2 :
„
«
K sin ωt cos ϕ + K cos ωt sin ϕ
x(t) =
= K(sin ϕ)u1 + K(cos ϕ)u2
(4.6)
K cos ωt cos ϕ − K sin ωt sin ϕ
(al variare di K e ϕ le costanti K sin ϕ e K cos ϕ danno una qualunque coppia (c1 , c2 ) di costanti reali). Notiamo che
K sin ϕ = x1 (0) e K cos ϕ = x2 (0); del resto è evidente che la soluzione del problema (4.5) per un arbitrario ξ è
x(t) = X(t)ξ,
poiché le soluzioni u1 e u2 sono state scelte con i valori e1 ed e2 , rispettivamente, in t = 0.
Generalizziamo ora queste osservazioni.
Dato τ ∈ I, sia ui (·, τ ) la soluzione di
x′ = A(t)x
x(τ ) = ξ
(4.7)
con ξ = ei , e si definisca
R(·, τ ) = u1 (·, τ ) | u2 (·, τ ) | . . . | un (·, τ ) ;
(4.8)
la matrice le cui colonne sono date dalle funzioni ui (·, τ ); si tratta di soluzioni linearmente indipendenti poiché R(τ, τ ) = I (matrice identità).
Definizione 4.1.5 La matrice R è detta matrice risolvente del sistema x′ = A(t)x.
71
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Proposizione 4.1.6 Comunque dati τ ∈ I e ξ ∈ Rn la soluzione del problema di Cauchy (4.7)
si può esprimere nella forma:
x(t) = R(t, τ )ξ.
Infatti, R(·, τ )ξ è una soluzione del sistema x′ = A(t)x e all’istante t = τ assume il valore
R(τ, τ )ξ = Iξ = ξ.
Osservazione 4.1.7 La matrice R è univocamente individuata come soluzione dell’equazione:


 ∂R (t, τ ) = A(t)R(t, τ )
∂t


R(τ, τ ) = I.
Osservazione 4.1.8 Se il sistema è autonomo (A costante) allora (si ricordi la (2.21) del Cap. II)
R(t, τ ) = R(t − τ, 0).
Nell’esempio precedente la matrice A è costante, per cui la soluzione del problema (4.7) per ξ = ei non è altro che
t 7→ ui (t − τ ), dove ui è la soluzione determinata per τ = 0; quindi in questo caso
„
«
cos ω(t − τ )
sin ω(t − τ )
R(t, τ ) =
.
(4.9)
− sin ω(t − τ ) cos ω(t − τ )
Se ui , . . . , un è una qualunque n-upla di soluzioni di (4.2), comunque preso τ ∈ I si ha
ui (t) = R(t, τ )ui (τ ),
o anche, indicando con X la matrice wronskiana di ui , . . . , un
X(t) = R(t, τ )X(τ ).
Se poi le ui , . . . , un sono linearmente indipendenti allora X è invertibile, per cui possiamo esprimere
la matrice risolvente R tramite X:
R(t, τ ) = X(t)X(τ )−1 .
(4.10)
Terminiamo il paragrafo con un’interessante relazione soddisfatta dalla matrice wronskiana di una
n-upla di soluzioni dell’equazione omogenea (4.2).
Teorema 4.1.9 (Liouville) Sia X una soluzione di
X ′ = A(t)X
(X ∈ C 1 (I; M n×n )).
Allora il determinante wronskiano W (t) di X(t) è soluzione di
z ′ = tr A(t) z.
Quindi
W (t) = W (t0 ) exp
Z
t
t0
comunque presi t, t0 ∈ I.
72
(tr A(s) ds
(4.11)
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
Dimostrazione. Abbiamo visto che se X ′ = AX allora
X(t) = R(t, τ )X(τ ),
per cui (teorema di Binet), comunque presi t, τ ∈ I,
W (t) = det X(t) = det R(t, τ ) det X(τ ).
Quindi
∂
detR(t, τ ) W (τ ).
(4.12)
∂t
Ricordiamo che la derivata di un determinante si ottiene come somma dei determinanti delle matrici
ottenute derivando successivamente le singole colonne.15 Allora:
W ′ (t) =
n
X
∂
det u1 (t, τ ) | . . . | u′j (t, τ ) | . . . | un (t, τ ) .
det R(t, τ ) =
∂t
j=1
Osserviamo che u′j (t, τ ) = A(t)uj (t, τ ) e poniamo t = τ : ricordando che ui (τ, τ ) = ei per ogni i,
si ottiene:
n
X
∂
det e1 | . . . | A(τ )ej | . . . | en
det R(t, τ )
=
∂t
t=τ
j=1
=
n
X
ajj (τ ) = tr A(τ ).
j=1
Di conseguenza la (4.12) per t = τ dà:
W ′ (τ ) = tr A(τ )W (τ ).
In base all’arbitrarietà di τ , questo conclude la dimostrazione. 4.2 EQUAZIONE COMPLETA. VARIAZIONE DELLE COSTANTI
Teorema 4.2.1 (di struttura dell’equazione completa) Se x è una soluzione dell’equazione completa (4.1) allora tutte e sole le soluzioni dell’equazione completa stessa sono date
da
x = xo + x
al variare di xo fra le soluzioni dell’equazione omogenea associata (4.2).
15 Il
`
´
determinante di una matrice A(t) = aij (t) si può esprimere come
X
det A(t) =
(−1)σ aσ(1)1 (t)aσ(2)2 (t) . . . aσ(n)n (t),
σ
dove σ varia fra tutte le permutazioni dell’insieme {1, . . . , n} e (−1)σ indica il segno della permutazione σ. Allora l’usuale
regola di derivazione del prodotto dà:
n X
X
d
det A(t) =
(−1)σ aσ(1)1 (t) . . . a′σ(1)i (t) . . . aσ(n)n (t);
dt
i=1 σ
P
Ciascun addendo della somma i non è altro che il determinante della matrice ottenuta derivando soltanto la i-esima colonna
Ai (t), quindi:
n
X
`
´
d
det A(t) =
det A1 (t) . . . A′i (t) . . . An (t) .
dt
i=1
73
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Dimostrazione. La dimostrazione ricalca quanto visto in merito alla Proposizione 3.2.1. Variazione delle costanti. Mostriamo come sia possibile individuare un integrale particolare x dell’equazione completa (4.1) una volta noto un insieme di n soluzioni linearmente indipendenti dell’equazione omogenea associata (4.2).
Sia pertanto X una soluzione dell’equazione matriciale X ′ = A(t)X, con det X(t) 6= 0. Allora
le soluzioni di (4.2) si esprimono come X(t)ξ al variare di ξ ∈ Rn . In analogia con quanto già svolto
al § 3.2, cerchiamo x della forma
x(t) = X(t)ξ(t),
per un’opportuna funzione ξ. Questa deve alllora soddisfare
X ′ ξ + Xξ ′ = AXξ + b,
da cui, essendo X ′ = AX,
ξ ′ (t) = X(t)−1 b(t).
Come funzione ξ possiamo quindi scegliere una qualunque primitiva di X(t)−1 b(t):
Z
ξ(t) = X(t)−1 b(t) dt.
Allora la famiglia delle soluzioni dell’equazione (4.2) diventa:
Z
x(t) = X(t) K + X(t)−1 b(t) dt
(K ∈ Rn ),
(X(t)K al variare di K ∈ Rn fornisce le soluzioni dell’equazione omogenea); la costante K può
essere incorporata nell’integrale indefinito successivo.
È significativo mettere in evidenza la matrice risolvente nell’espressione di x(t) ora determinata.
Rt
Fissato t0 ∈ I, sia ξ(t) = t0 X(s)−1 b(s) ds e
x(t) = X(t)
Z
t
X(s)−1 b(s) ds .
t0
Ricordando la (4.10) abbiamo:
x(t) =
Z
t
R(t, s)b(s) ds.
t0
Proposizione 4.2.2 La funzione x sopra definita è una soluzione del sistema lineare x′ = A(t)x+
b(t).
t
non nullo:
Esempio Riprendiamo l’esempio precedente aggiungendo un termine b(t) =
0
x′1 = ωx2 + t
.
x′2 = −ωx1
Già abbiamo calcolato la matrice risolvente: si veda la (4.9). Scegliamo t0 = 0; otteniamo la
soluzione

 Z t
  1
(1
−
cos
ωt)
Z t
s cos ω(t − s) ds   ω 2


.
=
0
Z
x(t) =
R(t, s)b(s) ds = 
t


 
0
1
1
−
s sin ω(t − s) ds
− t − sin ωt
0
ω
ω
74
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
Se riprendiamo le soluzioni (4.6) del sistema omogeneo associato, concludiamo che le soluzioni del
sistema proposto sono date da

1

 x1 = c1 cos ωt + c2 sin ωt + 2 (1 − cos ωt)
ω

 x = −c sin ωt + c cos ωt − 1 t − 1 sin ωt
2
1
2
ω
ω
al variare di c1 e c2 in R.
4.3 ESPONENZIALE DI UNA MATRICE
Nel prossimo paragrafo vedremo come l’applicazione del metodo delle approssimanti successive per
l’equazione omogenea x′ = Ax, con A matrice costante, porti alla considerazione della successione
di funzioni:
1
1
(tA)m .
t 7→ I + tA + (tA)2 + . . . +
2
m!
Pertanto trattiamo preliminarmente il problema della convergenza di questo tipo di funzioni.
Sia A ∈ M n×n (C) una matrice n × n ad elementi in C; questa induce in modo canonico
un’applicazione lineare:
x 7→ Ax : Cn → Cn .
Definiamo kAk come la norma di tale operatore, cioè:
kAk = max{|Ax| : |x| ≤ 1}.
Le seguenti proprietà sono di verifica immediata.
Proposizione 4.3.1 Siano A, B ∈ M n×n (C); allora
a) |Ax| ≤ kAk |x|;
b) kABk ≤ kAk kBk;
c) kAm k ≤ kAkm .
2
Ricordiamo che in uno spazio finito-dimensionale (nel caso attuale M n×n (C) non è altro che Cn )
tutte le norme sono equivalenti. La nozione (topologica) di convergenza è pertanto indipendente dalla
norma scelta.
P∞
In particolare, data una successione (Ak ) in P
M n×n (C),
diciamo che k=0 Ak è convergente
P∞ se
m
tale è la successione delle sue somme parziali
Ak m . Diremo inoltre che la serie k=0 Ak
k=0
P∞
converge assolutamente se è convergente la serie k=0 kAk k. Come per le serie numeriche, si
dimostra che se una serie è assolutamente convergente allora è convergente (si utilizzi il criterio di
Cauchy).
Teorema 4.3.2 Data A ∈ M n×n (C), la serie
∞
X
Ak
k=0
k!
converge assolutamente. Indichiamo la somma con eA . Risulta inoltre:
keA k ≤ ekAk .
75
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Dimostrazione. La dimostrazione è immediata poiché
Ak ≤ 1 kAkk
k!
k!
e la serie di termine generale kAkk /k! converge a ekAk . Della funzione esponenziale reale la funzione ora introdotta conserva la proprietà fondamentale
di trasformare la somma in prodotto. Più precisamente vale il seguente risultato.
Teorema 4.3.3 Siano A, B ∈ M n×n (C). Se AB = BA allora
eA+B = eA eB .
Dimostrazione. Poiché A e B commutano possiamo utilizzare l’usuale sviluppo della potenza del
binomio (A + B)k , per cui:
e
A+B
=
∞
X
(A + B)k
k=0
k!
∞
k X
1 X k
Aj B k−j
=
k! j=0 j
k=0
∞ X
k
X
Aj B k−j
=
.
j! (k − j)!
j=0
k=0
Si ottiene la serie prodotto delle due serie assolutamente convergenti
∞
X
Aj
j=0
j!
∞
X
Bh
;
h!
,
h=0
come enunciato nel successivo lemma, la serie prodotto converge al prodotto delle due serie, e ciò
conclude la dimostrazione. Lemma 4.3.4 Siano
∞
X
∞
X
Aj ,
j=0
Bh
h=0
due serie in M n×n (C) assolutamente convergenti. Allora la serie prodotto definita da:
∞ X
k
X
Aj Bk−j
k=0 j=0
è assolutamente convergente e ha per somma il prodotto delle somme delle due serie fattore.
Dimostrazione. Indichiamo con Ck il termine generale della serie prodotto. Chiaramente
kCk k ≤
k
X
j=0
kAj kkBk−j k .
P
P
Il secondo membro
non è altro che il termine generale P
della serie prodotto di
kAj k e
kBh k;
P
ne segue che
kCk k è convergente, cioè che la serie
Ck è assolutamente convergente, quindi
76
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
h
2m
j+h=k
m
(j,h)
m
2m
j
Figura 4.1 - L’insieme degli indici (j, h) per i quali 0 ≤ j +h ≤ 2m si decompone in [0, m]2 e nei due
triangoli rimanenti {m + 1 ≤ j ≤ 2m, 0 ≤ h ≤ 2m − j} e {m + 1 ≤ h ≤ 2m, 0 ≤ j ≤ 2m − h}.
convergente. Pertanto è sufficiente calcolare il limite delle somme parziali su una particolare successione. Fissato m ∈ N, se ripartiamo le coppie (j, h) di indici che compaiono in questa somma come
indicato in Figura 4.1, abbiamo:
2m
X
Ck =
k=0
2m X
k
X
k=0
=
Aj Bh
j,h=0
j+h=k
m X
m
X
Aj Bh + R1m + R2m ,
j=0 h=0
dove
2m
X
R1m =
2m−j
X
R2m =
Aj Bh ,
kR1m k ≤
Cosı̀ pure per R2m . Poiché
2m
X
j=m+1
kAj k
Pm Pm
2m
X
k=0
j=0
h=0
Ck →
∞
X
2m−h
X
Aj Bh .
h=m+1 j=0
j=m+1 h=0
Risulta:
2m
X
∞
X
h=0
kBh k → 0
per m → +∞.
Pm
Pm
Aj Bh = ( j=0 Aj )( h=0 Bh ), concludiamo che
Aj
j=0
∞
X
Bh
h=0
per m → +∞. Corollario 4.3.5 La matrice eA è invertibile e risulta (eA )−1 = e−A .
Dimostrazione. I = e0 = eA−A = eA e−A . Notiamo infine che se P è una matrice invertibile, allora
eP
−1
AP
= P −1 eA P.
(4.13)
Infatti (P −1 AP )k = P −1 Ak P per ogni k, per cui è sufficiente applicare la definizione.
77
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
4.4 SISTEMI OMOGENEI AUTONOMI
Consideriamo ora il caso di un sistema lineare omogeneo e autonomo:
x′ = Ax.
(4.14)
Sappiamo che la matrice risolvente R(t, τ ) soddisfa alla condizione R(t, τ ) = R(t−τ, 0), per cui possiamo limitarci a calcolare R(t, 0), cioè (si ricordi l’Osservazione 4.1.7) la soluzione dell’equazione
matriciale:
′
X = AX
(4.15)
X(0) = I.
La formulazione integrale del problema diventa:
X(t) = I + A
Z
t
X(s) ds.
0
Applichiamo il metodo iterativo delle approssimanti successive (come utilizzato nel Teorema 2.1.3).
Posto:
Z
t
T : X 7→ I + A
0
X(s) ds : C 0 (I; M n×n ) → C 0 (I; M n×n ),
consideriamo la successione:
X0 (t) ≡ I
X1 (t) = (T X0 )(t) = I + tA
Z t
1
(I + sA) ds = I + tA + t2 A2
X2 (t) = (T X1 )(t) = I + A
2
0
...
1
1
tm+1 Am+1
Xm+1 (t) = (T Xm )(t) = I + tA + t2 A2 + . . . +
2
(m + 1)!
...
Per quanto visto nel paragrafo precedente la successione Xm (t) converge a P
X(t) = etA . Inoltre la
tA
convergenza è uniforme sui compatti di R (se |t| ≤ M allora kXm(t)−e k ≤ k=m+1 (M kAk)k /k! →
0 per m → +∞). Pertanto dall’uguaglianza
Xm+1 (t) = I + A
Z
t
Xm (s) ds
0
ricaviamo che X è soluzione dell’equazione (4.15), quindi coincide con R(·, 0). Concludiamo che
R(t, τ ) = e(t−τ )A .
Riassumiamo quanto ottenuto nel seguente enunciato:
Teorema 4.4.1 Comunque fissato τ ∈ R, la soluzione del problema di Cauchy
′
x = Ax
x(τ ) = x0
è data da
x(t) = e(t−τ )A x0 .
78
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
Pertanto, la famiglia di tutte le soluzioni dell’equazione x′ = Ax è data dalle funzioni:
x(t) = etA ξ
al variare di ξ ∈ Rn .
∼·∼·∼·∼·∼·∼·∼
Come vedremo nel prossimo paragrafo, nel calcolo della matrice esponenziale sarà utile passare
al calcolo dell’esponenziale di un’opportuna matrice simile, sfruttando quindi la relazione (4.13): se
P è una matrice n × n invertibile, posto à = P −1 AP , la matrice risolvente del sistema (4.14) è
e(t−τ )A = P e(t−τ )Ã P −1 .
(4.16)
Comunque, poiché la generica soluzione del sistema (4.14) è x(t) = etA ξ = P età P −1 ξ, per un
qualche ξ ∈ Rn , l’integrale generale può essere espresso come
x(t) = P età C
al variare di C ∈ Rn
(4.17)
(l’arbitrarietà di ξ in Rn si traduce nell’arbitrarietà di C ∈ Rn ). Possiamo anche interpretare questa
relazione come il risultato di un cambiamento lineare di variabile nel sistema x′ = Ax; infatti, posto
x = P x̃,
il sistema diventa
x̃′ = Ãx̃
con à = P −1 AP .
Poiché x̃(t) = età C, ne scende ancora la (4.17).
Osservazione 4.4.2 Sarà utile pensare alla matrice A come alla matrice associata a un operatore
lineare T su uno spazio vettoriale di dimensione n rispetto a una data base B = (e1 , e2 , . . . , en ):
ad esempio la base canonica su V = Cn e T = T A : x 7→ Ax : Cn → Cn . Ogni matrice à =
P −1 AP viene di conseguenza
P interpretata come la matrice associata a T rispetto alla base B̃ =
(ẽ1 , ẽ2 , . . . , ẽn ), dove ẽj = i pij ei (si ricordi la relazione (4.49) in Appendice): se (e1 , e2 , . . . , en )
è la base canonica di Cn allora ẽj non è altro che la j-esima colonna della matrice P (vedi Osservazione
4.8.2 in Appendice).
Esercizio. Dimostrare che se AB = BA allora AeB = eB A.
Esercizio.
a) Utilizzando la definizione di esponenziale dimostrare che
ehA − I
= A.
h→0
h
lim
b) Mediante la definizione di derivata verificare che
d tA
e = etA A = AetA .
dt
Rimane cosı̀ verificato direttamente che etA x0 è soluzione dell’equazione x′ = Ax.
79
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
4.5 CALCOLO DELLA MATRICE ESPONENZIALE
Data una matrice A ∈ M n×n (C), occupiamoci del calcolo di eA , o meglio di etA per t ∈ R. Si tratta
quindi delle soluzioni del sistema x′ = Ax impostato, con ovvia estensione, in campo complesso.
Porsi in C permette un’esposizione più nitida dei risultati, avendosi esattamente n autovalori (contati
con la rispettiva molteplicità). In un secondo momento (§ 4.5.3) vedremo come sia possibile ottenere
n soluzioni reali linearmente indipendenti dell’equazione x′ = Ax nel caso in cui la matrice A sia a
coefficienti reali.
Vi sono due situazioni in cui la matrice eA può essere esprimibile facilmente in termini finiti.
• A matrice diagonale


A=
In tal caso, per ogni k ∈ N
 k
λ1

k
A =
0
0
..
.
λkn


,
λ1
..
.
0
per cui

0
λn
eA =

.
∞
X
Ak
k=0
k!


=
eλ1
0
..
0
.
eλn


.
Quindi
etA
 tλ1
e

=
0
0
..
.
etλn


.
(4.18)
• A matrice nilpotente, cioè soddisfacente la proprietà
esiste s ∈ N tale che As = 0.
In tal caso la serie che definisce eA si riduce ad una somma finita. Un esempio importante di questo
tipo è il seguente (blocco nilpotente elementare):

0
0

 ..
N =
.
.
 ..
0
1
0
0
0
1
..
.
0

... 0
. . . 0


..
. 0
.

..
. 1
(4.19)
... 0
È facile vedere che N n = 0, mentre le potenze N k , con 2 ≤ k ≤ n − 1, sono date da:
0 0
0 0

 ..
.

2
N = .
 ..

.
 ..

0 0
80
1
0
..
.
0


... ... 0
0 0
0 0
1 . . . 0



 ..
..
.
. 0


n−1
= .
 ... N
..
..

 ..
.
. 1


.
..

 ..
. 0
... ... 0
0 0
0
0
..
.
0
... ...
0 ...
..
..
.
.
..
..
.
.
..
.
... ...

1
0


0


0


0
0
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
Allora la serie che definisce etN , si riduce a:
etN

1


0

n−1
.
X (tN )k

=
=  ..
.
k!
k=0
.
.

.
 ..
0
t
t2
2
1
t
..
0
.
0
... ...
t2
2
..
.
..
.
...
..
.
..
.
1
... ...

tn−1
(n − 1)! 

..


.


..

.
.

t2 


2


t
(4.20)
1
Se A è nilpotente allora l’unico autovalore è λ = 0 (con molteplicità n). Infatti, se λ ∈ C e
v ∈ Cn \ {0} sono tali che Av = λv, allora
A2 v = λAv = λ2 v.
Iterando il procedimento si ottiene As v = λs v, da cui, poiché v 6= 0, si ricava λs = 0 se As = 0;
quindi λ = 0.
In realtà, ammettere il solo autovalore nullo è condizione necessaria e sufficiente perché una
matrice sia nilpotente. Enunciamo questo risultato nella seguente forma:
Proposizione 4.5.1 Sia V uno spazio vettoriale su C e T : V → V un operatore linerare. Allora
T è nilpotente (cioè esiste s ∈ N per il quale T s = 0) se e solo se T ammette solamente l’autovalore
nullo.
Dimostrazione. Come visto sopra, da T v = λv si ottiene T s v = λs v per ogni s ∈ N, da cui
λ = 0 se T è nilpotente. Per il viceversa utilizziamo il Lemma 4.8.12 (decomposizione di Fitting):
sia s ∈ N per il quale
V = ker T s ⊕ Im T s
s
e T
abbia
solo
l’autovalore
nullo
(a
meno
che
ker
T
=
{0}),
mentre
T
non presenti
ker T s
Im T s
l’autovalore nullo. Se T ha solo l’autovalore nullo, allora deve necessariamente essere Im T s = {0},
da cui V = ker T s , cioè T s = 0. Nel caso generale il calcolo dell’esponenziale di una data matrice può essere ricondotto al calcolo
di un’esponenziale che rientri in uno dei casi precedenti mediante il passaggio a un’opportuna matrice
simile, utilizzando poi la relazione (4.16) (o meglio, ai fini della risoluzione del sistema differenziale,
la (4.17)).
4.5.1
Matrice diagonalizzabile
La situazione più semplice è quella in cui la matrice A è diagonalizzabile (in C). In tal caso (si
veda la Proposizione 4.8.10 e l’Osservazione 4.8.11 in Appendice), esiste una base di Cn formata da
autovettori e la matrice P che ha nelle colonne gli elementi di tale base diagonalizza A, cioè P −1 AP
è diagonale.
Vediamo un esempio.
81
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Esempio.
x′ (t) = Ax(t),
Risulta:


1 −6 6
A = −3 4 −6
−3 6 −8
det(A − λI) = (1 − λ)(λ + 2)2 .
Gli autovalori sono pertanto λ1 = 1, semplice, e λ2 = −2, di molteplicità algebrica 2. Determiniamo
gli autospazi corrispondenti; si ha
E(λ1 ) = hv1 i,
v1 = (−1, 1, 1)
E(λ2 ) = h{v2 , v3 }i,
v2 = (2, 1, 0), v3 = (−2, 0, 1).
Allora (vedi Proposizione 4.8.10) T : x 7→ Ax è diagonalizzabile, e nella base
B̃ = (v1 , v2 , v3 )
la matrice associata è diagonale:


1 0
0
à = P −1 AP = 0 −2 0  ,
0 0 −2

−1 2
con P = (v1 | v2 | v3 ) =  1 1
1 0

−2
0
1
(notiamo come non sia necessario il calcolo del prodotto P −1 AP ; si veda l’Osservazione 4.8.11).
Posto
x(t) = P x̃(t),
risulta x̃′ = Ãx̃, quindi
x̃(t) = età C,
Infine
C ∈ C3 .
 t
e
x(t) = P x̃(t) = (v1 | v2 | v3 )  0
0
cioè
0
e−2t
0
x(t) = c1 et v1 + c2 e−2t v2 + c3 e−2t v3 ,
 
0
c1
0  c2  .
c3
e−2t
c1 , c2 , c3 ∈ C.
L’esempio ora esposto rientra nel seguente schema:
• Se la matrice A è diagonalizzabile (in C), detta B̃ = (v1 , v2 , . . . , vn ) una base di Cn formata
da autovettori e P = (v1 | v2 | . . . | vn ) la matrice che ha nelle colonne gli elementi di B̃
(matrice che permette di passare dalla base canonica alla base B̃), si ha:


λ1
0
 , C ∈ Cn .
...
x(t) = P x̃(t),
x̃(t) = età C,
con à = 
0
λn
Quindi:
x(t) = c1 eλ1 t v1 + c2 eλ2 t v2 + . . . + cn eλn t vn ,
c1 , c2 , . . . , cn ∈ C.
Notiamo come questo risultato possa essere verificato direttamente a posteriori osservando che
ogni funzione eλk t vk è soluzione del sistema x′ = Ax poiché vk è un autovettore di A, e inoltre si
tratta di soluzioni linearmente indipendenti in quanto la loro matrice wronskiana per t = 0 non è
altro che la matrice P = (v1 | v2 | . . . | vn ).
82
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
Osservazione 4.5.2 Se la matrice A è a elementi reali e gli autovalori λ1 , λ2 , . . . , λn sono reali,
allora è possibile individuare una base reale v1 , v2 , . . . , vn di autovettori di A: le n funzioni eλk t vk
formano una base dello spazio vettoriale (su C) delle soluzioni dell’equazione omogenea x′ = Ax
e le loro combinazioni lineari a coefficienti reali danno tutte e solo le soluzioni reali dell’equazione
stessa (trattasi, infatti, di uno spazio di dimensione n su R).
Se la matrice A è a elementi reali, ma non tutti gli autovalori sono reali. è comunque possibile
determinare una base reale dello spazio dele soluzioni dell’equazione omogenea x′ = Ax (vedi
§ 4.5.3).
4.5.2
Caso generale
Prima di affrontare la situazione generale consideriamo il caso in cui
A ∈ M n×n (C) presenta il solo autovalore λ, con molteplicità algebrica n.
La Proposizione 4.5.1 suggerisce la seguente decomposizione della matrice A:
A = λI + (A − λI).
(4.21)
Infatti λI è una matrice diagonale, mentre, in base alla Proposizione 4.5.1, A−λI risulta nilpotente in
quanto dotata del solo autovalore nullo. Inoltre, poiché i due addendi commutano fra loro, otteniamo:
etA = eλt et(A−λI) .
Nel caso generale, indichiamo con
λ1 , . . . , λq gli autovalori distinti di A
con molteplicità m(λ1 ), . . . , m(λq ), rispettivamente.
Il calcolo della matrice esponenziale sarebbe risolto nell’ipotesi di riuscire a decomporre Cn in
somma diretta V1 ⊕ V2 ⊕ . . . ⊕ Vq mediante sottospazi T -invarianti (dove
T è l’operatore lineare su
Cn cui è associata la matrice A nella base canonica) in modo che T presenti un solo autovalore
Vk
λk (separazione degli autovalori):
Cn = V1 ⊕ V2 ⊕ . . . ⊕ Vq ,
T
Vk
Infatti:
T (Vk ) ⊆ Vk
presenta solo l’autovalore λk .
− rispetto a una base di Cn costruita come unione di basi dei singoli sottospazi Vk la matrice
associata a T è diagonale a blocchi (vedi Proposizione 4.8.3); ogni blocco fornisce la matrice
associata a T sul corrispondente sottospazio;
− per ogni k è possibile applicare a T la decomposizione corrispondente alla (4.21) .
Vk
Notiamo che, in base alla Proposizione
4.5.1,
s se tale decomposizione esiste deve necessariamente
valere l’uguaglianza Vk = ker T − λk I per un qualche s ≤ dim Vk .
Vk
Si dimostra che una decomposizione con le proprietà dette esiste: si tratta della decomposizione in
autospazi generalizzati (vedi Proposizione 4.8.14 e Teorema 4.8.15 nell’Appendice a questo capitolo).
Lo schema è quindi il seguente:
• Detti λ1 , . . . , λq gli autovalori distinti, si indichi con B̃k una base dell’autospazio generalizzato E ′ (λk ) (per k = 1, . . . , q), la cui dimensione è pari alla molteplicità m(λk ). Allora
83
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
nella base B̃ = B̃1 ∪ . . . ∪ B̃q la matrice associata all’operatore T è data da (vedi (4.56) in
Appendice):


 Ã1


Ã2


−1
à = P AP = 
Ã3



..

.

Ãq





,





(4.22)
dove P è la matrice le cui colonne sono formate, ordinatamente,
dagli elementi della base B̃;
nella base B̃k .
la matrice Ãk risulta essere la matrice associata a T ′
E (λk )
• La decomposizione
Ãk = λk I + Nk ,
dove Nk = Ãk − λk I,
esprime Ãk come
somma di una matrice diagonale e una nilpotente (Nk è la matrice associata
a (T − λk I) ′
nella base B̃k ). Pertanto risulta:
E (λk )
i
h
1
1
(tNk )s−1 .
etÃk = eλk t I + tNk + (tNk )2 + . . . +
2
(s − 1)!
(4.23)
dove s ≤ m(λk ) è tale che Nks = 0.
La matrice P permette poi di passare alla soluzione x(t) (vedi la (4.17)).
Anche in questo contesto vale un’osservazione analoga alla 4.5.2: se la matrice A è a coefficienti
reali e gli autovalori sono reali, allora esiste una base reale per ogni sottospazio generalizzato, quindi
una base reale per le soluzioni del sistema x′ = Ax. Al § 4.5.3 illustreremo come ricavare una base
reale nel caso in cui la matrice sia a coefficienti reali, ma non abbia tutti gli autovalori reali.
Vediamo un esempio.
Esempio (I parte) Risolvere il seguente sistema lineare:


−4 1
3
x′ (t) = Ax(t),
A =  2 −2 −2
−3 1
2
Risulta:
det(A − λI) = −(λ + 1)2 (λ + 2).
Gli autovalori sono pertanto λ1 = −2, semplice, e λ2
mo gli autospazi corrispondenti; si ha

−2
A − λ1 I =  2
−3
e il sistema (A − λ1 I)x = 0 dà:
84
= −1, di molteplicità algebrica 2. Consideria
1 3
0 −2 ;
1 4
nx = x
1
3
x2 = −x3 .
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
Pertanto:
E(λ1 ) = hv1 i,
Passiamo a λ2 :


1
con v1 = −1 .
1

−3
A − λ2 I =  2
−3

1
3
−1 −2 ,
1
3
quindi il rango di A − λ1 I è 2 e dim E(λ2 ) = 3 − 2 = 1 < m(λ2 ). Allora (vedi Proposizione
4.8.10) T : x 7→ Ax non è diagonalizzabile. Utilizziamo allora la decomposizione di C3 mediante
gli autospazi generalizzati (Teorema 4.8.15):
C3 = E ′ (λ1 ) ⊕ E ′ (λ2 ).
Risulta E ′ (λ1 ) = E(λ1 ) poiché dim E(λ1 ) = m(λ1 ) (molteplicità algebrica). Determiniamo
l’autospazio generalizzato E ′ (λ2 ). Risulta:


2 −1 −2
2,
(A − λ2 I)2 = −2 1
2
1 −2
Allora il rango di (A − λ2 I)2 è 1, e quindi dim ker(A − λ2 )2 = 2; se ricordiamo che dim E ′ (λ2 ) =
m(λ2 ) = 2, concludiamo che
E ′ (λ2 ) = ker(A − λ2 I)2 .
(del resto (vedi Proposizione 4.8.14) E ′(λ2 ) = ker(A−λ2 I)s per un opportuno s ≤ dim E ′ (λ2 ) = 2,
per cui deve essere s = 2). Il sistema (A − λ2 I)2 x = 0 si riduce all’equazione
2x1 − x2 − 2x3 = 0,
per cui
E ′ (λ2 ) = hv2 , v3 i,
Posto P = (v1 | v2 | v3 ) si ottiene:

2
P −1 = −1
−2

−1 −2
1
2
1
3
 
 
1
0
con v2 = 2 e v3 = −2.
0
1

−2 0
0




e à = P −1 AP = 
 0 −2 1 
0 −1 0
(anziché mediante calcolo diretto la matrice à può essere ottenuta esprimendo le immagini dei vettori
di base v1 , v2 , v3 come combinazione lineare della base stessa).16 Come ci si aspettava (vedi (4.22)),
la matrice à è diagonale a blocchi. La matrice
−2 1
Ã2 =
−1 0
16 Chiaramente
risulta Av1 = −2v1 ; inoltre:
0 1
−2
Av2 = @−2A = −2v2 − v3 ;
−1
Av3 = v2 .
Pertanto le colonne di à sono (−2, 0, 0)T , (0, −2, −1)T e (0, 1, 0)T .
85
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
è la matrice associata a T
E ′ (λ2 )
nella base (v2 , v3 ). Decomponiamo Ã2 come:
−1 1
Ã2 = λ2 I + (Ã2 − λ2 I) = −I +
=: −I + N.
−1 1
La matrice N è nilpotente: come subito si verifica N 2 = 0. Allora:
−tI tN
−t
−t 1 − t
tÃ2
= e e = e I(I + tN ) = e
e
−t
t
.
1+t
Quindi:
e
tÃ
=
e−2t
etÃ2
!
=
e−2t
e−t
Infine x(t) = P x̃(t)C al variare di C = (c1 , c2 , c3 ) ∈ R3 , cioè:
1−t t
−t 1+t
!
x(t) = e−2t v1 | e−t [(1 − t)v2 − tv3 ] | e−t [tv2 + (1 + t)v3 ] C
= c1 e−2t v1 + c2 e−t [v2 − (v2 + v3 )t] + c3 e−t [v3 + (v2 + v3 )t].
(4.24)
Come si vede (coerentemente con quanto indicato nel successivo Teorema 4.5.4, si tratta delle combinazioni lineari di soluzioni della forma eλt p(t) con λ autovalore di A e p(t) polinomio a coefficienti
in R3 .
Esempio (II parte) Il calcolo della matrice Ã2 associata all’operatore T sullo spazio E ′ (λ2 ) può
essere semplificato scegliendo opportunamente una base di E ′ (λ2 ).
Sia w1 un autovettore relativo all’autovalore λ2 = −1: poiché ker(T − λ2 I) = {(t(1, 0, 1) : t ∈
R}, assumiamo
 
1
w1 = 0 .
1
Cerchiamo ora una controimmagine di w1 tramite T − λ2 I: chiaramente, se un tale w2 esiste, deve
appartenere a ker(T − λ2 I)2 = E ′ (λ2 ). Risolvendo il sistema
(
−3x1 + x2 + 3x3 = 1
2x1 − x2 − 2x3 = 0
−3x1 + x2 + 3x3 = 1
si ottiene x = {(t − 1, −2, t) : t ∈ R}. Sia
 
−1
w2 = −2 .
0
È facile vedere che, rispetto alla base (w1 , w2 ), la matrice associata all’operatore (T − λ2 I)
diventa
N=
0
0
1
;
0
E ′ (λ2 )
infatti w1 e w2 hanno componenti (1, 0) e (0, 1), rispettivamente, e le componenti in (w1 , w2 ) delle
loro immagini, cioè le colonne di Ã2 , devono essere (0, 0) e (0, 1), rispettivamente (poiché (T −
λ2 I)w1 = 0 e (T − λ2 I)w2 = w1 ). Pertanto
−1 1
λ2 1
=
Ã2 =
.
0 −1
0 λ2
86
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
Il calcolo dell’esponenziale di Ã2 = λ2 I + N è quindi particolarmente semplice (N 2 = 0):
t
λ2 t tN
−t
−t 1
tÃ2
.
= e e = e (I + tN ) = e
e
0 1
Posto P = (v1 | w1 | w2 ) e x = P x̃, risulta:
! c 
1
e−2t
c2  =
x̃(t) =
etÃ2
c3
e−2t
da cui:
! c 
1
 c2  ,
e−t ( 10 1t )
c3
 
c1
x(t) = e−2t v1 | e−t w1 | e−t (tw1 + w2 ) c2 
c3
= c1 e−2t v1 + c2 e−t w1 + c3 e−t (tw1 + w2 ).
È facile vedere che si tratta della stessa famiglia di funzioni data dalla (4.24). Infatti quest’ultima
può essere riscritta utilizzando, anziché le funzioni
u1 = e−2t v1 , u2 = e−t [v2 − (v2 + v3 )t], u3 = e−t [v2 + (v2 + v3 )t],
le seguenti:
u1 , u2 , u2 + u3 .
Se teniamo conto che
v2 = −w1 , v3 = w1 + w2 ,
risulta
u2 = (−w1 t − w2 )e−t ,
u2 + u3 = w1 e−t ,
da cui l’asserita uguaglianza delle due famiglie di funzioni.
Osservazione 4.5.3 Il procedimento seguito nella seconda parte dell’esempio precedente per
costruire una base dell’autospazio generalizzato ha portato a una matrice, relativamente a quell’autospazio, della forma
λ 1
0 1
= λI + N,
con N =
.
0 λ
0 0
La struttura di N è quella del blocco nilpotente elementare introdotto nella (4.19). In generale, il
procedimento descritto porta ad una matrice associata a T per la quale, in corrispondenza a ogni
autospazio generalizzato E ′ (λ), troviamo uno o più blocchi della forma

λ



à = 



0
1
λ
0
1
..
.
..
.
..
.




0
 = λI + N,

1
λ
(4.25)
con N come in (4.19). Si tratta della cosiddetta forma canonica di Jordan della matrice (si veda
l’Appendice a questo capitolo, in particolare l’Osservazione 4.8.19).
87
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Sfruttiamo ora i risultati ottenuti per dare un utile risultato di struttura per le soluzioni. Dalla
(4.23) scende subito che le colonne della matrice età sono della forma
eλt
r
X
tj P wj = eλt p(t) ,
j=1
con p(t) polinomio a coefficienti in Cn di grado al più m(λ) − 1. Concludiamo pertanto con il
seguente teorema:
Teorema 4.5.4 Le soluzioni dell’equazione x′ = Ax sono tutte e sole le combinazioni lineari di
n opportune soluzioni della forma
eλt p(t),
(4.26)
dove λ è autovalore (in C) di A e p(t) è un polinomio in t a coefficienti in Cn di grado al più m(λ) − 1
(con m(λ) molteplicità algebrica di λ).
Ne risulta confermato, in particolare, che le soluzioni sono di classe C ∞ .
Quanto asserito nel Teorema 4.5.4 risulta particolarmente evidente utilizzando la forma (4.57) di
Jordan della matrice. Consideriamo il semplice caso in cui vi sia un solo blocco,relativo all’autovalore
λ, come nella (4.25). Utilizzando la decomposizione in parte diagonale e parte nilpotente abbiamo:
1
1
età = eλt I + tN + (tN )2 + . . . +
(tN )n−1 .
2
(n − 1)!
Se (v1 , v2 , . . . , vn ) è la base rispetto a cui T (x) = Ax ha à come matrice associata, allora le soluzioni
dell’equazione x′ = Ax hanno la forma:
x(t) = c1 eλt v1 +
+ c2 eλt (v1 t + v2 )+
1
+ c3 eλt ( t2 v1 + tv2 + v3 )+
2
...
1
+ cn−1 eλt (
tn−1 v1 + . . . + tvn−1 + vn ),
(n − 1)!
(4.27)
al variare di c1 , c2 , . . . , cn ∈ R.
4.5.3 Soluzioni reali
Nel caso in cui la matrice A del sistema, a elementi reali, abbia tutti gli autovalori reali,il procedimento
sopra illustrato può essere svolto in campo reale ottenendo una base reale per lo spazio delle soluzioni.
Supponiamo, invece, che gli autovalori non siano necessariamente tutti reali:
λ1 , λ2 , . . . , λr ∈ R
µ1 , . . . , µl , µ1 , . . . , µl ∈ C \ R
(se l = 0 o r = 0 intenderemo che gli autovalori sono tutti in R o in C \ R, rispettivamente). La forma
matriciale (4.22) può essere ottenuta in campo complesso utilizzando per ciascun autospazio E ′ (λk )
una base in generale complessa. Per ogni coppia µ, µ di autovalori non reali possiamo considerare basi
di E ′ (µ) e E ′ (µ) fra loro coniugate e, in corrisoondenza di queste, soluzioni linearmente indipendenti
della forma (4.26) a coppie coniugate:
u(t) = eµt p(t),
88
u(t) = eµt p(t),
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
con p(t) polinomio a coefficienti in Cn di grado al più m(µ) − 1. Osserviamo che anche le funzioni:
ℜu(t) =
1
1
[u(t) + u(t)], ℑu(t) = [u(t) − u(t)],
2
2i
(4.28)
sono soluzioni di x′ = Ax; viene inoltre mantenuta l’indipendenza lineare, per cui otteniamo una
base reale per lo spazio delle soluzioni.
Posto r(t) = ℜp(t) e s(t) = ℑ(p(t)), cioè p(t) = r(t) + is(t), risulta:
ℜu(t) = (r(t) cos βt − s(t) sin βt)eαt , ℑu(t) = (r(t) sin βt + s(t) cos βt)eαt .
Si ottiene quindi il seguente risultato (si noti che per β = 0 si recuperano gli elementi della base
corrispondenti agli autovalori reali):
Teorema 4.5.5 Le soluzioni dell’equazione x′ = Ax sono combinazioni lineari di funzioni della
forma
eαt p(t) cos βt,
eαt q(t) sin βt,
dove µ = α + iβ varia fra gli autovalori di A e p(t), q(t) sono polinomi in t a coefficienti in Rn di
grado al più m(µ) − 1 (con m(µ) molteplicità algebrica di µ).
Alternativamente, rispetto alla considerazione delle parti reale e immaginaria di cui alla (4.28), è
possibile utilizzare direttamente una base reale di E ′ (µ) ⊕ E ′ (µ) considerando parte reale e parte
immaginaria degli elementi di una base di E ′ (µ).
Vediamo dapprima il tutto nel caso generale bidimensionale.
Sia A ∈ M 2×2 (R) con autovalori
µ = α + iβ,
µ = α − iβ (β 6= 0).
Sia w un autovettore relativo a µ (e quindi w autovettore relativo a µ). Nella base (w, w) di C2 (=
E(µ) ⊕ E(µ)) la matrice associata a T : x 7→ Ax è diagonale:
µ 0
S=
.
(4.29)
0 µ
Pertanto si ottengono le seguenti soluzioni fra loro coniugate (sono le colonne della matrice P etS ,
dove P = (w | w)):
u(t) = weµt ,
u(t) = weµt .
Posto z = ℜw e ζ = ℑw, si ha:
u(t) = eαt (cos βt)z − (sin βt)z + i (sin βt)z + (cos βt)ζ ;
quindi:
ℜu(t) = eαt (cos βt)z − (sin βt)ζ ,
ℑu(t) = eαt (sin βt)z + (cos βt)ζ .
Le loro combinazioni lineari danno le soluzioni di x′ = Ax.
Alternativamente, possiamo procedere utilizzando la base reale (z, ζ) per C2 . Poiché

1

 z = (w + w)
2

 ζ = 1 (w − w)
2i
89
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
la matrice di passaggio dalla base (w, w) alla (z, ζ) è (si vedano la (4.49) e la (4.52)):
Q=
T
1/2
1/2
.
1/(2i) −1/(2i)
Allora, nella base (z, ζ) la matrice associata a T è:
Bµ := Q
−1
SQ =
β
.
α
α
−β
(4.30)
Pertanto, la posizione
x = P x̃,
con P = (z | ζ)
dà il sistema equivalente nella forma canonica:
x̃′ = Bµ x̃,
con Bµ =
α
−β
Calcoliamo la matrice esponenziale etBµ . Poiché
α 0
0
Bµ =
+
0 α
−β
β
.
α
β
,
0
abbiamo
e
tBµ
tn
t2
= e (I + tH + H 2 + . . . + H n + . . .), con H =
2
n!
αt
0
−β
β
.
0
Svolgendo i calcoli si ottiene:


t2
t4
t3
t5
t − + + ...   1 − 2 + 4! − . . .
3! 5!
cos βt sin βt


tH
e =
.
=
− sin βt cos βt


t3
t5
t2
t4
−t + − + . . . −1 + − + . . .
3! 5!
2
4!
Quindi:
“
”
α β
t
−β
α
e
=e
αt
cos βt sin βt
.
− sin βt cos βt
(4.31)
Da qui le soluzioni del sistema x̃′ = Bµ x̃, e quindi, passando a x = (z | ζ)x̃, quelle del sistema
x′ = Ax: si vede immediatamente che si ritrova l’espressione ottenuta sopra.
∼·∼·∼·∼·∼·∼·∼
Vediamo ora come, nel caso generale, la considerazione di una base reale di E ′ (µ) ⊕ E ′ (µ), ottenuta
passando alle parti reale e immaginaria degli elementi di una base di E ′ (µ), si riflette sul calcolo
della matrice esponenziale.
Sia (w1 , w2 , . . . , wm ) una base di E ′ (µ) e sia õ la matrice associata a T ′ in tale base; e sia
E (µ)
õ associata a T ′ rispetto alla base (w 1 , w 2 , . . . , wm ) di E ′ (µ) (si ottiene la matrice coniugata
E (µ)
è
della precedente). Quindi la matrice associata a T ′
′
E (µ)⊕E (µ)
à =
90
õ
õ
!
.
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
Sappiamo che le matrici õ − µI e õ − µI sono nilpotenti. Allora tale è anche la matrice
µI
.
(4.32)
N = Ã − S,
con S =
µI
Pertanto, la decomposizione à = S + N esprime à come somma di una parte diagonale e una
nilpotente.
rispetto alla base reale
Indichiamo ora con ÃR
E ′ (µ)⊕E ′ (µ) la matrice associata a T ′
′
E (µ)⊕E (µ)
ℜw1 , ℑw1 , . . . , ℜwm , ℑwm .
(4.33)
Come nel caso bidimensionale studiato poco sopra (si veda il passaggio dalla (4.29) alla (4.30), non
è difficile rendersi conto che in tale base la parte diagonale S della decomposizione (4.32) diventa:


Bµ


Bµ
α β


,
con
B
=
Dµ = 
(µ = α + iβ),

µ
..
−β α


.
Bµ
cioè la matrice quadrata di ordine 2m che ha sulla diagonale il blocco Bµ ripetuto m volte. Pertanto:
R
ÃR
E ′ (µ)⊕E ′ (µ) = Dµ + (ÃE ′ (µ)⊕E ′ (µ) − Dµ )
(4.34)
decompone ÃR
E ′ (µ)⊕E ′ (µ) nella somma di una matrice diagonale a blocchi, di cui è immediato il
calcolo dell’esponenziale (si ricordi la (4.31)), e una matrice nilpotente.
Osservazione 4.5.6 Parallelamente a quanto accennato nell’Osservazione 4.5.3, scegliendo opportunamente la base (w1 , w2 , . . . , wm ) di ciascun E(µ), la matrice associata dà la cosiddetta forma
canonica reale della matrice A (rimandiamo ulteriori dettagli all’Appendice di questo capitolo).
Esempio.
x′ (t) = Ax(t),
Gli autovalori sono:

4
5 −10 −3
 0 −1
6
0
.
A=
0
0
2
0
15 15 −30 −8

λ1 = −1, λ2 = 2, µ = −2 + 3i, µ = −2 − 3i.
Allora A è semisemplice (cioè diagonalizzabile in C). Una base di autovettori di C4 , relativi a
λ1 , λ2 , µ, µ, rispettivamente, è:
v1 = (1, −1, 0, 0)
v2 = (0, 2, 1, 0)
w = (1, 0, 0, 2 − i)
w = (1, 0, 0, 2 + i).
Rispetto a questa base sappiamo che la matrice associata è:


−1 0
0
0

 0 2
0
0
à = 
.
0 0 −2 + 3i
0
0 0
0
−2 − 3i
91
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Si ottengono allora le quattro soluzioni linearmente indipendenti (si tratta delle colonne della matrice
P età , dove P = (v1 | v2 | w | w)):
v1 e−t , v2 e2t , we(−2+3i)t , we(−2−3i)t .
Sostituiamo le ultime due con le funzioni:


cos 3t
 −2t

0
e ,
ℜ(we(−2+3i)t ) = 


0
2 cos 3t + sin 3t

sin 3t
 −2t

0
e
.
ℑ(we(−2+3i)t ) = 


0
− cos 3t + 2 sin 3t

Allora:

c1 e−t + [c3 cos 3t + c4 sin 3t]e−2t


−c1 e−t + 2c2 e2t

x(t) = 
2t


c2 e
−2t
[c3 (2 cos 3t + sin 3t) + c4 (2 sin 3t − cos 3t)]e

al variare di c1 , c2 , c3 , c4 ∈ R.
In modo equivalente è possibile ottenere le soluzioni passando tramite la matrice associata a T
nella base reale ottenuta considerando le parti reale e immaginaria di w (infatti (ℜw, ℑw) è una base
reale di E(µ) ⊕ E(µ)); posto quindi
P = (v1 | v2 | ℜw | ℑw),
svolgendo i calcoli si ha:
−1
 0
−1
à = P AP = 
0
0

0
2
0
0
0
0
−2
−3

0
0 .
3 
−2
Del resto, la matrice à è ottenibile anche senza eseguire esplicitamente il prodotto P −1 AP , in quanto
il blocco relativo a T ′
ricade nel caso bidimensionale di cui alla matrice (4.30). Allora,
′
E (µ)⊕E (µ)
tenendo conto della (4.31),

e−t


età = 

e2t
e−2t



.
cos 3t sin 3t 
− sin 3t cos 3t
Infine:
 
c1

c2 

x(t) = P età 
 c3 
c4
= c1 e−t v1 + c2 e2t v2 + c3 e−2t [(cos 3t)ℜw − (sin 3t) Im w]
+ c4 e−2t [(sin 3t)ℜw + (cos 3t) Im w],
che coincide con l’espressione precedentemente trovata per le soluzioni.
92
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
Esempio.

0
1
1
0
−2 3
10
2

A=
 1 −1 −2 0  .
−2 1
0 −1

x′ (t) = Ax(t),
Gli autovalori di A sono ±i con molteplicità algebrica 2. Come si verifica facilmente, il rango di
A − iI è 3, per cui l’autospazio relativo a i (e quindi anche quello relativo a −i) ha dimensione 1: la
matrice non è diagonalizzabile in C. Calcoliamo gli autospazi generalizzati; risulta:


−2
2 − 2i
8 − 2i
2
 4i −2 − 6i 8 − 20i 4 − 4i

(A − iI)2 = 
−2i
2i
−6 + 4i
−2 
4i
−2i
8
2 + 2i
e E ′ (i) = ker(A − iI)2 (infatti, per la Proposizione 4.8.14, E ′ (i) = ker(A − iI)s per un opportuno
s ≤ dim E ′ (i) = 2, per cui deve essere s = 2). Le soluzioni del sistema (A − iI)2 x = 0 sono date
da:

x = (−2 + i)s − t

 1
x2 = −(4 + 2i)s − (1 + i)t
s, t ∈ C.

x
 3=s
x4 = t
Allora una base di E ′ (i) è:
w1 = (−2 + i, −4 − 2i, 1, 0), w2 = (−1, −1 − i, 0, 1),
mentre w1 , w2 formano una base per E ′ (−i). Determiniamo la matrice associata valutando l’immagine dei vettori di base; risulta:
Aw1 = (−3 − 2i, 2 − 8i, 3i, −4i) = 3iw1 − 4iw2
Aw2 = (−1 − i, 1 − 3i, i, −i) = iw1 − iw2 .
Allora
3i i
 −4i −i
à = 

Posto
B=
3i
i
i
=
−4i −i
0
−3i −i
4i i


.
0
2i
i
+
i
−4i −2i
il secondo addendo risulta nilpotente (a quadrato nullo), per cui:
1 + 2it
it
.
etB = eit
−4it 1 − 2it
Quindi:
etÃ
1 + 2it it
it  −4it 1 − 2it
=e 

1 − 2it −it
4it 1 + 2it
Ne risultano le quattro soluzioni linearmente indipendenti


.
eit p(t), eit q(t), e−it p(t), e−it q(t),
93
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
dove:
p(t) = (1 + 2it)v1 − 4itv2 = v1 + 2i(v1 − 2v2 )t
= (−2 + i − 2t, −4 − 2i − 4it, 1 + 2it, −4it),
q(t) = itv1 + (1 − 2it)v2 = v2 + i(v1 − 2v2 )t
= (−1 − t, −1 − i − 2it, it, 1 − 2it).
Come indicato in (4.28), passando alle parti reali e immaginarie delle soluzioni cosı̀ trovate
possiamo ottenere una base reale:




−2(1 + t) cos t − sin t
cos t − 2(1 + t) sin t
−4 cos t + 2(1 + 2t) sin t
−2(1 + 2t) cos t − 4 sin t
,
,
u1 (t) = 
u2 (t) = 




cos t − 2t sin t
2t cos t + sin t
4t sin t
−4t cos t




−(1 + t) cos t
−(1 + t) sin t
− cos t + (1 + 2t) sin t
− sin t − (1 + 2t) cos t
,
.
u3 (t) = 
u4 (t) = 




−t sin t
t cos t
cos t + 2t sin t
−2t cos t + sin t
Come nell’esempio precedente calcoliamo le soluzioni anche passando tramite la matrice associata
a T nella base reale ottenuta da una base di E ′ (i) prendendone le parti reale e immaginaria.
Consideriamo i vettori w1 , w2 sopra determinati e, come base di E ′ (i) ⊕ E ′ (−i),
ℜw1 , Im w1 , ℜw2 , Im w2 .
Sia


−2 1 −1 0
−4 −2 −1 −1
.
P = (ℜw1 | Im w1 | ℜw2 | Im w2 ) = 
1
0
0
0
0
0
1
0
La matrice associata a T è
ÃR
E ′ (i)⊕E ′ (−i)
Posto

0
3
0
1
−3 0 −1 0 

= P −1 AP = 
 0 −4 0 −1 .
4
0
1
0

0 1
 −1 0
D=

0 1
−1 0


,
sappiamo che la matrice ÃR
E ′ (i)⊕E ′ (−i) − D è nilpotente (vedi la (4.34)):


0
2
0
1
−2 0 −1 0 

;
M := ÃR
E ′ (i)⊕E ′ (−i) − D =  0
−4 0 −2
4
0
2
0
risulta M 2 = 0. Inoltre (vedi la (4.31))
e
94
“
”
0 1
t −1
0
=
cos t
− sin t
sin t
.
cos t
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
Quindi:
i
h
tD
exp tÃR
E ′ (i)⊕E ′ (−i) = e (I + tM )

cos t sin t
 − sin t cos t
=


1
2t
0
t
−2t
1
−t
0 

;

−4t 1 −2t
cos t sin t  0
− sin t cos t
4t
0
2t
1
h
i
Infine, una base dello spazio delle soluzioni è data dalle colonne della matrice P exp tÃR
E ′ (i)⊕E ′ (−i) :
svolgendo i calcoli si ottengono le soluzioni u1 , u2 , u3 e u4 sopra menzionate.
4.6 EQUAZIONI SCALARI LINEARI DI ORDINE SUPERIORE
Sia I un intervallo reale aperto e a0 , a1 , . . . , an e f funzioni continue in I. Sia L : C n (I) → C 0 (I)
l’operatore differenziale definito da:
(Ly)(t) =
n
X
ak (t)y (k) (t)
(4.35)
k=0
= an (t)y
(n)
′
(t) + . . . + a1 (t)y (t) + a0 (t)y(t).
Consideriamo l’equazione
Ly = f,
(4.36)
Ly = 0.
(4.37)
e l’equazione
L’equazione (4.37) è detta equazione omogenea associata alla (4.36); di conseguenza ci si riferisce
a volte alla (4.36) come all’equazione completa.
Poiché L è lineare, sussiste il medesimo risultato di struttura enunciato nella Proposizione 3.2.1
per le equazioni lineari del primo ordine, cioè:
Proposizione 4.6.1 L’insieme delle soluzioni dell’equazione omogenea (4.37) è un sottospazio
vettoriale V di C n (I) di dimensione n. L’insieme delle soluzioni dell’equazione (4.36) può essere
rappresentato nella forma:
y + V,
dove y è una qualunque soluzione dell’equazione (4.36) stessa.
Supporremo che il coefficiente an non si annulli mai in I, in modo che l’equazione sia effettivamente di ordine n. Come sappiamo, l’equazione (4.36) può essere trasformata in sistema equivalente
ponendo:
x0 = y, x1 = y ′ , x2 = y ′′ , . . . , xn−1 = y (n−1) .
Si ottiene
 ′
x0 = x1



′

x

1 = x2


′

x

2 = x3

.
..


x′n−2 = xn−1







f
1

 x′n−1 = − [an−1 xn−1 + an−2 xn−2 + . . . + a1 x1 + a0 x0 ] +
an
an
(4.38)
95
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
cioè
x′ = Ax + b
con

0
0
..
.



A=

 0
 a0
−
an
1
0
0
1
..
.

...
1
an−1
−
an
0
0
..
.

 
 
 

b=
 .
 0 
f 
an







..
.
0

(4.39)
Quindi y è soluzione di Ly = f se e solo se x = (y, y ′ , . . . , y (n−1) ) è soluzione di x′ = Ax + b.
Se y1 , . . . , yn sono n soluzioni dell’equazione (4.37), la matrice delle corrispondenti soluzioni del
sistema (4.38), per f ≡ 0, cioè
(n−1)
(y1 , y1′ , . . . , y1
), . . . (yn , yn′ , . . . , yn(n−1) ),
è detta matrice wronskiana, e il suo determinante è detto determinante wronskiano, delle soluzioni
y 1 , y 2 , . . . , yn :


y1 (t)
...
yn (t)
..
..


w(t) = det 
.
.
.
(n−1)
y1
(t) . . . yn(n−1) (t)
Sappiamo che w(t) non si annulla mai in I o è ivi identicamente nullo. Il Teorema di Liouville
assume ora la forma
Z ta
n−1 (s)
w(t) = w(τ ) exp −
ds ,
an (s)
τ
poiché tr A = −an−1 (s)/an (s).
Proposizione 4.6.2 Siano y1 , . . . , yn elementi di V (cioè soluzioni di (4.37)) e sia t0 ∈ I. Allora
y1 , y2 , . . . , yn sono l.i. in V se e solo se w(t0 ) 6= 0.
Dimostrazione. Conviene dimostrare che
y1 , y2 , . . . , yn sono l.d. (in V ) se e solo se w(t0 ) = 0.
Siano y1 , y2 , . . . , yn l.d. (in V ): esistono α1 , α2 , . . . , αn valori reali non tutti nulli per i quali
α1 y1 + . . . + αn yn ≡ 0
in I.
Per derivazione si ottiene
(k)
α1 y1 + . . . + αn yn(k) ≡ 0
in I.
Allora le funzioni
(n−1)
ui = (yi , yi′ , . . . , yi
),
(i = 1, . . . , n),
che sono soluzioni di (4.38), sono l.d., per cui il loro determinante wronskiano, che è w(t), è
identicamente nullo.
Viceversa, se w(t0 ) = 0, allora sono l.d. (in Rn ) i vettori ui (t0 ) per i = 1, . . . , n (le ui sono
definite come sopra). Il Corollario 4.1.2 assicura allora che u1 , . . . , un sono l.d.; in particolare lo
sono y1 , . . . , yn . 96
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
Parallelamente a quanto svolto per i sistemi del primo ordine, prima di passare alla determinazione
di una n-upla di soluzioni linearmente indipendenti dell’equazione omogenea (per la quale considereremo essenzialmente solo il caso dei coefficienti costanti), vediamo come si traduce il metodo di
variazione delle costanti illustrato nel § 4.2 per i sistemi.
Siano y1 , . . . , yn soluzioni linearmente indipendenti dell’equazione (4.37). Sia X(t) la corrispondente matrice wronskiana, che è soluzione del sistema X ′ = A(t)X, con A come in (4.39).
Sappiamo che la matrice risolvente del sistema x′ = A(t)x è R(t, s) = X(t)X(s)−1 e che una
soluzione particolare di x′ = A(t)x + b(t) è data da
Z t
x(t) =
R(t, s)b(s) ds.
t0
La prima componente y di x sarà soluzionedell’equazione (4.36).
Teniamo conto che b(s) = f (s)/an (s) en , per cui
Z t
r(t, s)f (s) ds,
y(t) =
(4.40)
t0
con
1 T
e X(t)X(s)−1 en .
an (s) 1
Indicata con (xij (·)) la matrice X(·) e ricordando l’espressione della matrice inversa X(s)−1 , risulta:
r(t, s) =
r(t, s) =
1
1
x1i (t)
αi (s),
an (s)
w(s)
dove αi (s) è il complemento algebrico dell’elemento xni (s) della matrice X(s). È immediato
verificare che (si sviluppi secondo l’ultima riga):
y1 (s)
...
yn (s) ′
y1 (s)
...
yn′ (s) 1
..
..
(4.41)
r(t, s) =
.
.
w(s)an (s) (n−2)
(n−2)
y
(s) . . . yn
(s)
1
y (t)
...
yn (t) 1
Riassumiamo quanto ottenuto:
Proposizione 4.6.3 La funzione y definita in (4.40), con r(t, s) dato dalla (4.41), è una soluzione
particolare dell’equazione completa (4.36).
La funzione r(t, s) è detta nucleo risolvente dell’equazione (4.36).
4.7 EQUAZIONI A COEFFICIENTI COSTANTI
Equazione omogenea.
Occupiamoci di determinare n soluzioni linearmente indipendenti dell’equazione omogenea (4.37).
Individuiamo gli autovalori della matrice A in (4.39). Consideriamo il determinante:
−λ
1
0 ...
0
0
−λ
1
.
.
.
0
0
0
−λ
.
.
.
0
..
det(A − λI) = .
0
...
1
a
− 0 − a1 . . . . . . − an−1 − λ
an
an
an
97
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Sviluppando secondo l’ultima riga otteniamo:
a1 a2 a0 + (−1)n+2 −
(−λ) + (−1)n+3 −
(−λ)2
an
an
an
an−2 (−λ)n−2
+ . . . + (−1)n+n−1 −
an
an−1
− λ (−λ)n−1
+ (−1)n+n −
an
(−1)n =
a0 + a1 λ + a2 λ2 + . . . + an−2 λn−2 + an−1 λn−1 + an λn .
an
det(A − λI) = (−1)n+1 −
L’equazione
P (λ) := an λn + an−1 λn−1 + an−2 λn−2 + . . . + a1 λ + a0 = 0
è detta equazione caratteristica dell’equazione (4.37); il polinomio a primo membro è detto polinomio
caratteristico e le sue radici danno gli autovalori della matrice A, con le corrispondenti molteplicità.
Indichiamo con
λ1 , λ2 , . . . , λq
le radici distinte di P (λ), con molteplicità m1 , . . . , mq , rispettivamente. Dalla teoria svolta per i
sistemi lineari a coefficienti costanti deduciamo che le soluzioni dell’equazione (4.37), considerata
in campo complesso, sono combinazioni lineari delle funzioni
tj eλk t
(k = 1, . . . , q, j = 0, . . . , mk − 1).
(4.42)
Notiamo come si tratti di un insieme di n funzioni: verifichiamo direttamente che si tratta di
soluzioni di (4.37) e che sono linearmente indipendenti:
Teorema 4.7.1 Le funzioni (4.42) sono n soluzioni linearmente indipendenti di (4.37).
Alla dimostrazione premettiamo alcune considerazioni.
Sia K[λ] l’anello dei polinomi nell’indeterminata λ a coefficienti in K (con K = R o K = C).
Dato P ∈ K[λ],
P (z) = an z n + an−1 z n−1 + . . . + a0 ,
definiamo l’operatore lineare
P (D) : C ∞ (I) → C ∞ (I)
P (D)y = an Dn y + an−1 Dn−1 y + . . . + a0 y.
L’applicazione P 7→ P (D) è tale che
P + Q 7→ P (D) + Q(D)
P ·Q→
7 P (D) ◦ Q(D)
(composizione).
Si tratta quindi di un isomorfismo fra K[λ] e un sottoanello commutativo dell’anello degli operatori
differenziali lineari su C ∞ (si tratta del sottoanello generato dagli operatori di moltiplicazione e da
D).
Se K = C allora il polinomio caratteristico di Ly = 0 si decompone nella forma:
P (z) = an (z − λ1 )m1 · . . . · (z − λq )mq ,
quindi
P (D) = an (D − λ1 )m1 · . . . · (D − λq )mq .
98
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
La verifica che le funzioni (4.42) sono soluzioni dell’equazione Ly = 0 è a questo punto una
conseguenza immediata del seguente lemma (la cui dimostrazione è una facile verifica). Infatti:
(D − λk )mk (tj eλk t ) = eλk t Dmk tj
e il secondo membro è nullo se j < mk .
Lemma 4.7.2 Dati λ ∈ C, u ∈ C ∞ (R) e m ∈ N risulta:
(D − λ)m eλt u(t) = eλt Dm u(t).
Per concludere la dimostrazione del Teorema 4.7.1 rimane da verificare l’indipendenza lineare
delle funzioni (4.42). Consideriamo pertanto una loro combinazione lineare che dia la funzione
nulla; in base all’espressione delle funzioni stesse ciò equivale a considerare q polinomi P1 , . . . , Pq ,
con Pk di grado non superiore a mk − 1, tali che
P1 (t)eλ1 t + . . . + Pq (t)eλq t ≡ 0.
(4.43)
Mostriamo, per induzione su q, che questa condizione implica che tutti i polinomi sono nulli, e che
quindi le funzioni (4.42) sono linearmente indipendenti. Chiaramente l’implicazione vale per q = 1.
Valga per un valore q ∈ N e dimostriamo che vale per q + 1. Dividendo per eλq+1 t entrambi i membri
dell’identità (4.43), scritta con q + 1 in luogo di q, si ottiene17 :
P1 (t)e(λ1 −λq+1 )t + . . . + Pq (t)e(λq −λq+1 )t + Pq+1 (t) ≡ 0.
Derivando mq+1 volte otteniamo:
Q1 (t)e(λ1 −λq+1 )t + . . . + Qq (t)e(λq −λq+1 )t ≡ 0,
dove Qk è un polinomio dello stesso grado di Pk ; applicando l’ipotesi induttiva ogni Qk è nullo per
cui anche ogni Pk deve essere nullo. Se consideriamo le parti reali e immaginarie delle funzioni (4.42) otteniamo una base reale per le
soluzioni dell’equazione omogenea Ly = 0:
Teorema 4.7.3 Le soluzioni dell’equazione omogenea (4.37) sono tutte e sole le combinazioni
lineari delle funzioni
tj eαt cos βt,
tj eαt sin βt
al variare di λ = α + iβ fra le radici del polinomio caratteristico.
Equazione completa.
Vi è un caso notevole in cui è possibile determinare in modo standard una soluzione y dell’equazione completa (4.36). Supponiamo che la funzione f a secondo membro sia della forma (conviene
lavorare in campo complesso):
f (t) = P (t)eλt ,
(4.44)
con λ ∈ C e P (t) polinomio di grado m. Siano inoltre λ1 , . . . , λk le radici distinte del polinomio
caratteristico di L, con molteplicità rispettive m1 , . . . , mk .
17 è
facile verificare che se λ ∈ C \ {0} e P (t) è un polinomio, allora
ˆ
˜
D P (t)eλt = Q(t)eλt
dove Q(t) è un polinomio dello stesso grado di P (t).
99
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
In base al Lemma 4.7.2 risulta
con M = (D − λ)m+1
M f (t) ≡ 0,
Pertanto, se y è soluzione dell’equazione Ly = f allora (M ◦ L)y = 0.18 Distinguiamo ora due casi:
− se λ non è radice del polinomio caratteristico di L allora il polinomio caratteristico di M ◦ L ha
come radici λ1 , . . . , λk , con le rispettive molteplicità m1 , . . . , mk , e λ, con molteplicità m + 1.
In base al Teorema 4.7.1
y(t) = yo (t) + Q(t)eλt
dove yo , combinazione lineare di funzioni della forma tj eλi t , per i = 1, . . . , k, è una soluzione
dell’equazione omogenea Ly = 0, mentre Q(t) è un opportuno polinomio di grado al più m.
Chiaramente, la condizione Ly = f si riflette solamente sul polinomio Q, per cui possiamo
scegliere yo = 0 e cercare y della forma
y(t) = Q(t)eλt ,
con Q(t) polinomio di grado al più m.
− sia invece λ radice del polinomio caratteristico di L con molteplicità µ: ad esempio λ = λk
e µ = mk . Allora il polinomio caratteristico di M ◦ L presenta le radici λi (i 6= k) con le
rispettive molteplicità mi , e λ, con molteplicità µ + m + 1. Quindi
y(t) =
k−1
X
Pi (t)eλi t + Q̃(t)eλt ,
i=1
con P (t) di grado al più mi e Q̃(t) di grado al più µ + m. Si osservi ora che, posto Q̃(t) =
Pµ−1 j λt
P ij
è soluzione dell’equazione omogenea, per cui possiamo
j cj t , la funzione (
j=0 cj t )e
scrivere
y(t) = yo (t) + tµ Q(t)eλt ,
con Q(t) polinomio di grado al più m. Come nel caso precedente ricerchiamo y di questa
forma, con yo ≡ 0.
Riassumendo:
se nell’equazione Ly = f il secondo membro è dato da (4.44), con P (t) di grado m, allora esiste
una soluzione della forma
y(t) = tµ Q(t)eλt ,
dove Q(t) è un polinomio di grado non superiore a m e µ è la molteplicità di λ come radice del
polinomio caratteristico di L (quindi µ = 0 se non è radice).
Il polinomio Q(t) viene individuato determinandone i coefficienti in modo che tµ Q(t)eλt sia soluzione di Ly = f .
Se lavoriamo in campo reale non è difficile verificare che: se
f (t) = eαt [Ph (t) cos βt + Qk (t) sin βt],
con Ph e Qk polinomi di gradi h e k, rispettivamente, allora è possibile determinare una soluzione y
secondo la seguente regola:
− se α ± iβ non è radice del polinomio caratteristico, allora esiste y della forma:
y(t) = eαt [R(t) cos βt + S(t) sin βt].
18 Per
100
questo motivo il metodo ora descritto è anche detto degli annichilatori.
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
con R e S polinomi di grado al più max{h, k};
− se α ± iβ è radice di molteplicità µ del polinomio caratteristico, allora esiste y della forma:
y(t) = tµ eαt [R(t) cos βt + S(t) sin βt].
con R e S come sopra.
La determinazione effettiva di y avviene determinando i coefficienti dei polinomi R e S in modo che
la funzione y sia soluzione.
Esempio Consideriamo l’equazione
y ′′ − 3y ′ + 2y = f (t),
con f (t) = (1 + 3t)e4t . Rientriamo nelle condizioni dell’osservazione precedente con α + iβ = 4;
poichè questo valore non è radice del polinomio caratteristico, è possibile determinare una soluzione
y della forma:
y(t) = (a + bt)e4t ,
con a, b ∈ R da determinare. Se imponiamo che questa funzione sia soluzione otteniamo a = −1/4
e b = 1/2.
Se invece avessimo f (t) = (1 + 3t)e2t , poiché α = 2 è radice (semplice) del polinomio
caratteristico, cerchiamo y della forma:
y(t) = t(a + bt)e2t ,
con a, b ∈ R da determinare. Svolgendo i calcoli risulta y(t) = ((3/2)t2 − 2t)e2t .
4.8 SISTEMI OMOGENEI AUTONOMI: IL CASO BIDIMENSIONALE
Analizziamo più in dettaglio le soluzioni di un sistema differenziale lineare omogeneo e autonomo
nel caso bidimensionale:
′
x1 = a11 x1 + a12 x2
(4.45)
x′2 = a21 x1 + a22 x2
con A = (aij ) matrice a elementi reali. A seconda che A presenti autovalori reali e sia o meno
diagonalizzabile, oppure presenti autovalori complessi (necessariamente distinti), abbiamo visto che,
mediante un opportuno cambiamento di variabile lineare x = P x̃, possiamo ricondurci a un sistema
lineare x̃′ = Ãx̃ la cui matrice rientra in uno dei seguenti casi:
λ1 0
con λ1 , λ2 ∈ R;
I)
0 λ2
II)
λ 1
con λ ∈ R;
0 λ
III)
α
−β
β
con α, β ∈ R, β 6= 0.
α
Se P = (v1 |v2 ) ogni soluzione x̃(·) = (x̃1 (·), x̃2 (·)) dà luogo alla soluzione x(·) = x̃1 (·)v1 + x̃2 (·)v2
per il sistema x′ = Ax, cioè x̃1 e x̃2 rappresentano le coordinate del punto corrente dell’orbita.
Nell’analisi che segue supporremo direttamente che la matrice A sia delle tipologie (I), (II) o
(III) elencate sopra. Supporremo inoltre che nessun autovalore sia nullo (se cosı̀ non fosse si vede
facilmente che le traiettorie sarebbero rettilinee).
101
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
λ1 <λ2 <0
λ1 <0<λ2
Figura 4.2 - Nodo stabile e punto di sella
Caso (I): autovalori reali, matrice diagonalizzabile. Le soluzioni sono date da

 x1 (t) = x01 eλ1 t ,

(4.46)
x2 (t) = x02 eλ2 t
al variare del punto x0 = (x01 , x02 ) ∈ R2 . Se x0 si trova su uno degli assi coordinati (cioè x01 = 0
oppure x02 = 0), allora tutta l’orbita rimane su quell’asse. Altrimenti sia, ad esempio x01 > 0 e
x02 > 0 (lo studio dell’orbita negli altri quadranti è analogo). Supponiamo inoltre di aver scelto le
coordinate in modo che λ1 ≤ λ2 . Dall’espressione delle soluzioni si ricava rapidamente l’equazione
delle orbite, poiché
λ2 /λ1
= x02 x1 /x01 )λ2 /λ1 .
x2 = x02 eλ1 t
Se teniamo conto dell’arbitrarietá del punto (x01, x02 ) nel primo quadrante, concludiamo che la famiglia
delle orbite in tale regione del piano è descritta dall’equazione
λ /λ1
x2 = γx1 2
al variare di γ > 0.
Se λ1 < λ2 la tipologia delle orbite dipende dal segno di λ1 e λ2 . Si vedano le Figure 4.2 e 4.3: le
frecce indicano l’orientamento corrispondente al parametro t crescente e può essere immediatamente
desunto dalle equazioni (4.46). Se gli autovalori sono dello stesso segno si dice che l’origine è un
nodo (stabile o instabile a seconda che il segno degli autovalori sia negativo o positivo); mentre se
gli autovalori sono di segno opposto si parla dell’origine come punto di sella.
Se λ1 = λ2 le orbite sono semirette uscenti dall’origine: ci si riferisce a questa situazione anche
dicendo che l’origine è un nodo a stella.
Caso (II): autovalori reali e coincidenti, matrice non diagonalizzabile. In tal caso le soluzioni sono
date da:
x1 = (c1 + c2 t)eλt
(4.47)
x2 = c2 eλt
al variare di (c1 , c2 ) ∈ R2 : tale punto rappresenta il valore iniziale x(0). Se c2 = x2 (0) = 0 allora
l’orbita è tutta sull’asse x1 . Altrimenti sia, ad esempio, c2 = x2 (0) > 0; possiamo allora porre
l’equazione dell’orbita nella forma:
x1 =
102
c1
x2
(log x2 + λ − log c2 ).
λ
c2
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
0<λ1 <λ2
Figura 4.3 - Nodo instabile
Figura 4.4 - Nodo improprio stabile (λ < 0)
Per l’arbitrarietà di c1 e c2 la famiglia delle orbite nel semipiano x2 > 0 si può anche scrivere come:19
x1 =
x2
(log x2 + γ),
λ
γ ∈ R.
In tal caso si parla dell’origine come nodo improprio (Figura 4.4). Al crescere di t il punto x(t)
si avvicina o si allontana dall’origine a seconda del segno di λ, come si può vedere dall’equazione
(4.47).
19 A
questa equazione possiamo giungere anche applicando i ragionamenti esposti nel paragrafo 3.7. Infatti la forma
differenziale
ω(x1 , x2 ) = λx2 dx1 − (λx1 + x2 ) dx2
non è esatta, ma ha 1/x22 come fattore integrante. Si ottiene
1
ω(x1 , x2 ) = dH(x1 , x2 ),
x2
con H(x1 , x2 ) = λ
x1
− log x2 ,
x2
da cui l’equazione H(x1 , x2 ) = γ per le orbite.
103
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Figura 4.5 - Fuoco stabile (α < 0) e instabile (α > 0)
Caso (III): autovalori complessi coniugati. Le soluzioni solo date da:
x1 = eαt (c1 cos βt + c2 sin βt)
.
x2 = eαt (−c1 sin βt + c2 cos βt)
al variare di x(0) = (c1 , c2 ) ∈ R2 . Nell’ipotesi in cui c1 e c2 non siano contemporaneamente nulli,
se poniamo
q
K=
c21 + c22 > 0,
cos ϕ = c1 /K, sin ϕ = c2 /K,
possiamo esprimere le soluzioni come
x1 = Keαt cos(ϕ − βt)
.
x2 = Keαt sin(ϕ − βt)
Pertanto, in coordinate polari, le traiettorie hanno equazione parametriche
̺ = Keαt
ϑ = ϕ − βt
e quindi, eliminando t,
̺ = Ce−(α/β)ϑ ,
(4.48)
con C ≥ 0 costante arbitraria. 20
Se α 6= 0 la (4.48) descrive delle spirali logaritmiche, che si avvolgono attorno all’origine al
crescere o al decrescere di ϑ secondo che il rapporto α/β sia positivo o negativo, rispettivamente.
In tal caso ci si riferisce all’origine come a un fuoco. In Figura 4.5 è rappresentata la situazione
α/β > 0. Il verso delle frecce si deduce subito dalla relazione ̺ = Keαt .
Se α = 0 le orbite descritte da (4.48) sono circonferenze. In tal caso l’origine è detto centro (vedi
Figura 4.6).
20 Come nel caso precedente,
possiamo ricavare questa equazione scrivendo la forma differenziale (βx1 −αx2 ) dx1 +(αx1 +
βx2 ) dx2 in coordinate polari (cfr. (3.22)), ottenendo l’equazione: β̺d̺ + α̺2 dϑ = 0, cioè, per ̺ 6= 0,
`
´
β
d β log ̺ + αϑ = d̺ + αdϑ = 0.
̺
Da qui la (4.48).
104
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
Figura 4.6 - Centro (autovalori ±iβ); l’orientamento delle traiettorie dipende dal segno di β
Osservazione 4.8.1 Notiamo che il caso degli autovalori reali e coincidenti (λ1 = λ2 = λ) e
quello degli autovalori complessi coniugati con parte reale nulla (±βi) possono essere visti come
“casi limite” delle situazioni in cui gli autovalori sono reali e distinti o complessi coniugati con parte
reale non nulla, rispettivamente: si tratta, pertanto, dei casi più suscettibili di cambiamenti di tipologia
per “piccole perturbazioni”.
105
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Appendice: operatori lineari
Richiamiamo alcuni risultati di Algebra Lineare utilizzati in questo capitolo (per una trattazione più
approfondita si può consultare un qualunque libro introduttivo sull’argomento).
Sia V uno spazio vettoriale di dimensione n su un campo K (con K = R o K = C).
Cambiamento di base. Siano B = (e1 , . . . , en ) e B̃ = (ẽ1 , . . . , ẽn ) due date basi di V e indichiamo
con P = (pij ) la matrice di passaggio da B a B̃, cioè tale che:
X
ẽj =
pij ei .
(4.49)
i
Siano x = (x1 , . . . , xn ) e x̃ = (x̃1 , . . . , x̃n ) le n-uple delle componenti di un vettore v in B e B̃
rispettivamente, cioè:
X
X
x̃j ẽj .
xi ei =
v=
j
i
Allora:
v=
X
j
x̃j
X
pij ei =
XX
pij x̃j )ei ;
(
i
i
j
allora
x = P x̃.
(4.50)
Osservazione 4.8.2 Se V = Kn e B è la base canonica, allora la matrice P ha come colonne gli
elementi di B̃:
P = (ẽ1 | ẽ2 | . . . | ẽn ).
P
Infatti, se consideriamo la componente h-ima dei due membri nella(4.49) abbiamo (ẽj )h = i pij δih =
phj ).
Matrice associata a un operatore lineare. Sia T : V → V un operatore lineare. Sia B una base di
V . Le componenti in B di ogni vettore v ∈ V e del suo trasformato T v sono legate da una relazione
lineare; esiste cioè una matrice A ∈ M n×n (K) con la proprietà che se x ∈ Kn è il vettore delle
componenti di v in B, allora T v ha come componenti, sempre in B, il vettore y = Ax. La matrice
A è detta matrice associata a T nella base B.
Rilevante sarà il caso in cui V si decompone in somma diretta di sottospazi T -invarianti, cioè
sottospazi tali che T Vk ⊆ Vk e per i quali
V = V1 ⊕ V2 ⊕ . . . ⊕ Vq .
È immediato vedere che vale il seguente risultato:
Proposizione 4.8.3 Nelle ipotesi poste, se Bk è una base di Vk allora B1 ∪. . .∪Bq (o meglio, la
base ottenuta prendendo ordinatamente gli elementi delle basi B1 , . . . , Bq ) è una base di V rispetto
a cui la matrice associata a T è diagonale a blocchi:


A1






A2




,
A=
(4.51)
A
3






..


.


Aq
106
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
(ciascun blocco ha la diagonale principale sulla diagonale principale di A). La matrice Ak è di tipo
mk × mk con mk = dim Vk . Inoltre
Ak è la matrice associata a T in Bk .
Vk
Assegnate due basi B e B̃ di V , vediamo quale relazione sussiste fra le matrici A e à associate a T
nelle due basi. Dato v ∈ V , siano x = (x1 , . . . , xn ) e x̃ = (x̃1 , . . . , x̃n ) le n-uple delle componenti
di v in B e B̃, rispettivamente; allora le componenti di T v nelle due basi sono Ax e Ãx̃; secondo la
(4.50) deve pertanto essere
Ax = P Ãx̃,
da cui, poiché x = P x̃,
à = P −1 AP.
(4.52)
Quindi A e Ã, matrici associate a T nelle basi B e B̃ rispettivamente, sono tra loro simili.
Autovalori e autospazi. Diagonalizzabilità. Sia T : V → V un operatore lineare. Fondamentale è la
seguente definizione.
Definizione 4.8.4 Un elemento λ ∈ K si dice autovalore di T se esiste v ∈ V \ {0} tale che
T v = λv.
(4.53)
Tali vettori sono detti autovettori di T relativi a λ. Il sottospazio E(λ) = ker(T − λI) è detto
autospazio di T relativo a λ.
Ad ogni matrice A ∈ M n×n (K) rimane associato l’operatore lineare
T = T A : Kn → Kn
definito da
T A (x) = Ax.
Se la matrice è a coefficienti reali possiamo considerare sia l’operatore TRA : x 7→ Ax : Rn → Rn
che l’operatore21 TCA : x 7→ Ax : Cn → Cn . Come autovalori di A intenderemo gli autovalori di TCA .
L’equazione (4.53) diventa:
Ax = λx.
Proposizione 4.8.5 Data A ∈ M n×n (K), un elemento λ ∈ K è autovalore di A se e solo se λ è
radice del seguente polinomio, detto polinomio caratteristico di A:
p(z) = det(A − zI).
Dimostrazione. L’esistenza di una soluzione x non nulla dell’equazione (A − λI)x = 0 equivale
alla richiesta che det(A − λI) = 0. Se P è una matrice invertibile, un’applicazione del Teorema di Binet dà:
det(P −1 AP − zI) = det P −1 (A − zI)P = det(A − zI),
per cui matrici simili hanno lo stesso polinomio caratteristico. L’importanza di questa osservazione
sta nel fatto che le matrici associate a un operatore lineare T : V → V sono legate dalla relazione di
similitudine. Ciò permette di definire il polinomio caratteristico di un operatore T : V → V come
polinomio caratteristico della matrice associata a T in una qualunque fissata base.
21 L’analogo passaggio nel caso di un generico
spazio vettoriale V su R è la complessificazione dell’operatore T (e dello spazio
V ).
107
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Osservazione 4.8.6 Mettiamo in evidenza il vantaggio di studiare in K = C anche il caso delle
matrici a elementi reali: infatti, poiché C è algebricamente chiuso, il polinomio caratteristico ha
esattamente n soluzioni, contate con la dovuta molteplicità.
Diciamo molteplicità algebrica di un autovalore λ la molteplicità m(λ) di λ come radice del
polinomio caratteristico. Diciamo molteplicità geometrica di λ la dimensione ρ(λ) dell’autospazio
E(λ).
Se K = C e λ1 , . . . , λq sono gli autovalori distinti di T allora:
m(λ1 ) + . . . + m(λq ) = n.
(4.54)
È utile ricordare il seguente risultato, di facile verifica.
Proposizione 4.8.7 Dati V1 , . . . , Vq sottospazi di V , le seguenti proprietà sono equivalenti:
P
a) se i vi = 0, con vi ∈ Vi , allora vi = 0 per ogni i;
P
b) Vi ∩ j6=i Vj = {0}.
In tal caso si dice che i sottospazi V1 , . . . , Vq sono indipendenti o che sono in somma diretta e il
sottospazio V1 + . . . + Vq si indica con V1 ⊕ . . . ⊕ Vq .
Proposizione 4.8.8 Siano λ1 , . . . , λq gli autovalori distinti di T . Allora i sottospazi E(λ1 ), . . . ,
E(λq ) sono in somma diretta.
Dimostrazione. Procediamo per induzione su q. Siano q = 2 e vi ∈ E(λi ) (i = 1, 2) tali che
v1 + v2 = 0, cioè v1 = −v2 ; allora 0 = T (v1 + v2 ) = λ1 v1 + λ2 v2 = (λ2 − λ1 )v2 . Poiché λ1 6= λ2 ,
deve essere v2 = 0, quindi anche v1 = 0. Valga ora la proprietà per ogni intero naturale minore di
un fissato valore q. Siano vi ∈ E(λi ) tali che v1 + . . . + vq = 0; allora v1 = −(v2 + . . . + vq ), cosı̀
che
0 = T (v1 + . . . + vq ) = λ1 v1 + . . . + λq vq = −λ1 (v2 + . . . + vq ) + λ2 v2 + . . . + λq vq
= (λ2 − λ1 )v2 + . . . + (λq − λ1 )vq .
Per l’ipotesi induttiva v2 = . . . = vq = 0, quindi anche v1 = 0. Proposizione 4.8.9 Per ogni autovalore λ risulta ρ(λ) ≤ m(λ).
Dimostrazione. Sia r = ̺(λ) e B una base di V i cui primi r elementi costituiscano una base di
E(λ). Poiché (T − λI)E(λ) = {0}, la matrice associata a T − λI in B ha nulle le prime r colonne.
Pertanto il polinomio caratteristico p(z) di T ha come fattore il polinomio (z − λ)r . Allora p(z)
presenta la radice λ almeno con molteplicità r. Proposizione 4.8.10 Le seguenti proprietà sono equivalenti:
a) T è diagonalizzabile (cioè esiste una base di V rispetto a cui la matrice associata a T è
diagonale);
b) esiste una base di V costituita da autovettori di T .
c) detti λ1 , λ2 , . . . , λq gli autovalori distinti di T , risulta
V = E(λ1 ) ⊕ E(λ2 ) ⊕ . . . ⊕ E(λq ).
108
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
Inoltre, se K = C, equivalente a queste è la proprietà:
d) per ogni autovalore la molteplicità algebrica coincide con quella geometrica.
In tali condizioni, la matrice associata a T in una qualunque base formata da autovettori è diagonale.
In particolare, se K = C e T ha tutti gli autovalori semplici allora è diagonalizzabile.
Dimostrazione. L’equivalenza fra (a) e (b) è immediata poiché il fatto che T si esprima in una base
B = (v1 , . . . , vn ) mediante una matrice diagonale D = diag (λ1 , . . . , λn ) equivale ad affermare che
le componenti di T vi nella base B sono date da Dei (con ei i-esimo elemento della base canonica
di Cn ), cioè T v = λi vi : questa uguaglianza traduce il fatto che vi è un autovettore.22
In base alla Proposizione 4.8.8 possiamo considerare la somma diretta E(λ1 ) ⊕ E(λ2 ) ⊕ . . . ⊕
E(λq ), che risulta essere un sottospazio di dimensione ̺(λ1 ) + . . . + ̺(λq ). Poiché ̺(λi ) ≤ m(λi )
(Proposizione 4.8.9) e m(λ1 ) + . . . + m(λq ) = n = dimV , ne segue l’equivalenza di (c) e (d).
Nell’ipotesi
Se teniamo conto del teorema precedente, la proprietà (b) sussiste se e solo se Cn = E(λ1 ) ⊕
E(λ2 ) ⊕ . . . ⊕ E(λq ), e questo è vero se e solo se vale (c). Osservazione 4.8.11 È utile notare esplicitamente, ricordando l’Osservazione 4.8.2 e il risultato
precedente, che se V = Cn e B = (v1 , v2 , . . . , vn ) è una base di Cn costituita da autovettori di A,
allora la matrice P = (v1 | v2 | . . . | vn ) che ha come colonne tali autovettori diagonalizza A, cioè
P −1 AP è diagonale.
Autospazi generalizzati.
Indichiamo con λ1 , . . . , λq gli autovalori distinti dell’operatore T : V → V , di molteplicità
algebriche m(λ1 ), . . . , m(λq ), rispettivamente.
Se T non è diagonalizzabile allora V non possiede una base di autovettori, per cui non può essere
espresso come somma diretta dei suoi autospazi. Il ruolo di questi viene invece svolto dai cosiddetti
autospazi generalizzati.
Svolgiamo dapprima alcune osservazioni preliminari. Data un’applicazione lineare T : V → V ,
risulta
ker T ⊆ ker T 2 ⊆ . . . ⊆ ker T k ⊆ ker T k+1 ⊆ . . .
Im T ⊇ Im T 2 ⊇ . . . ⊇ Im T k ⊇ Im T k+1 ⊇ . . .
È immediato verificare che sono tutti sottospazi T -invarianti, cioè sottospazi W per i quali T (W ) ⊆
W . Poiché la dimensione di V è finita, esiste s ≤ n per il quale
ker T s = ker T s+1 .
Sia ν = dim ker T s . Dal momento che dim Im T s = n − ν = dim Im T s+1 , ne segue che
Im T s = Im T s+1 .
Osserviamo che se ker T s = ker T s+1 (e quindi Im T s = Im T s+1 ), allora risulta anche ker T s+1 =
ker T s+2 = ker T s+3 = . . .; infatti, se v ∈ ker T s+2 allora T v ∈ ker T s+1 = ker T s , quindi
T s T v = 0, cioè v ∈ ker T s+1 . Quindi ker T s+1 = ker T s+2 (si procede per induzione).
22 Del
resto, anche esprimendo la diagonalizzabilità direttamente come esistenza di una matrice P tale che P −1 AP =
diag (λ1 , . . . , λn ), si ottiene AP = P diag (λ1 , . . . , λn ), cioè Avi = λi vi se vi è la i-esima colonna di A.
109
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Dimostriamo ora che
V = ker T s ⊕ Im T s .
A tal fine è sufficiente dimostrare che ker T s ∩Im T s = {0}, poichè in tal caso dim(ker T s +Im T s ) =
n per cui ker T s + Im T s = V . Sia pertanto v ∈ ker T s ∩ Im T s ; allora esiste w ∈ V per il
quale T s w = v, per cui 0 = T s v = T 2s w e quindi w ∈ ker T 2s . Per quanto sopra osservato,
ker T j = ker T s per j ≥ s; allora w ∈ ker T s , da cui v = T s w = 0.
Infine, osserviamo che, se ker T s non è banale, allora T ha, su ker T s , solo l’autovalore nullo,
poiché la relazione T (v) = λv con v ∈ ker T s dà T 2 (v) = λT (v) = λ2 v, . . . , 0 = T s (v) = λs v,
da cui λ = 0. Del resto, T
non può presentare 0 come autovalore, perché ker(T − 0I) = ker T ⊆ ker T s ,
Im T s
e quest’ultimo ha intersezione nulla con Im T s .
Riassumiamo questi risultati nel seguente enunciato.
Lemma 4.8.12 (Decomposizione di Fitting) Sia T : V → V un’applicazione lineare. Allora:
a) esiste s ≤ n = dim V tale che
ker T s = ker T s+1 ,
Im T s = Im T s+1 .
(4.55)
b) Se s soddisfa la (4.55), allora ker T s e Im T s sono sottospazi T -invarianti e
V = ker T s ⊕ Im T s .
non può presentare l’autovalore nullo, mentre se ker T s è non banale, allora
Inoltre, T
Im T s
T
ha solo l’autovalore nullo.
s
ker T
La decomposizione in somma diretta di cui al punto (b) del lemma precedente e la struttura
diagonale a blocchi della matrice associata a T secondo la Proposizione
di spezzare
4.8.3 permettono
il polinomio caratteristico nel prodotto dei polinomi caratteristici di T
e
T
.
In
particolare,
s
s
se 0 è autovalore di T di molteplicità m, allora
ker T
Im T
dim ker T s = m, quindi s ≤ m.
Applichiamo ora questi risultati all’operatore T − λI, dove λ è un autovalore di T ; otteniamo una
decomposizione Cn = Vλ ⊕ W tale che T ha solo l’autovalore λ su Vλ , e autovalori diversi da λ su
W (separazione degli autovalori). Inoltre, Vλ e W sono T -invarianti (perché (T − λI)-invarianti).
Il sottospazio Vλ = ker(T − λI)s è il cosiddetto autospazio generalizzato relativo a λ, indicato
con E ′ (λ). Possiamo anche porre, equivalentemente:
Definizione 4.8.13 Si dice autospazio generalizzato relativo all’autovalore λ il sottospazio
[
E ′ (λ) =
ker(T − λI)j .
j∈N
La proposizione seguente riassume le proprietà fondamentali di questi sottospazi ricavate sopra.
Proposizione 4.8.14 Sia λ autovalore di T con molteplicità algebrica m. Allora:
a) E ′ (λ) = ker(T − λI)s per un opportuno s ∈ N. Inoltre dim E ′ (λ) = m e risulta s ≤ m.
b) T : E ′ (λ) → E ′ (λ) cioè T E ′ (λ) ⊆ E ′ (λ).
110
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
c) λ è l’unico autovalore di T
E ′ (λ)
.
A questo punto un’applicazione ripetuta della decomposizione di Fitting fornisce il seguente
risultato.
Teorema 4.8.15 Sia K = C e indichiamo con λ1 , . . . , λq gli autovalori distinti di T . Allora:
V = E ′ (λ1 ) ⊕ E ′ (λ2 ) ⊕ . . . ⊕ E ′ (λq ).
Questa decomposizione di Cn in somma diretta dà luogo a una matrice A associata a T come
indicato nella Proposizione 4.8.3, con Vk = E ′ (λk ):


A1






A
2





,
A=
(4.56)
A3





..


.


Aq
dove:
Ak è la matrice associata a T
E ′ (λk )
rispetto a Bk .
Forma canonica di Jordan.
Si può dimostrare che è possibile scegliere una base per ogni autospazio generalizzato E ′ (λk ) in
modo che la matrice (4.56) associata a T sia di ‘forma speciale’. Poichè T trasforma ogni E ′ (λk )
in sé, il problema può chiaramente essere riformulato per un operatore T : V → V con un solo
autovalore λ di molteplicità n (quindi E ′ (λ) = V ). Prima di enunciare il risultato premettiamo una
definizione.
Definizione 4.8.16 a) Si dice blocco di Jordan di
ordine r, associato a λ, la matrice di ordine r:

λ 1

λ 1


..
.
B=



0
ordine r, o matrice elementare di Jordan di
0
..
.
..
.




0
.

1
λ
b) Si dice matrice di Jordan di ordine n una matrice di ordine n della forma:


B1






B
2




,

à = 
B3





.
..




(4.57)
Bs
dove B1 , . . . , Bs sono blocchi di Jordan.
111
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Il blocco di ordine r = 1 relativo a λ è semplicemente la matrice (λ) di tipo 1 × 1.
Teorema 4.8.17 Sia T : V → V un operatore lineare e sia λ ∈ C autovalore di molteplicità
n = dim V . Allora esiste una base di V rispetto a cui la matrice associata a T è una matrice di
Jordan con blocchi associati a λ. Tale matrice è univocamente individuata da T a meno di una
permutazione dei blocchi.
Il caso diagonalizzabile corrisponde al situazione in cui tutti i blocchi sono di ordine 1.
Il teorema precedente, applicato ad ogni blocco della rappresentazione (4.56) dà subito il seguente
risultato.
Teorema 4.8.18 (Forma canonica di Jordan) Sia T : V → V un operatore lineare. Allora esiste una base di V rispetto a cui la matrice associata a T è una matrice di Jordan formata da
blocchi associati agli autovalori di T . Tale matrice è unica a meno di una permutazione dei blocchi.
Osservazione 4.8.19 Mentre la determinazione della matrice (4.56) associata a T può essere
ottenuta dalla scelta di una qualunque base per ciascun E ′ (λk ), il calcolo della forma di Jordan J
richiede l’individuazione di una particolare base; una base in cui accanto ad ogni elemento vi siano
tutte le controimmagini iterate tramite T − λI. Data una base dell’autospazio E(λ), a partire da
ciascuno dei suoi elementi si costruiscono in tal modo i vettori di una base di E ′ (λ) corrispondenti
a un blocco di Jordan. Ad esempio, se E(λ) = hv, wi e
(T − λI)v ′ = v,
(T − λI)w′ = w,
(T − λI)v ′′ = v ′ ,
w′ ∈
/ Im(T − λI),
v ′′ ∈
/ Im(T − λI)
allora, chiaramente, rispetto alla base (v, v ′ , v ′′ , w, w′ ) di C5 la matrice associata a T − λI è:




λ 1 0
0 10
0 λ 1

0 0 1


0 0 0
 , quindi la matrice di T è 

.
0
0
λ




0 1
λ 1
0 0
0 λ
In generale il numero dei blocchi è pari alla molteplicità geometrica di λ. (Per i dettagli sulla struttura
della forma di Jordan si veda, ad esempio, [10]).
Matrici reali con autovalori complessi. Forma canonica reale.
Consideriamo ora il caso di una matrice A ∈ M n×n (R) che non abbia necessariamente tutti gli
autovalori reali. La matrice (4.56) associata a T può comunque essere ottenuta utilizzando una base
complessa. Poiché la matrice è a elementi reali, se µ e µ sono due autovalori coniugati le basi per i
corrispondenti autospazi possono essere scelte fra loro coniugate; pertanto, se w1 , w2 , . . . , wm è una
base di E ′ (µ) allora
w1 , w2 , . . . , wm , w 1 , w 2 , . . . , wm
è una base di E ′ (µ) ⊕ E ′ (µ). A questa possiamo sostituire la base reale ottenuta prendendo la parte
reale e immaginaria dei wj :
z1 , ζ1 , z2 , ζ2 , . . . , zm , ζm ,
dove zj =
wj − w j
wj + w j
, ζj =
.
2
2i
Se indichiamo con
λ1 , . . . , λr
autovalori reali
µ1 , . . . , µl , µ, . . . , µl
autovalori non reali
112
(4.58)
Capitolo 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI
allora la rappresentazione (4.56) diventa una matrice reale diagonale a blocchi della forma


Ã
1




..


.






Ãr


à = 
,
R


Ã1






..


.


R
Ãl
(4.59)
dove
Ãk :
ÃR
j :
matrice associata a T ′
E (λk )
matrice associata a T ′
E (µj )⊕E ′ (µj )
.
Se le basi (w1 , w2 , . . . , wm ) per gli autospazi generalizzati sono tali da dar luogo alla forma canonica
di Jordan, non è difficile vedere che il passaggio alle parti reale e immaginaria degli elementi wj
ilustrato sopra porta a una matrice nella forma canonica descritta dal seguente teorema (si ricordi il
passaggio dalla matrice (4.29) alla (4.30)).
Teorema 4.8.20 (Forma canonica reale) Esiste una base di V rispetto a cui T si rappresenta mediante la matrice
′
JR = J 0′′ ,
0 J
′
dove J è la matrice di Jordan relativa a
,
T ′
′
E (λ1 )⊕...⊕E (λr )
mentre J ′′ si ottiene dalla matrice di Jordan relativa a
T ′
′
E (µ1 )⊕...⊕E (µl )
,
sostituendo:
µj
con
1
con
αj βj
Bµj =
−βj αj
1 0
I2 =
.
0 1
(µj = αj + iβj )
Esempio. Riprendiamo l’ultimo esempio considerato nel § 4.5. Risulta:


−i
1
1
0
−2 3 − i
10
2 
;
A − iI = 
1
−1 −2 − i
0 
−2
1
0
−1 − i
un autovettore relativo all’autovalore i è, ad esempio,
 
i
−2

v1 = 
 1 .
−2
113
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Seguendo quanto indicato nell’Osservazione 4.8.19 (vedi anche la seconda parte dell’esempio svolto
a pag. 86), cerchiamo un vettore v2 soddisfacente la relazione
(A − iI)v2 = v1 .
Risulta, ad esempio,


(1/2) + i
 −1 + 2i 

v2 = 
 −i/2  .
0
Chiaramente, (A − iI)2 v2 = 0, per cui v2 ∈ ker(T − iI)2 = E ′ (i). Rispetto alla base (v1 , v2 ) la
matrice associata all’operatore (T − iI) ′ è:
E (i)
0 1
;
0 0
Quindi la matrice associata a T nella base (v1 , v2 , v 1 , v 2 ) è in forma canonica di Jordan:

i 1
0 i


−i 1 
0 −i

Invece, rispetto alla base
(ℜv1 , Im v1 , ℜv2 , Im v2 ),
−1
la matrice associata a T è data da P AP , dove P è la matrice che ha nelle colonne gli elementi di
tale base. Svolgendo i calcoli si ottiene


0 1 1 0
 −1 0 0 1 
P −1 AP = 
,
0 0 0 1
0 0 −1 0
coerentemente con quanto sopra affermato.
114
Capitolo 5
COMPORTAMENTO ASINTOTICO. STABILITÀ
Negli esempi lineari bidimensionali studiati nel § 4.8 abbiamo notato la relazione fra l’origine (punto
di equilibrio), il comportamento asintotico delle soluzioni per t → ∞ e il segno degli autovalori della
matrice dei coefficienti. Mettiamo ora in evidenza la validità generale di questa relazione, e come la
si possa applicare localmente nel caso non lineare. Esponiamo infine il metodo di Liapunov per lo
studio della stabilità dei sistemi non lineari.
Nel primo paragrafo diamo le definizioni base dei concetti di stabilità nel caso generale dei sistemi
autonomi non lineari.
5.1 STABILITÀ DEI PUNTI DI EQUILIBRIO
Sia Ω un aperto di Rn e f : Ω → Rn una funzione localmente lipschitziana. Consideriamo l’equazione
autonoma
x′ = f (x).
(5.1)
Come visto nel paragrafo 2.6, la dinamica dell’equazione è individuata dal flusso ϕ, che per ogni
punto x0 ∈ Ω dà la soluzione ϕ(·, x0 ) del problema di Cauchy
′
x = f (x)
x(0) = x0 ,
intesa definita nel suo intervallo massimale di esistenza ω− (x0 ), ω+ (x0 ) .
Nel caso in cui f (x) = Ax, con A matrice n × n a elementi reali, si ottiene un flusso lineare, dato
da:
ϕ(t, x) = etA x.
Usualmente ci si riferisce con il termine di flusso anche alla funzione etA .
Osservazione 5.1.1 Nozioni come quella di stabilità, che esporremo fra poco, coinvolgono soltanto il flusso ϕ sopra definito e possono essere utilmente estese ad ogni situazione in cui sia data
una funzione ϕ soddisfacente le proprietà della Proposizione 2.6.3, indipendentemente dal fatto che
questa sia definita a partire da un’equazione differenziale. Da qui lo studio generale dei sistemi
dinamici.
Sia x ∈ Ω un punto di equilibrio del flusso ϕ, cioè un punto per il quale f (x) = 0 (od anche,
in termini del flusso, ϕ(·, x) = x). Nella definizione seguente prendiamo in considerazione il
comportamento delle soluzioni per tempi t ≥ 0.
115
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Definizione 5.1.2 Nella ipotesi precedenti:
a) il punto x è detto punto di equilibrio stabile (secondo Liapunov) se per ogni intorno U di x
esiste un intorno V di x per il quale, comunque preso x ∈ V ∩ Ω, si ha
ω+ (x) = +∞,
e ϕ(t, x) ∈ U per ogni t ≥ 0.
b) il punto x è detto attrattivo se esiste un intorno V di x tale che, per ogni x ∈ V ∩ Ω
ω+ (x) = +∞,
e
lim ϕ(t, x) = x.
t→+∞
c) Il punto x è detto asintoticamente stabile se è stabile e attrattivo.
Il punto x si dice instabile se non è stabile.
Osservazione 5.1.3 La richiesta ω+ (x) = +∞ può essere omessa in quanto, considerando un
intorno U ⊂⊂ Ω, la condizione che ϕ(t, x) ∈ U per ogni t ∈ [0, ω+ (x)) assicura che ω+ (x) = +∞.
5.2 COMPORTAMENTO ASINTOTICO DEI SISTEMI LINEARI
Consideriamo un sistema lineare omogeneo a coefficienti costanti: x′ = Ax. L’origine è chiaramente
un punto di equilibrio.
Introduciamo le seguenti definizioni23 :
Definizione 5.2.1 Diremo che l’origine è un pozzo per l’equazione x′ = Ax se comunque presa
una soluzione x(·) risulta;
lim x(t) = 0.
t→+∞
L’origine è invece detta sorgente se comunque presa una soluzione non nulla x(·) risulta;
lim |x(t)| = +∞.
t→+∞
Nel primo caso si dice anche che il corrispondente flusso lineare etA è una contrazione, mentre nel
secondo caso si dice che è un’espansione.
La natura dell’origine come punto di equilibrio dipende dal segno della parte reale degli autovalori
di A:
Teorema 5.2.2 L’origine è un pozzo (o una sorgente) per l’equazione x′ = Ax se e solo se la
parte reale di ogni autovalore della matrice A è negativa (o, rispettivamente, positiva).
Dimostrazione. Supponiamo che ℜλ < 0 per ogni autovalore λ. Se x = (x1 , . . . , xn ) è una
soluzione, sappiamo che ogni xi è combinazione lineare di funzioni della forma
tj eαt cos βt,
tj eαt sin βt,
(5.2)
al variare di α + iβ fra gli autovalori di A. Allora x(t) → 0 per t → +∞ se ogni α è negativo.
Invece, nell’ipotesi che ℜλ > 0 per ogni autovalore λ, si osservi che la matrice −A ha tutti gli
autovalori con parte reale negativa, per cui
lim |e−tA ξ| = 0
t→+∞
23 il
termine pozzo viene usualmente reso con sink in inglese
116
per ogni ξ ∈ Rn .
Capitolo 5 - COMPORTAMENTO ASINTOTICO. STABILITÀ
L’arbitrarietà di ξ implica che ke−tA k → 0 per t → +∞ (infatti, se ξ è l’i-esimo elemento della
base canonica si ottiene l’annullarsi, al limite, della i-ima colonna della matrice etA ). Sia ora x(·)
una soluzione non nulla di x′ = Ax; esiste allora x0 ∈ Rn \ {0} tale che x(t) = etA x0 . Quindi:
|x0 | = |e−tA x(t)| ≤ ke−tA k|x(t)|.
Poiché ke−tA k → 0 per t → +∞ e x0 6= 0, deve essere |x(t)| → +∞ per t → +∞.
Per il viceversa, sia v un autovettore di A relativo ad un autovalore λ = α+iβ. Allora x(t) = eλt v
è soluzione di x′ = Ax (in C). Poiché
|x(t)| = eαt |v|,
le soluzioni tendono a zero o all’infinito (in modulo) secondo che sia ℜλ < 0 o ℜλ > 0, rispettivamente. Il passo successivo è analizzare i cosiddetti flussi iperbolici.
Definizione 5.2.3 Diciamo che il flusso etA è iperbolico se ogni autovalore di A ha parte reale
non nulla.
Indichiamo con λ1 , . . . , λq ∈ C gli autovalori distinti di A. Sappiamo che (vedi Teorema 4.8.15):
Cn = E ′ (λ1 ) ⊕ . . . ⊕ E ′ (λq ).
Se etA è iperbolico, suddividiamo gli autovalori distinguendoli rispetto al segno della parte reale:
ℜλk < 0
ℜλk > 0
k = 1, . . . , r
k = r + 1, . . . , q
(intenderemo che ℜλ > 0 per ogni λ se r = 0 e che ℜλ < 0 per ogni λ se r = q). Quindi
Cn = EsC ⊕ EuC ,
dove
EsC = E ′ (λ1 ) ⊕ . . . ⊕ E ′ (λr ),
EuC = E ′ (λr+1 ) ⊕ . . . ⊕ E ′ (λq ).
Poiché la matrice A è a elementi reali, esiste una base reale di E ′ (µ) ⊕ E ′ (µ), per ogni autovalore
µ ∈ C \ R; possiamo quindi decomporre Rn nella somma24
Rn = Es ⊕ Eu ,
con Es = EsC ∩ Rn e Eu = EuC ∩ Rn .
Sappiamo che entrambi i sottospazi sono invarianti rispetto all’operatore T : x 7→ Ax (vedi
tA
Proposizione 4.8.14) e quindi anche rispetto
al flusso e (basti ricordare la definizione di matrice
esponenziale). Inoltre gli autovalori di T sono λ1 , . . . , λr e quelli di T sono λr+1 , . . . , λq .
Pertanto:
Es
Eu
Proposizione 5.2.4 Lo spazio Rn può essere decomposto nella forma:
Rn = Es ⊕ Eu
in modo che:
24 si noti che le combinazioni lineari reali degli elementi di una base reale di E ′ (µ) ⊕ E ′ (µ) formano un sottospazio di Rn
di dimensione 2dim E ′ (µ).
117
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
y2
x2
Es
:
x+
E
−
: x
u
=
2y
0
y=
y1
0
x1
Figura 5.1 - Varietà stabile e instabile, nelle coordinate x e y
• ciascuno dei due sottospazi sia invariante rispetto ad A e quindi rispetto al flusso etA ;
• etA è una contrazione, mentre etA è un’espansione.
Es
Eu
Si può dimostrare che questa decomposizione è unica. I sottospazi Es ed Eu sono anche detti
varietà stabile e varietà instabile, rispettivamente.25
Notiamo che il cambiamento di variabile x = P y applicato nel § 4.4 per studiare la struttura delle
soluzioni di un sistema lineare omogeneo e autonomo utilizzava una matrice P costruita mediante
autovettori generalizzati. Sia Ẽs ⊕ Ẽu la decomposizione di Rn relativa al sistema y ′ = Ãy, con
à = P −1 AP : poiché à è diagonale a blocchi e ogni blocco presenta un solo autovalore, Ẽs e Ẽu
sono sottospazi coordinati. I sottospazi Es := P Ẽs e Eu := P Ẽu danno la parte stabile e instabile
di Rn relativamente al sistema x′ = Ax.
Esempi
1 4
1. x = Ax con A =
.
2 −1
Gli autovalori sono ±3 e
′
Es = E(−3) = h(1, −1)i,
Eu = E(3) = h(2, 1)i.
2 1
Se P =
allora nelle coordinate y date da x = P y il sistema si scrive equivalentemente in
1 −1
forma diagonale;
′
y1 = 3y1
y2′ = −3y2 .
Le traiettorie sono iperboli
(vedi Figura

 5.1).
3 2 −6
2. x′ = Ax con A = 3 −1 −4.
2 2 −5
La forma canonica reale è:


1 0 0
à =  0 −2 1  .
0 −1 −2
In Figura 5.2 sono riportate alcune traiettorie relative al sistema y ′ = Ãy.
Prendiamo ora in considerazione il caso in cui la matrice A possa presentare autovalori con parte
reale nulla.
25 Gli
118
indici s e u stanno per stable e unstable.
Capitolo 5 - COMPORTAMENTO ASINTOTICO. STABILITÀ
Figura 5.2 - Un esempio tridimensionale con dim Es = 2 e dim Eu = 1
119
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Teorema 5.2.5 L’origine è stabile per l’equazione x′ = Ax se e solo se valgono le due condizioni
seguenti:
a) ℜλ ≤ 0 per ogni autovalore λ di A;
b) ogni autovalore λ con parte reale nulla deve essere semisemplice, cioè avere la molteplicità
geometrica coincidente con quella algebrica.
In particolare, se esiste un autovalore con parte reale strettamente positiva, allora l’origine è instabile.
Dimostrazione. Come abbiamo visto nel capitolo precedente,mediante un opportuno cambiamento
di variabile (e quindi di base in Cn ) x = P y si ottiene un sistema equivalente y ′ = Ãy in cui la
matrice à = P −1 AP è diagonale a blocchi, con ciascun blocco Ãk relativo alla rappresentazione
della trasformazione x 7→ Ax ristretta all’autospazio generalizzato E ′ (λk ). Il calcolo della matrice
risolvente età si riduce al calcolo di etÃk , in cui si sfrutta la decomposizione Ãk = λk I + (Ãk − λk I)
in somma di una matrice diagonale e una matrice nilpotente. Quindi la parte polinomiale nella matrice
risolvente è assente se e solo se la matrice Ãk − λk I è nulla, cioè Ãk è diagonale: ciò equivale a dire
(Proposizione 4.8.10) che la molteplicità geometrica e algebrica di λk coincidono.
Pertanto, nelle ipotesi (a) e (b) si ottiene la limitatezza di ketA k su [0, +∞). Se teniamo conto
che per ogni x0 ∈ Rn
|etA x0 | ≤ ketA k|x0 |,
è immediato dedurne la condizione di stabilità per l’origine.
Viceversa, se viene meno la validità di (a) o di (b), esiste x0 per il quale la soluzione etA x0 è
illimitata. Ciò rimane vero per etA (εx0 ) per ogni ε > 0, da cui l’instabilità della soluzione nulla. 5.3 STABILITÀ LINEARIZZATA
Cerchiamo ora di applicare quanto visto nel caso lineare allo studio locale delle soluzioni di un’equazione non lineare
x′ = f (x)
(5.3)
nell’intorno di un suo punto x di equilibrio. Sia pertanto Ω un aperto di Rn e f : Ω → Rn di classe
C 1 e supponiamo che x = 0 (se cosı̀ non fosse basta eseguire un’opportuna traslazione). A motivo
della natura locale dell’indagine, consideriamo la linearizzazione del campo f attorno all’origine:
f (x) = Ax + o(|x|)
per x → 0, con A = Df (0).
Mostriamo che se tutti gli autovalori di A hanno parte reale negativa o tutti hanno parte reale positiva,
allora il comportamento asintotico delle soluzioni attorno all’origine è come quello del sistema
x′ = Ax. A tal fine è utile una stima che ‘quantifichi’ l’andamento lineare del termine Ax, o, come
nel lemma che segue, l’andamento quadratico del termine hAx, xi.
Data una base B di Rn , utilizzeremo la notazione h·, ·iB e | · |B per indicare il prodotto scalare e
la norma indotte da B, quindi
hx′ , x′′ iB = hy ′ , y ′′ i,
|x|B = |y|
se y, y ′ e y ′′ indicano le componenti di x, x′ e x′′ in B e h·, ·i e | · | l’usuale prodotto scalare e modulo
in Rn . Indichiamo con P = (pij ) la matrice di passaggio dalla
P base canonica a B (quindi, secondo
la (4.49), se v1 , . . . , vn sono gli elementi di B, risulta vj = i pij ei ). Allora:
hx′ , x′′ iB = hP −1 x′ , P −1 x′′ i,
120
|x|B = |P −1 x|.
Capitolo 5 - COMPORTAMENTO ASINTOTICO. STABILITÀ
Lemma 5.3.1 Siano α, β ∈ R tali che
α < ℜλ < β
per ogni autovalore λ di A. Allora esiste una base B di Rn rispetto alla quale
α|x|2B ≤ hAx, xiB ≤ β|x|2B
per ogni x ∈ Rn .
La dimostrazione si basa sull’osservazione che, data una base B e il corrispondente prodotto
scalare definito come sopra, risulta:
hAx, xiB = hP −1 Ax, P −1 xi = hP −1 AP y, yi = hÃy, yi,
dove à = P −1 AP rappresenta x 7→ Ax nella base B; quest’ultima viene scelta in modo che Ã
abbia un’opportuna forma canonica.
Dimostrazione. Sappiamo che esiste una base B̃ di Rn rispetto a cui l’operatore T : x → Ax si
rappresenta in forma canonica reale, cioè in forma diagonale a blocchi, con blocchi di una delle forme




D I
0
λ 1
0




..
..




.
.
(λ ∈ R);
b) 
a) 
,




D I
λ 1
D
λ
ℜλ ℑλ
con D = −ℑλ
ℜλ , nel caso di autovalore complesso. Ciascuno di questi blocchi rappresenta T
ristretto a un opportuno sottospazio; possiamo cosı̀ trattare separatamente ciascuno di questi sottospazi
e supporre pertanto che la forma canonica à presenti un unico blocco, del tipo (a) o (b) sopra
specificato.
Consideriamo il caso (a). Sia B̃ = (ẽj ) una base in cui T si rappresenti mediante la matrice
à = λI + ÃN , con ÃN blocco nilpotente elementare. Dato ε > 0 poniamo
vj = εj ẽj .
La matrice P di passaggio dalla base B̃ a B è
P = diag (ε, ε2 , . . . , εn );
e l’operatore T , nella base B, è rappresentato da
P −1 ÃP = λI + P −1 ÃN P.
Calcoliamo gli elementi della matrice N = P −1 ÃN P :
(P −1 ÃN P )ij = (P −1 )ih (ÃN )hk Pkj = (P −1 )ii (ÃN )ij Pjj
0
se j 6= i + 1
=
ε−i εj = ε se j = i + 1.
Quindi:



N =

0 ε
..
.
0

0



ε
0
(λ ∈ R);
121
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Da ciò deduciamo che per ogni y ∈ Rn ,
|hN y, yi| ≤ ε|y|2 .
Dato x ∈ Rn e indicato con y il vettore delle sue componenti in B, poiché in questa base T è
rappresentato da λI + N , risulta:
hAx, xiB = h(λI + N )y, yi = λ|y|2 + hN y, yi;
possiamo concludere in base alla stima precedente e all’arbitrarietà di ε.
Il caso (b) si tratta analogamente. Teorema 5.3.2 (Stabilità per linearizzazione) Se ogni autovalore di Df (0) ha parte
reale strettamente negativa, allora l’origine è punto di equilibrio asintoticamente stabile per l’equazione (5.3).
Più precisamente, se Λ > 0 è tale che
ℜλ < −Λ
per ogni autovalore λ di Df (0),
allora esiste un intorno U dell’origine ed una base B di Rn tali che, comunque preso x ∈ U la
funzione ϕ(·, x) è definita per ogni t ≥ 0 e
|ϕ(t, x)|B ≤ |x|B e−Λt
per ogni t ≥ 0.
Dimostrazione. Applichiamo il lemma precedente alla linearizzazione di f attorno all’origine.
Sia β ∈ R tale che
ℜλ < β < −Λ
per ogni autovalore λ di A := Df (0).
Sia B la base di Rn fornita dal lemma precedente.
Dato x0 ∈ Ω \ {0} sia x(·) = ϕ(·, x0 ). Per ogni t dell’intervallo di definizione di x(·) abbiamo
d
|x(t)|2B = 2hx(t), x′ (t)iB = 2hf (x(t)), x(t)iB = 2hAx(t), x(t)iB + o(|x(t)|2B ).
dt
Sia δ > 0 tale che:
U := {x ∈ Rn : |x|B < δ} ⊂⊂ Ω,
β|x|2B + o(|x|2B ) ≤ −Λ|x|2B
per ogni x ∈ U .
Sia x0 ∈ U e t ∈ [0, ω+ (x0 )) tale che x(t) ∈ U per ogni t ∈ [0, t]. Allora, applicando il lemma
precedente e tenendo conto della scelta di δ, abbiamo:
d
|x(t)|2B ≤ −2Λ|x|2B
dt
per ogni t ∈ [0, t].
|x(t)|2B ≤ |x0 |2B e−2Λt
per ogni t ∈ [0, t].
Ne deduciamo che:
−Λt
e quindi |x(t)|B ≤ |x0 |B e
per ogni t ∈ [0, t]. Pertanto la soluzione x(·) non esce da U e pertanto
ω+ (x0 ) = +∞ e la disuguaglianza precedente vale per ogni t ≥ 0. Come nel caso lineare la presenza di un autovalore con parte reale positiva implica l’instabilità
(omettiamo la dimostrazione):
Teorema 5.3.3 Se Df (0) ha un autovalore con parte reale strettamente positiva, allora l’origine
è un punto di equilibrio instabile.
122
Capitolo 5 - COMPORTAMENTO ASINTOTICO. STABILITÀ
Esempio. (Pendolo smorzato) Ricordiamo l’equazione del pendolo semplice senza attrito (§ 1.6):
mlϑ̈ = −mg sin ϑ;
consideriamo il caso in cui sia presente una forza di attrito proporzionale alla velocità lϑ̇:
mlϑ̈ = −mg sin ϑ − klϑ̇,
(k > 0),
o anche:
ϑ̈ + ω 2 sin ϑ + 2aϑ̇ = 0.
con ω 2 = g/l e 2a = k/m. Scritta come sistema di equazioni questa diventa:
ϑ̇ = v
v̇ = −ω 2 sin ϑ − 2av.
I punti di equilibrio sono dati da (kπ, 0) al variare di k ∈ Z. Posto f (ϑ, v) = v, −ω 2 sin ϑ − 2av ,
risulta:
0
1
Df (kπ, 0) =
.
−ω 2 cos kπ −2a
Gli autovalori sono:
λ1,2
Pertanto:

√
 −a ± a2 − ω 2
p
= −a ± a2 − ω 2 cos kπ =
√

−a ± a2 + ω 2
se k è pari,
se k è dispari.
se k è pari ℜλ1,2 < 0 e i punti (kπ, 0) risultano asintoticamente stabili: ricordando che v è
la velocità angolare ϑ̇, si tratta delle configurazioni corrispondenti al punto di minima quota e
velocità nulla.
se k è dispari vi è un autovalore negativo e uno positivo: i punti (kπ, 0) sono instabili.
Le Figure 5.3 e 5.4 delineano il diagramma di fase nei due casi in cui il coefficiente di attrito a sia
sopra o sotto il valore critico ω.
Esempio. L’esempio precedente, per a = 0, dà il pendolo privo di attrito. La linearizzazione
attorno ai punti (kπ, 0) con k dispari presenta i due autovalori ±ω: pertanto si tratta ancora di punti
di equilibrio instabile (Figura 3.7).
I diagrammi di fase attorno ai punti ((2k + 1)π, 0) nel caso del pendolo senza attrito (vedi Figura 3.7), o quelli attorno ai punti (2kπ, 0) per il pendolo con attrito (vedi Figure 5.3 e 5.4) hanno la
stessa struttura dei corrispondenti diagrammi di fase relativi ai problemi linearizzati: nel primo caso
il problema lineare presenta un punto di sella, nel secondo caso un fuoco o un nodo stabili a seconda
che si tratti della situazione sottocritica o sovracritica. Questa equivalenza topologica locale è resa
precisa dal seguente teorema.
Teorema 5.3.4 (Grobman-Hartman) Se 0 è un punto di equilibrio per il sistema (5.3) e nessuno degli autovalori della matrice Df (0) ha parte reale nulla, allora il flusso relativo al sistema (5.3)
e il flusso relativo al sistema linearizzato x′ = Df (0)x sono localmente isocronalmente equivalenti,
cioè esistono U e V intorni dell’origine e un omemomorfismo h : U → V tali che
h(ϕ(t, x)) = etDf (0) h(x)
per ogni x ∈ U .
123
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
8
6
4
2
0
−2
−4
−6
−8
−10
−8
−6
−4
−2
0
2
4
Figura 5.3 - a < ω (pendolo sottosmorzato)
124
6
8
10
Capitolo 5 - COMPORTAMENTO ASINTOTICO. STABILITÀ
5
4
3
2
1
0
−1
−2
−3
−4
−5
−6
−4
−2
0
2
4
6
Figura 5.4 - a > ω (pendolo sovrasmorzato)
125
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
∼·∼·∼·∼·∼·∼·∼
In presenza di autovalori di cui si sappia soltanto la non positività o la non negatività della parte reale,
nulla possiamo concludere sulla stabilità dell’origine come punto di equilibrio sfruttando solamente
lo studio del sistema linearizzato. Consideriamo, ad esempio,
x′ = −y + x3
(5.4)
y′ = x + y3.
L’unico punto di equilibrio è l’origine, ma la linearizzazione nell’origine è data dalla matrice
0 −1
.
1 0
Quindi l’origine è un centro per
l’equazione linearizzata; mostriamo che invece è instabile per
l’equazione data. Sia x(·), y(·) = ϕ(·, (x0 , y0 )) una soluzione; posto
̺(t) =
risulta:
p
x(t)2 + y(t)2 ,
d 2
̺ (t) = 2[xx′ + yy ′ ] = 2[x(−y + x3 ) + y(x + y 3 )] = 2(x4 + y 4 );
dt
poiché x4 + y 4 ≥ 12 ̺4 , otteniamo
2
d 2
̺ (t) ≥ ̺2 ,
dt
da cui ̺2 (t) → +∞ in tempo finito.
Se invece nella (5.4) i termini x3 e y 3 vengono rimpiazzati da −x3 e −y 3 , rispettivamente, allora
l’equazione linearizzata non cambia, ma nelle stesse notazioni precedenti:
d 2
̺ (t) = −2(x4 + y 4 ),
dt
da cui si ricava la decrescenza di ̺ e quindi l’esistenza globale della soluzione x(·), y(·) e la sua
convergenza a zero per t → +∞: l’origine è asintoticamente stabile.
Nel caso del pendolo senza attrito trattato poco sopra, i punti di equilibrio (kπ, 0) con k pari danno
un problema linearizzato con autovalori con parte reale nulla: vedremo nel prossimo paragrafo un
modo per dimostrare la stabilità di tali punti.
5.4 FUNZIONI DI LIAPUNOV
Il metodo delle funzioni di Liapunov può essere visto come una generalizzazione del fatto fisico che
i punti di equilibrio stabile corrispondono a punti di minimo dell’energia.
Consideriamo l’equazione (5.1), con f di classe C 1 .
Se V : U → R è una funzione differenziabile (U ⊆ Ω aperto), per ogni x ∈ U definiamo la
derivata orbitale di V in x:
d
V̇ (x) = V ϕ(t, x) ,
dt
t=0
dove ϕ indica il flusso associato all’equazione (5.1). Osserviamo che
V̇ (x) = ∇V (x) · f (x),
(5.5)
quindi V̇ può essere calcolata senza conoscere ϕ, cioè senza risolvere l’equazione differenziale.
126
Capitolo 5 - COMPORTAMENTO ASINTOTICO. STABILITÀ
Notiamo anche che, fissato x ∈ U e t0 ∈ ω− (x), ω+ (x) , abbiamo:
d
V ϕ(t, x) = ∇V ϕ(t0 , x) · ϕ′ (t0 , x)
dt
t=t0
= ∇V ϕ(t0 , x) · f ϕ(t0 , x) = V̇ ϕ(t0 , x) .
Quindi in ogni punto ϕ(t, x) il valore V̇ ϕ(t, x) rappresenta la derivata di V nel punto ϕ(t, x) lungo
la soluzione ϕ(·, x). Ad esempio, se V̇ ≤ 0 allora V decresce lungo ogni soluzione.
Teorema 5.4.1 Sia x un punto di equilibrio per l’equazione (5.1). Sia V : U → R una funzione
continua definita in un intorno U ⊆ Ω di x, differenziabile in U \ {x} e tale che:
a) V (x) = 0, V (x) > 0 se x 6= x;
b) V̇ ≤ 0 in U \ {x}.
Allora il punto x è stabile. Se inoltre
c) V̇ < 0 in U \ {x},
allora il punto x è asintoticamente stabile.
Una funzione V soddisfacente (a) e (b) è detta funzione di Liapunov per x; se vale anche la
proprietà (c) si parla di funzione di Liapunov stretta.
Dimostrazione. Sia δ > 0 tale che B δ (x) ⊆ U e
α = min{V (x) : x ∈ ∂Bδ (x)} > 0.
Sia
U1 = {x ∈ Bδ (x) : V (x) < α}.
Per ogni x ∈ U1 si ha
d
V ϕ(t, x) = V̇ ϕ(t, x) ≤ 0,
dt
finchè ϕ(t, x) ∈ U ; quindi V ϕ(·, x) è non crescente, per cui:
ϕ(t, x) ∈ Bδ (x)
per ogni t ∈ ω− (x), ω+ (x) .
Ne segue che x è stabile. Notiamo che, in particolare, ω+ (x) = +∞ (si ricordi l’Osservazione 5.1.3).
Supponiamo che valga anche la
proprietà (c). Fissiamo x ∈ U1 e sia (tn )n una successione
tendente a +∞. Poiché ϕ(tn , x) n è limitata ammette una sottosuccessione convergente (che per
semplicità denotiamo sempre allo stesso modo):
ϕ(tn , x) → z.
Dimostriamo che z = x. Poiché V è strettamente decrescente lungo ϕ(·, x), risulta:
V ϕ(t, x) > V (z)
per ogni t ≥ 0
(5.6)
(infatti V ϕ(tn , x) > V (z) e per ogni t > 0 esiste n tale che tn < t). Supponiamo che z 6= x.
Allora
V (z) > V ϕ(s, z)
per ogni s ≥ 0.
127
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Fissiamo S > 0; per la dipendenza continua dai dati iniziali, per ogni ε > 0 è possibile determinare
nε ∈ N tale che
|ϕ S, ϕ(tnε , x) − ϕ(S, z)| < ε.
Poiché V ϕ(S, z) < V (z) e V è continua (nel punto ϕ(S, z)), per ε sufficientemente piccolo risulta:
Osserviamo ora che:
per cui
V ϕ S, ϕ(tnε , x) < V (z).
ϕ S, ϕ(tnε , x) = ϕ(tnε + S, x),
V ϕ(tnε + S, x) < V (z);
ciò è assurdo per (5.6).
Per l’arbitrarietà della successione (tn ) concludiamo che ϕ(t, x) → x per t → +∞. Esempio. Consideriamo l’equazione del moto di un punto materiale di massa m in un campo di
forze conservativo di potenziale −φ(x):
mẍ = −∇φ(x).
Equivalentemente possiamo scrivere:
(
ẋ = v
1
v̇ = − ∇φ(x).
m
(5.7)
Se x è punto di minimo per φ allora (x, 0) è punto di equilibrio per il sistema (5.7). Poniamo:
V (x, v) =
1
m|v|2 + φ(x) − φ(x)
2
(si tratta dell’energia totale del sistema). Allora:
− V̇ (x, v) = 0, come subito si verifica utilizzando la (5.5);
− se x è punto di minimo stretto allora (x, 0) è di equilibrio, V (x, 0) = 0 e
V (x, v) > 0 se (x, v) 6= (x, 0) è in un intorno di (x, 0).
Pertanto la funzione V è di Liapunov per (x, 0), che quindi è stabile.
Sistemi hamiltoniani. L’esempio precedente rientra nell’importante categoria dei sistemi hamiltoniani.
Si tratta si sistemi di equazioni differenziali della forma
q̇ = Hp (q, p)
(5.8)
ṗ = −Hq (q, p),
dove H(p, q) è una funzione differenziabile in 2n variabili (p ∈ Rn , q ∈ Rn ). Come subito si verifica,
H è un integrale primo del sistema (5.8), cioè è costante lungo le soluzioni; infatti:
d
H q(t), p(t) = Hq q(t), p(t) q̇(t) + Hp q(t), p(t) ṗ(t) ≡ 0.
dt
Ciò significa che la derivata orbitale di H è nulla.
128
Capitolo 5 - COMPORTAMENTO ASINTOTICO. STABILITÀ
Sia ora (q, p) un punto di minimo stretto per H; allora (q, p) è critico, quindi è un punto di equilibrio
per il sistema (5.8); inoltre
V (q, p) := H(q, p) − H(q, p)
è una funzione di Liapunov per (q, p). Concludiamo che (q, p) è di equilibrio stabile. Notiamo che
l’essere H costante lungo le soluzioni esclude l’asintotica stabilità.
Il caso precedente si ottiene per
H(x, v) =
1 2
1
|v| + φ(x)
2
m
(la funzione V dell’esempio precedente è mH).
Esempio. Lo studio del moto di un pendolo di lunghezza l senza attrito conduce all’equazione:
ϑ̈ + ω 2 sin ϑ = 0
(ω 2 =
g
),
l
cioè al sistema del primo ordine:
ϑ̇ = v
v̇ = −ω 2 sin ϑ
(si veda il § 3.7 per lo studio delle orbite, in particolare la Figura 3.7). La funzione
H(ϑ, v) =
1 2
|v| − ω 2 cos ϑ
2
è una funzione di Liapunov per i punti di equilibrio (kπ, 0), con k intero pari: pertanto si tratta di punti
di equilibrio stabile. Come già sopra notato, non è possibile applicare il metodo di linearizzazione
in quanto gli autovalori hanno parte reale nulla.
Sistemi gradiente. Si tratta di sistemi della forma
x′ = −∇V (x)
(5.9)
con V ∈ C 2 (Ω); quindi il campo di velocità è un campo gradiente. Sia x un punto di minimo stretto
per V ; per semplicità supponiamo che V (x) = 0. Allora
V >0
in un intorno di x.
Inoltre
V̇ (x) = −|∇V (x)|2 ≤ 0.
Quindi V è una funzione di Liapunov per x, che pertanto è di equilibrio stabile. Se in più x è anche
isolato come punto critico, allora V è una funzione di Liapunov stretta e x è asintoticamente stabile.
Osservazione 5.4.2 Nello studio della stabilità degli equilibri per sistemi bidimensionali è utile
tenere presente i metodi del § 3.7 per la determinazione delle traiettorie.
∼·∼·∼·∼·∼·∼·∼
Concludiamo con un risultato di asintotica stabilità che dà una stima del cosiddetto bacino di
attrazione di un punto di equilibrio asintoticamente stabile x, cioè l’insieme dei punti x per i quali
ϕ(t, x) → x per t → +∞. È conveniente premettere alcuni concetti (che si inquadrerebbero in modo
naturale nel più vasto quadro dei sistemi dinamici).
Definizione 5.4.3 Sia ϕ il flusso associato all’equazione (5.1). Sia x ∈ Ω.
129
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Poniamo:
γ + (x) = {ϕ(t, x) : t ∈ [0, ω+ (x))}
γ − (x) = {ϕ(t, x) : t ∈ (ω− (x), 0]}
γ(x) = {ϕ(t, x) : t ∈ (ω− (x), ω+ (x)}
semiorbita positiva di x
semiorbita negativa di x
orbita di x.
Se ω+ (x) = +∞, si dice ω-limite di x l’insieme
\
\
ω(x) =
γ + ϕ(t, x) =
{ϕ(s, x) : s ≥ t}.
t>0
t>0
In modo analogo si definisce l’α-limite di x.
Diremo poi che un insieme è positivamente [negativamente] invariante se contiene la semiorbita
positiva [negativa] di ogni suo punto. Si parla invece di insieme invariante se è sia positivamente che
negativamente invariante, cioè contiene l’orbita di ogni suo punto.
Enunciamo senza dimostrazione la seguente proprietà:
Proposizione 5.4.4 L’insieme ω(x) è invariante, cioè contiene l’orbita di ogni suo punto.
Utilizzando questo risultato è facile dimostrare:
Teorema 5.4.5 Sia x ∈ Ω un punto di equilibrio per l’equazione (5.1) e sia V : U → R una
funzione di Liapunov per x. Sia A un intorno chiuso e limitato di x che sia positivamente invariante
e tale che su nessuna orbita in A \ {x} la funzione V sia costante. Allora x è asintoticamente stabile
e A è contenuto nel bacino d’attrazione di x.
Dimostrazione. Sia x ∈ A; poiché A è positivamente invariante e chiuso
ω(x) ⊆ γ + (x) ⊆ A.
Poiché V decresce lungo le orbite,
V ϕ(t, x) → α := inf{V ϕ(τ, x) : τ ≥ 0}.
I punti di ω(x) sono limite di successioni ϕ(tk , x) k (con tk → +∞) e V è continua; quindi V = α
su ω(x). Per ipotesi ω(x), in quanto sottoinsieme di A, non contiene orbite su cui V è costante, se
non l’orbita {x}. Deve allora essere ω(x) = {x}, da cui si deduce che ϕ(t, x) → x per t → +∞. 130
Capitolo 6
EQUAZIONI DELLA FISICA MATEMATICA:
PROBLEMI AI LIMITI E FUNZIONI SPECIALI
La modellizzazione dei fenomeni fisici mediante equazioni differenziali dà luogo sovente a equazioni
del secondo ordine: si pensi, ad esempio, ai problemi incentrati sulla seconda legge della dinamica,
nella quale il termine di accelerazione si esprime tramite le derivate seconde della funzione della
posizione. Poichè la prima fase di approssimazione nel tradurre matematicamente un fenomeno
passa in genere attraverso un’operazione di linearizzazione, le equazioni differenziali del secondo
ordine e lineari, sia ordinarie che a derivate parziali, svolgono un ruolo rilevante in una molteplicità
di modelli. Da essi scaturisce poi la maggior parte delle tipologie di problemi: ne sono esempio
i problemi ai valori iniziali, come si incontrano nella determinazione della legge oraria di un moto
nota la posizione e la velocità iniziale. Un’altra rilevante tipologia di problemi per un’equazione del
secondo ordine è quella in cui la prescrizione del valore iniziale dell’incognita e della sua derivata
vengono sostituiti dall’assegnazione del valore dell’incognita agli estremi di un fissato intervallo: si
tratta dei cosiddetti problemi ai limiti, collegati all’importante questione della determinazione degli
autovalori degli operatori differenziali e della ricerca delle corrispondenti autofunzioni.
In questo capitolo accenniamo ad alcune di tali questioni connesse allo studio di equazioni fondamentali della Fisica Matematica. Il § 6.1 presenta un esempio standard di problema ai limiti come
scaturisce dalla risoluzione dell’equazione di Laplace su un rettangolo mediante separazione di variabili. I §§ 6.2 e 6.3 trattano l’equazione di Hermite e l’equazione di Bessel (di ordine 0), come esempi
di equazioni differenziali lineari del secondo ordine a coefficienti variabili, introducendo il metodo
di risoluzione mediante sviluppi in serie di potenze. Infatti, ad eccezione di alcuni casi particolari,
non è possibile esprimere le soluzioni delle equazioni a coefficienti variabili mediante combinazioni
finite di funzioni elementari. Soluzioni particolari (usualmente espresse come sviluppi in serie) di
equazioni come quelle di Hermite o di Bessel danno luogo a funzioni speciali della Fisica Matematica
di ampio utilizzo nei problemi modellistici e quindi diffusamente studiate di per sè.
Nei §§ 6.4 e 6.5 per ciascuna delle due equazioni introdotte illustriamo un problema in cui essa
si presenta in modo naturale. I contesti scelti sono la modellizzazione dell’oscillatore armonico
quantistico (già incontrato nel § 1.7) e dei modi normali di vibrazione di una membrana circolare
elastica. Entrambi coinvolgono lo studio di problemi ai limiti e problemi agli autovalori per equazioni
lineari del secondo ordine.
131
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
6.1 EQUAZIONE DI LAPLACE SU DI UN RETTANGOLO
Una delle equazioni a derivate parziali più note è l’equazione di Laplace:
∆u(x, y) = 0
∆=
∂2
∂2 +
∂x2
∂y 2
(6.1)
in un assegnato aperto Ω di R2 . Ad esempio, il potenziale u in una regione piana Ω, in assenza di
carica elettrica interna, soddisfa l’equazione (6.1). Un problema che si presenta in modo naturale per
la (6.1) è il seguente
∆u = 0
in Ω
(6.2)
u = u0
su ∂Ω
Si tratta della ricerca di quelle particolari soluzioni di (6.1) che assumono l’assegnato valore u0 su
∂Ω: si pensi, ad esempio, all’interpretazione di u come potenziale.
L’operatore ∆ è lineare (∆(αu + βv) = α∆u + β∆v), per cui l’insieme V delle soluzioni di (6.1)
è uno spazio vettoriale rispetto alle usuali operazioni di somma e prodotto per scalari. È possibile
individuare una base di V ? Non affronteremo qui il problema nella sua generalità; individueremo
invece alcune soluzioni ‘elementari’ a partire dalle quale cercheremo di rappresentare la soluzione
del problema (6.2) per domini Ω rettangolari.
Sia pertanto Ω = (0, 1) × (0, 1) e riscriviamo il problema nella forma

in Ω
 ∆u(x, y) = 0
u(x, 0) = u10 (x), u(1, y) = u20 (y)

u(x, 1) = u30 (x) u(0, y) = u40 (y)
(6.3)
con ui0 restrizione, al corrispondente lato di Ω, della funzione (continua) u0 . Poichè ∆ è lineare,
possiamo risolvere separatamente ciascuno dei problemi ottenuti ponendo uguali a zero i dati ui0 su
tre dei quattro lati e sommare infine le quattro funzioni cosı̀ ottenute. Ad esempio, prendiamo in
considerazione il problema

in Ω
 ∆u(x, y) = 0
u(x, 0) = f (x),
(6.4)

u(1, y) = u(x, 1) = u(0, y) = 0
con f = u10 . Determiniamo innazitutto soluzioni della forma ‘a variabili separate’
u(x, y) = v(x)w(y)
dell’equazione ∆u = 0 soddisfacenti le prescritte condizioni di annullamento sui tre lati. Deve essere
v ′′ (x)w(y) + v(x)w′′ (y) = 0;
questa è implicata da:
w′′ (y)
v ′′ (x)
=−
.
v(x)
w(y)
Poiché i due membri dipendono da variabili differenti, devono essere costanti, diciamo −λ; da ciò e
dalle condizioni di annullamento arriviamo ad imporre a v e w di risolvere26
′′
′′
v (x) + λv(x) = 0
w (y) − λw(y) = 0
(6.5)
(6.6)
v(0) = 0 = v(1)
w(1) = 0
26 Se v ′′ (x) + λv(x) = 0 e w ′′ (y) − λw(y) = 0 allora v ′′ (x)w(y) + λv(x)w(y) = 0 e v(x)w ′′ (y) − λv(x)w(y) = 0,
per cui, sommando membro a membro, si ha v′′ (x)w(y) + v(x)w ′′ (y) = 0.
132
Capitolo 6 - EQUAZIONI DELLA FISICA MATEMATICA
Il problema (6.5) è un problema ai limiti per l’equazione v ′′ + λv = 0. Sicuramente ammette la
soluzione nulla, ma per gli scopi che ci siamo prefissati dobbiamo vedere se è possibile determinare
λ in modo che esistano soluzioni non identicamente nulle. Dobbiamo distinguere tre casi:
a) λ = −a2 < 0
(con a > 0)
In tal caso le soluzioni sono date da:
v(x) = c1 eax + c2 e−ax
(c1 , c2 ∈ R).
La condizione di annullamento agli estremi di (0, 1) dà c1 = c2 = 0, come si vede facilmente.
b) λ = 0
Le soluzioni sono affini: v(x) = c1 + c2 x; chiaramente solo la funzione nulla assume valore
zero nei punti x = 0 e x = 1.
c) λ = a2
(con a > 0)
Le soluzioni hanno la forma
v(x) = c1 cos ax + c2 sin ax
(c1 , c2 ∈ R).
Se richiediamo che v si annulli negli estremi di (0, 1), allora c1 = 0 e c2 sin a = 0. Otteniamo
allora soluzioni diverse da quella nulla in corrispondenza dei valori a = ±nπ per n ∈ N.
Pertanto, esistono infiniti valori
λn = n2 π 2
(n ∈ N)
per i quali il problema (6.5) ha soluzioni non nulle, date, a meno di una costante moltiplicativa, da
vn (x) = sin nπx.
I valori λn sono detti autovalori del problema (6.5), e le funzioni vn sono le corrispondenti autofunzioni.
Poniamo ora λ = λn nella (6.6); otteniamo:
w(y) = c1 enπy + c2 e−nπy
con la condizione
c1 enπ + c2 e−nπ = 0,
da cui si ricava facilmente che w differisce per una costante moltiplicativa dalla funzione
wn = sinh nπ(1 − y).
Riassumendo, le funzioni
un (x, y) = vn (x)wn (y) = sin nπx sinh nπ(1 − y)
(n ∈ N)
risolvono l’equazione ∆u = 0 e soddisfano le condizioni
u(1, y) = u(x, 1) = u(0, y) = 0.
Cerchiamo ora di soddisfare anche la condizione u(x, 0) = f (x) mediante una combinazione lineare
‘infinita’ di funzioni un , cioè una serie
u(x, y) =
∞
X
n=1
cn sin nπx sinh nπ(1 − y).
(6.7)
133
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Deve essere (y = 0)
f (x) =
∞
X
bn sin nπx
n=1
con bn = cn sinh nπ. Allora la successione (bn ) deve coincidere con la successione dei coefficienti
dello sviluppo di f in serie di Fourier di soli seni. Notiamo espressamente che si tratta dello sviluppo
di f in serie di autofunzioni del problema (6.5).
È possibile verificare che la funzione cosı̀ ottenuta, sommata a quelle ricavate a partire dai problemi
analoghi a (6.4), risolve effettivamente il problema (6.3): la funzione è C 2 e verifica l’equazione
∆u = 0 in Ω = (0, 1) × (0, 1) ed è estendibile con continuità a ∂Ω in modo da assumere il valore
u0 : ci limitiamo qui a verificare la prima di queste condizioni (mentre più delicato è dimostrare
l’estendibilità continua sul bordo con valore u0 ). A tal fine è sufficiente considerare la u in (6.7).
Dalla teoria delle serie di Fourier segue che
Z 1
bn =
f (x) sin nπx dx.
0
Nell’ipotesi di continuità, e quindi di limitatezza, di f la successione (bn ) è equilimitata; inoltre
sinh nπ(1 − y)
1 − e−2nπ(1−y)
= e−nπy
sinh nπ
1 − e−2nπ
1
≤ e−nπy
.
1 − e−2π
Pertanto esiste C > 0 per il quale il termine generale della serie (6.7) è maggiorato, in valore assoluto,
da:
C(e−πy )n .
Ne segue che la serie (6.7) converge assolutamente in modo uniforme in ogni insieme
[0, 1] × [y0 , 1]
con y0 > 0.
P
Con ragionamento analogo si vede che le serie derivate, prime e seconde, sono dominate da n2 (e−πy )n ,
a meno di una costante positiva. Quindi le derivate di u uguagliano le corrispondenti serie derivate,
da cui ∆u = 0. (Si veda, ad esempio, [16]).
6.2 EQUAZIONE DI HERMITE
Come avremo modo di vedere nel successivo §6.4, lo studio dell’oscillatore armonico quantistico
porta alla considerazione della seguente equazione, detta equazione di Hermite
u′′ (x) − 2xu′ (x) + 2γu(x) = 0,
(6.8)
dove γ è una data costante reale.
Cerchiamo di determinare le soluzioni che possono essere sviluppate in serie di potenze della
forma:
∞
X
u(x) =
an xn
n=0
con raggio di convergenza R > 0. Se |x| < R possiamo considerare le serie derivate:
′
u (x) =
∞
X
n=1
134
n−1
nan x
′
, quindi xu (x) =
∞
X
n=1
n
nan x =
∞
X
n=0
nan xn
Capitolo 6 - EQUAZIONI DELLA FISICA MATEMATICA
e
u′′ (x) =
∞
X
n=2
n(n − 1)an xn−2 =
∞
X
(n + 2)(n + 1)an+2 xn .
n=0
La condizione che u risolva l’equazione si traduce pertanto nella seguente relazione fra i coefficienti
an dello sviluppo:
(n + 2)(n + 1)an+2 − 2nan + 2γan = 0,
cioè
an+2 = 2
n−γ
an ,
(n + 2)(n + 1)
per ogni n ≥ 0.
(6.9)
I valori a0 e a1 possono essere assegnati arbitrariamente, mentre i coefficienti successivi risultano
determinati per ricorrenza dalla (6.9).
La scelta a0 = 1 e a1 = 0 dà a2k+1 = 0 per ogni k, mentre
a2(k+1) = 2
2k − γ
a2k ,
(2k + 2)(2k + 1)
da cui, per iterazione,
a2(k+1) = 2k+1
(2k − γ)(2k − 2 − γ) . . . (−γ)
.
(2k + 2)!
P
Mediante il criterio del rapporto è immediato verificare che la serie k a2k x2k converge assolutamente per ogni x; pertanto definisce una funzione analitica u1 su tutto R la quale, in base a quanto
svolto, risolve l’equazione (6.8).
Analogamente, se poniamo a0 = 0 e a1 = 1 otteniamo a2k = 0 per ogni k, mentre
a(2k+1)+2 = 2k+1
(2k + 1 − γ)(2k − 1 − γ) . . . (1 − γ)
.
(2k + 3)!
La corrispondente serie è ancora assolutamente convergente su tutto R, per cui dà luogo ad una
funzione analitica u1 che risolve (6.8) su tutto R.
Osserviamo che il determinante wronskiano di u1 e u2 per t = 0 è
u1 (0) u2 (0) 1
=
w(0) = ′
u1 (0) u′2 (0) 0
0
= 1 6= 0.
1
Pertanto u1 e u2 sono soluzioni linearmente indipendenti e le soluzioni di (6.8) sono date da:
u(t) = c1 u1 (t) + c2 u2 (t),
al variare di c1 , c2 ∈ R.
Osservazione 6.2.1 Nel caso in cui γ è un intero naturale pari, la serie che definisce u1 è in
realtà una somma finita, quindi u1 è un polinomio, di grado γ. Cosı̀ pure, se γ è un intero naturale
dispari, allora la funzione u2 è un polinomio, di grado γ. In tutti gli altri casi le funzioni u1 e u2
sono serie effettive, che definiscono una funzione pari e una funzione dispari, rispettivamente; quindi
se γ ∈
/ N nessuna delle soluzioni c1 u1 (t) + c2 u2 (t) è polinomiale. Vedremo l’importanza di questa
osservazione nel § 6.4.
135
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
6.3 EQUAZIONE DI BESSEL
Analizziamo ora un’importante equazione differenziale del secondo ordine che nasce in connessione all’operatore di Laplace in coordinate polari nel piano (come vedremo, a titolo d’esempio, nel
problema presentato nel prossimo paragrafo).
Per t 6= 0 consideriamo l’equazione:
1
u′′ + u′ + u = 0,
t
(6.10)
detta equazione di Bessel di ordine 0.
Cerchiamo una soluzione in forma di serie di potenze:
u(t) =
∞
X
a n tn .
n=0
con raggio di convergenza R positivo. Per ogni t interno al cerchio di convergenza abbiamo
u′ (t) =
∞
X
nan tn−1 ,
u′′ (t) =
∞
X
n=2
n=1
n(n − 1)an tn−2 .
Quindi
∞
X
1
u′′ (t) + u′ (t) + u(t) =
(n + 2)(n + 1)an+2 tn
t
n=0
+
∞
∞
X
a1 X
+
(n + 2)an+2 tn +
a n tn
t
n=0
n=0
∞
=
a1 X
+
[(n + 2)2 an+2 + an ]tn ;
t
n=0
ne segue che la condizione che u risolva (6.10) diventa:
a1 = 0,
an+2 = −
1
an .
(n + 2)2
Tutti i termini di indice dispari sono pertanto nulli, mentre
a2(k+1) = −
1
a2k ,
[2(k + 1)]2
per ogni k ≥ 0.
Da ciò deduciamo che
(−1)k
a0 .
22k (k!)2
Se assumiamo a0 = 1 otteniamo come funzione u la cosiddetta funzione di Bessel (del primo tipo)
di ordine 0:
X (−1)k (t/2)2k
t2
t4
J0 (t) :=
= 1 − 2 + 2 2 + ...
2
(k!)
2
2 4
a2k =
k=0
Osserviamo che il raggio di convergenza è +∞ e la funzione è pari.
Sappiamo che lo spazio vettoriale delle soluzioni dell’equazione (6.10) è bidimensionale; individuiamo una seconda soluzione che sia indipendente rispetto a J0 . Nello spirito del metodo di
variazione delle costanti cerchiamo una soluzione della forma
u(t) = v(t)J0 (t),
136
(t > 0)
Capitolo 6 - EQUAZIONI DELLA FISICA MATEMATICA
1
J0 (t)
0.5
0
2
4
6
8
10
12
14
16
t
−0.5
Figura 6.1 - Funzione J0 di Bessel
con v da determinare. Deve essere:
1
v ′′ J0 + 2v ′ J0′ + vJ0′′ + (v ′ J0 + vJ0′ ) + vJ0 = 0,
t
da cui, tenendo conto che J0 è soluzione dell’equazione,
1 ′
J′
v = 0,
v ′′ + 2 0 +
J0
t
in ogni intervallo in cui J0 6= 0. Come equazione in v ′ questa dà subito
v ′ (t) = c
1
tJ02 (t)
(c costante),
quindi:
v(t) = c
Z
1
tJ02 (t)
dt.
Si può verificare che, a meno di un addendo multiplo di J0 , risulta:
Z
1
t2
J0 (t)
dt
=
J
(t)
log
t
+
0
tJ02 (t)
22
t6
1
1 1
t4
+ 2 2 2 1+ +
− ...
− 2 2 1+
2 ·4
2
2 ·4 ·6
2 3
Si può dimostrare che la serie che segue il termine J0 (t) log t converge assolutamente per ogni t ∈ R.
La funzione u0 a secondo membro costituisce pertanto un’estensione di v a tutto (0, +∞), quindi
anche nei punti di annullamento di J0 . Concludiamo che le soluzioni dell’equazione (6.10) sono date
da:
u(t) = c1 J0 (t) + c2 u0 (t),
al variare di c1 , c2 ∈ R. In realtà, per coerenza con definizioni alternative, si preferisce utilizzare
anzichè u0 la funzione
2
2
Y0 (t) := − (log 2 − γ)J0 (t) + u0 ,
π
π
137
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
1
Y0 (t)
0.5
0
2
4
6
8
10
12
14
16
t
−0.5
−1
−1.5
−2
Figura 6.2 - Funzione Y0 di Neumann-Bessel
dove γ indica la costante di Eulero-Mascheroni:
1
1 1
γ := lim 1 + + + . . . + − log n ∼ 0.5772 . . .
n→+∞
2 3
n
La funzione Y0 è detta funzione di Neumann-Bessel del secondo tipo, di ordine 0. Il grafico è indicato
in Figura 6.2; notiamo che, dalla definizione stessa si ricava la singolarità di tipo logaritmico per t0 :
Y0 (t)/ log t → 1 per t → 0+ .
6.4 OSCILLATORE ARMONICO QUANTISTICO
Riprendiamo l’equazione di Schrödinger degli stati stazionari nel caso di potenziale armonico (vedi
§ 1.7): riscalando opportunamente la variabile spaziale otteniamo l’equazione (1.30), cioè
v ′′ (x) + (2γ − x2 )v(x) = 0,
(6.11)
dove abbiamo nuovamente utilizzato la variabile x e, per comodità di notazione in vista delle
successive trasformazioni, abbiamo indicato con 2γ + 1 la costante ε; risulta pertanto:
r
mK 1/2 E
E m
=2
.
2γ + 1 = 2
~2
K
~ K
Le soluzioni di interesse fisico (funzioni d’onda) devono soddisfare la condizione
lim
|x|→+∞
v(x) = 0.
Considerazioni euristiche27 suggeriscono di operare il cambiamento di variabile
v(x) = u(x)e−x
27 Per
2
.
valori grandi di |x| possiamo trascurare il termine γ del coefficiente di v(x) nella (6.11), ottenendo
v′′ (x) = x2 v(x).
138
/2
Capitolo 6 - EQUAZIONI DELLA FISICA MATEMATICA
L’equazione si trasforma cosı̀ nell’equazione di Hermite
u′′ (x) − 2xu′ (x) + 2γu(x) = 0.
Pertanto, cerchiamo soluzioni u(x) dell’equazione di Hermite per le quali
lim
|x|→+∞
u(x)e−x
2
/2
= 0.
(6.12)
Come visto nell’Osservazione 6.2.1, le uniche soluzioni polinomiali si ottengono se γ è un intero
naturale. Queste soddisfano banalmente la condizione (6.12). Si può dimostrare che si tratta delle
uniche soluzioni con tale proprietà. Per ogni n ∈ N si conviene di indicare con Hn (x) l’unico
polinomio di grado n che risolve l’equazione (6.8) per γ = n e che ha il coefficiente del termine di
grado massimo dato da 2n . Si tratta dei cosiddetti polinomi di Hermite. Risulta, ad esempio,
H0 (x) = 1, H1 (x) = 2x, H2 (x) = −2 + 4x2 ,
H3 (x) = −12x + 8x3 , . . .
Se ricordiamo il significato attribuito a γ, la condizione (6.12) di ammissibilità delle soluzioni dell’equazione di Hermite e quindi di ammissibilità per le corrispondenti soluzioni dell’equazione di
Schrödinger, si traduce nel richiedere l’esistenza di un numero naturale n tale che
r
mK 1/2 E
E m
2n + 1 = 2
=2
,
~2
K
~ K
cioè
r
1 K
~.
E = n+
2
m
Ricordiamo l’equazione classica ẍ(t) + ω 2 x(t) = 0 (con ω 2 = K/m, se K è la costantepelastica e
m indica la massa): le soluzioni x(t) = A cos(ωt + ϕ) hanno periodo T = 2π/ω = 2π m/K, o
T = 1/ν, con
r
K
1
ν=
.
2π m
Utilizzando questa definizione di ν anche per il caso dell’oscillatore armonico quantistico, la formula
precedente assume la forma
1
E = En = hν n + ,
2
che esprime la ben nota quantizzazione dell’energia: i valori ammissibili dell’energia formano un
insieme discreto.
6.5 MODI NORMALI DI VIBRAZIONE PER UNA MEMBRANA CIRCOLARE
Consideriamo il problema delle vibrazioni trasversali di una membrana fissata al bordo della regione
circolare D = {(x, y) ∈ R2 : x2 + y 2 < 1}. Una possibile modellizzazione è tradotta dal problema
La funzione v(x) = e−x
2
/2
è una soluzione approssimata di tale equazione, nel senso che
v (x) = (−1 + x2 )e−x
′′
2
/2
∼ x2 e−x
2
/2
= x2 v(x)
per |x| grande.
2
È quindi ragionevole cercare soluzioni esatte della (6.11) nella forma u(x)e−x /2 (si pensi al metodo di variazione delle
2
2
costanti . . . ). Nel ragionamento svolto è anche possibile considerare, in luogo di e−x /2 , la funzione ex /2 , ma questa non
soddisfa la condizione di annullamento all’infinito.
139
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
differenziale

u (x, y; t) = c2 ∆x,y u(x, y; t)


 tt
u(x, y; t) = 0
u(·
; 0) = u0



ut (· ; 0) = u1 ,
in D
per (x, y) ∈ ∂D
(6.13)
dove u(x, y; t) rappresenta lo scostamento verticale dalla posizione di riposo nel punto (x, y) all’istante t di tempo, c > 0 è la velocità di propagazione delle onde elastiche nel mezzo, u0 indica il
profilo iniziale della membrana e u1 la velocità iniziale in ogni punto.
Cerchiamo innanzitutto soluzioni ‘elementari’ che soddisfino la condizione di annullamento al
bordo di D.
a) Come primo passo determiniamo soluzioni che presentino la variabile temporale t separata dalle
variabili spaziali x, y, nella seguente forma:
u(x, y; t) = T (t)v(x, y).
Deve allora essere
T ′′ (t)v(x, y) = c2 T (t)∆v(x, y),
e quindi
∆v(x, y)
T ′′ (t)
=
.
c2 T (t)
v(x, y)
Entrambi i membri devono essere costanti, diciamo −λ, quindi
T ′′ + c2 λT = 0
− ∆v = λv.
(6.14)
(6.15)
La seconda equazione, con la condizione che u sia costantemente nulla sul bordo di D, dà:
n
−∆v = λv
in D
(Pλ )
v=0
su ∂D.
I valori λ per i quali il problema (Pλ ) ha soluzioni non nulle sono detti autovalori di −∆ (sul dominio
D); le corrispondenti soluzioni sono dette autofunzioni.
Proposizione 6.5.1 Gli autovalori di −∆ su D sono strettamente positivi.
Dimostrazione. Sia λ un autovalore di (Pλ ) e v un’autofunzione corrispondente. Utilizzando la
formula di integrazione per parti in più variabili e tenendo conto che v = 0 su ∂D, abbiamo:
Z Z
Z Z
Z
∂v
dσ
∇v∇v dxdy = −
v∆v dxdy +
v
∂ν
D
∂D
Z ZD
=λ
v 2 dxdy.
D
Ne segue che λ deve essere positivo, strettamente poiché v non è identicamente nulla. b) Per individuare gli autovalori del problema (Pλ) sfruttiamo la forma del dominio D, scrivendo il problema in coordinate polari (̺, ϑ). Indichiamo per semplicità con v(̺, ϑ) la funzione v(̺ cosϑ, ̺ sin ϑ)
e ricordiamo l’espressione del laplaciano in coordinate polari; abbiamo quindi

 − v̺̺ + 1 v̺ + 1 vϑϑ ) = λv
0 < ̺ < 1, ϑ ∈ R
̺
̺2
(6.16)

v(1, ϑ) = 0
140
Capitolo 6 - EQUAZIONI DELLA FISICA MATEMATICA
con l’ulteriore condizione che v sia 2π-periodica in ϑ e che
esista finito lim v(̺, ϑ).
̺→0
Osserviamo che se i dati iniziali u0 e u1 sono indipendenti da ϑ, la simmetria del problema
suggerisce che anche la soluzione u goda della medesima proprietà. Consideriamo quindi innanzitutto
la situazione v = v(̺); in tal caso le condizioni su v sono:

1

0 < ̺ < 1,
 v ′′ + v ′ + λv = 0,
̺

 v(1) = 0,
esista finito lim v(̺).
̺→0
Assumiamo λ > 0 in base alla Proposizione 6.5.1. Se eseguiamo il cambiamento di variabile
√
√
w(r) = v(r/ λ)
r = λ̺,
l’equazione diventa:
1
w′′ + w′ + w = 0,
r
che è l’equazione di Bessel di ordine 0 introdotta nel paragrafo precedente.
Le soluzioni si esprimono dunque nella forma
w(r) = c1 J0 (r) + c2 Y0 (r),
cioè
√
√
v(̺) = c1 J0 ( λ̺) + c2 Y0 ( λ̺).
La condizione di regolarità in ̺ = 0 dà c2 = 0 (ricordiamo che Y0 è singolare in 0); del resto, la
richiesta v(1) = 0 dà
√
J0 ( λ) = 0.
Come il comportamento qualitativo di J0 in Figura 6.1 lascia intuire,
√ esiste una successione di zeri di
J0 , quindi una successione di soluzioni λn per l’equazione J0 ( λ) = 0. In corrispondenza a questi
la (6.14) diventa:
T ′′ + c2 λn T = 0,
da cui
√
T (t) = A cos(c λn t − ϕ),
al variare di A ≥ 0 e ϕ ∈ R.
Concludiamo che le funzioni
√
√
un (̺, t) = J0 ( λn ̺) cos(c λn t − ϕn ),
con λn determinati come detto e ϕn arbitrari valori reali, risolvono
utt (x, y; t) = c2 ∆x,y u(x, y; t)
in D
u(x, y; t) = 0
per (x, y) ∈ ∂D.
Osservazione 6.5.2 Si parla di modi normali di vibrazione in relazione alle soluzioni un cosı̀
ottenute.
√ Per ciascuno di essi l’ampiezza delle oscillazioni in ogni punto (̺, ϑ) è dato dal valore di
J0 in λn ̺; pertanto sono presenti “linee nodali”
lungo le quali lo spostamento rimane
√
√ concentriche
nullo: si tratta delle circonferenze di raggi ̺ = λk / λn per k < n. (Si veda, ad esempio, [4]).
141
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
Figura 6.3 - Linee nodali nei modi normali di vibrazione di una membrana circolare.
Secondo lo stesso schema seguito per l’equazione di Laplace su un rettangolo, per risolvere il
problema (6.13) si considera una serie delle funzioni elementari un :
u(̺, t) =
∞
X
cn un (̺, t).
n=1
I coefficienti cn e ϕn vengono poi determinati mediante le condizioni iniziali. Al riguardo conviene
scrivere le cn un nella forma
√
√
√
un (̺, t) = J0 ( λn ̺)[an cos(c λn t) + bn sin(c λn t)],
e utilizzare l’arbitrarietà di an e bn (anzichè di cn e ϕn ). Allora la condizione u(·, 0) = u0 diventa:
u0 (̺) =
∞
X
√
an J0 ( λn ̺)
n=1
mentre la condizione ut (·, 0) = u1 dà luogo a:
u1 (̺) =
∞
X
√
√
bn c λn J0 ( λn ̺).
n=1
Si tratta di uno sviluppo di Bessel-Fourier dei dati iniziali.
142
Bibliografia
1. E. Acerbi, L. Modica, and S. Spagnolo. Problemi scelti di Analisi Matematica II. Liguori, Napoli, 1986.
2. H. Amann. Ordinary differential equations. An introduction to nonlinear analysis, volume 13 of de Gruyter
Studies in Mathematics. Walter de Gruyter & Co., Berlin, 1990.
3. V. I. Arnold. Ordinary differential equations. Universitext. Springer-Verlag, 2006. Translated from the
Russian by Roger Cooke. Second printing of the 1992 edition.
4. F. Bowman. Introduction to Bessel functions. Dover Publications Inc., New York, 1958.
5. Martin Braun. Differential equations and their applications. An introduction to applied mathematics.,
volume 11 of Texts in Applied Mathematics. Springer-Verlag, New York, fourth edition, 1993.
6. P. Ciarlet. Mathematical Elasticity. North Holland, Amsterdam, 1988.
7. Jack K. Hale. Ordinary differential equations. Robert E. Krieger Publishing Co., Huntington, N.Y., second
edition, 1980.
8. Jack K. Hale and Hüseyin Koçak. Dynamics and bifurcations, volume 3 of Texts in Applied Mathematics.
Springer-Verlag, New York, 1991.
9. Philip Hartman. Ordinary differential equations. John Wiley & Sons Inc., New York, 1964.
10. Morris W. Hirsch and Stephen Smale. Differential equations, dynamical systems, and linear algebra.,
volume 60 of Pure and Applied Mathematics. Academic Press [A subsidiary of Harcourt Brace Jovanovich,
Publishers], New York-London, 1974.
11. Morris W. Hirsch, Stephen Smale, and Robert L. Devaney. Differential equations, dynamical systems, and
an introduction to chaos., volume 60 of Pure and Applied Mathematics (Amsterdam). Elsevier/Academic
Press, Amsterdam, 2004.
12. Livio C. Piccinini, Guido Stampacchia, and Giovanni Vidossich. Equazioni differenziali ordinarie in Rn :
(problemi e metodi). Serie di matematica e fisica; 5. Liguori, Napoli, 1978.
13. C. Renfrew. Il carbonio-14 e la preistoria d’europa. Le Scienze, gennaio, 1972.
14. S. Salsa and A. Squellati. Esercizi di analisi matematica 2. Masson, 1994.
143
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
15. George F. Simmons. Differential equations with applications and historical notes. International Series in
Pure and Applied Mathematic. McGraw-Hill Book Co., New York-Dı̈¿ 12 sseldorf-Johannesburg, 1972.
16. H.F. Weinberger. A first course in Partial Differential Equations. Blaisdell Publishing Company, 1965.
17. H. K. Wilson. Ordinary differential equations. Introductory and intermediate courses using matrix methods.
Addison-Wesley Publishing Co., Reading, Mass.-London-Don Mills, Ont., 1971.
144
Indice analitico
α-limite, 130
ω-limite, 130
autofunzioni, 133, 140
autospazi generalizzati, 109, 110
autovalori
di d2 /dx2 , 133
di −∆ su un cerchio, 140
bacino di attrazione, 129
brachistòcrona, 53
capacità di carico, 3
centro, 105
cicloide, 55
cinetica chimica, 4
circuiti elettrici, 8
confronto (teorema di), 36
decadimento radioattivo, 6
differenziale, 66
dinamica delle popolazioni, vedi modelli di crescita
dipendenza continua dai dati, 39, 43
disuguaglianze differenziali, 36
equazione
di Bessel, 136
di Laplace, 132
della crescita malthusiana, 2
delle elastiche piane, 17
di Hermite, 15, 134
di Schrödinger, 13
logistica, 3
equazione caratteristica, 97
equazione di Eulero di un funzionale, 62, 64
equazioni
a fattore integrante, 60
a variabili separabili, 47
del tipo F (y, y ′ ) = 0 o F (x, y ′ ) = 0, 52
di Bernoulli, 49
di Clairaut, 55
di Riccati, 49
di tipo omogeneo, 51
di tipo omogeneo generalizzato, 51
e forme differenziali, 58
e forme differenziali, 57
lineari
del primo ordine, 34, 48
di ordine superiore, 94
Lotka-Volterra, 12, 20
preda-predatore, 11
equazioni in forma normale, 17
esistenza globale, 32, 38, 39
esponenziale di una matrice, 75, 78, 79
estremale di un funzionale integrale, 64
fattore integrante, 60
flusso, 45
isocrona equivalenza, 123
iperbolico, 117
lineare, 115
forma canonica
di Jordan, 111
reale, 113
forme differenziali, 68
cambiamento di variabile, 62
145
Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE
esatte, chiuse, 68
pull-back, 62, 68
funzioni di Bessel, 136, 138
fuoco, 103
per linearizzazione, 122
sviluppo in serie
di Bessel-Fourier, 142
di Fourier, 134
Grobman-Hartman, teorema di, 123
Gronwall, lemma di, 34
tasso di variazione, 1
integrale primo, 65, 128
invariante, 130
Liapunov, funzione di, 127
Liouville, teorema di, 72, 95
lipschitzianità, 24
Lotka-Volterra, 37, 58, 60
Malthus, Thomas Robert, 2
massimale, intervallo, 29
modelli di crescita, 1, 11
modi normali di vibrazione, 141
nilpotente, 80
nodo, 103
nucleo risolvente, 97
operatori lineari, rappresentazione, 106
orbita, 45, 130
caso bidimensionale, 57
riparametr. delle soluzioni, 46
oscillatore armonico, 7
quantistico, 138
Peano, teorema di, 28
pendolo semplice, 123, 129
libero, 12
piccole oscillazioni, 13
smorzato, 123
Picard-Lindelöf, teorema di, 25
polinomi di Hermite, 139
pozzo, 116
problema ai limiti, 17, 133
problema ai valori iniziali, 2, 8, 18, 23
prolungamento delle soluzioni, 29
punto di equilibrio, 115
radiocarbonio, datazione, 6
reazioni
del primo ordine, 4
del secondo ordine, 4
risolvente, matrice, 71
separazione di variabili, 14, 132
sink, 116
sistemi autonomi, 44
sistemi dinamici, 45, 115, 129
sistemi gradiente, 129
sistemi hamiltoniani (stabilità), 128
sistemi lineari bidimensionali, 101
sorgente, 116
spazio degli stati o delle fasi, 45
spazio tangente, 67
stabilità, 43, 116
146
unicità, 25, 27, 35
esempio di non unicità, 28
valore regolare, 58
variazione ammissibile, 63
variazione delle costanti, 74
per eq. lineari del I ordine, 49
variazione prima di un funzionale, 63
varietà instabile, 118
varietà stabile, 118
Verhulst, Pierre François, 3
wronskiana, matrice, 71, 95
Scarica

Lezioni introduttive sulle equazioni differenziali ordinarie