Enrico Vitali Università degli Studi di Pavia Lezioni introduttive sulle equazioni differenziali ordinarie a.a. 2010/2011 Quelle che seguono sono le note del corso di “Equazioni differenziali” tenuto negli anni accademici 2007/2008, 2008/2009 e 2009/2010 per il Corso di laurea in Matematica e per il Corso di laurea in Scienze Fisiche dell’Università degli Studi di Pavia. Vorrebbero essere un punto di partenza per lo studio delle opere classiche espressamente dedicate a questi argomenti e citate, in parte, in bibliografia. Si ringraziano fin d’ora quanti (penso in particolare agli studenti del corso) segnaleranno errori, proporanno suggerimenti, avanzeranno commenti, . . . E.V. Pavia, 22 gennaio 2010 i Contents 1 Esempi introduttivi 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2 Modelli di crescita per una singola popolazione Cinetica chimica 1.2.1 Ordine di una reazione e modello differenziale 1.2.2 Datazione mediante radiocarbonio L’oscillatore armonico Circuiti elettrici Specie in competizione: sistemi non lineari Pendolo semplice Equazione di Schrödinger Elastiche piane; un esempio di problemi ai limiti Equazioni in forma normale. 1 1 4 4 6 7 8 11 12 13 15 17 Problemi ai valori iniziali per sistemi del primo ordine 23 2.1 2.2 2.3 2.4 2.5 2.6 23 29 34 36 39 44 Risultati di esistenza ed unicità Prolungamento delle soluzioni Lemma di Gronwall Disuguaglianze differenziali Dipendenza delle soluzioni dai dati Sistemi autonomi: generalità iii Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE 3 4 5 Tecniche elementari di integrazione 47 3.1 Equazioni a variabili separabili 3.2 Equazioni lineari del primo ordine 3.3 Equazioni di Bernoulli; equazione di Riccati 3.4 Equazioni di tipo omogeneo 3.5 Equazioni del tipo F (y, y ′ ) = 0 o F (x, y ′ ) = 0 3.6 Equazione di Clairaut 3.7 Equazioni differenziali e forme differenziali Appendice A: equazione di Eulero di un funzionale Appendice B: forme differenziali lineari 47 48 49 51 52 56 57 63 66 Equazioni e sistemi differenziali lineari 69 4.1 Equazione omogenea. Matrice risolvente 4.2 Equazione completa. Variazione delle costanti 4.3 Esponenziale di una matrice 4.4 Sistemi omogenei autonomi 4.5 Calcolo della matrice esponenziale 4.6 Equazioni scalari lineari di ordine superiore 4.7 Equazioni a coefficienti costanti 4.8 Sistemi omogenei autonomi: il caso bidimensionale Appendice: rappresentazione di operatori lineari 70 73 75 78 79 94 97 101 106 Comportamento asintotico. Stabilità 5.1 5.2 5.3 5.4 6 Stabilità dei punti di equilibrio Comportamento asintotico dei sistemi lineari Stabilità linearizzata Funzioni di Liapunov Equazioni della Fisica Matematica 6.1 6.2 6.3 6.4 6.5 Equazione di Laplace su di un rettangolo Equazione di Hermite Equazione di Bessel Oscillatore armonico quantistico Modi normali di vibrazione per una membrana circolare 115 115 116 120 126 131 132 134 136 138 139 Bibliography 143 Index 145 iv Chapter 1 ESEMPI INTRODUTTIVI Le equazioni differenziali costituiscono uno degli strumenti più utilizzati e adeguati nella fase di modellizzazione matematica quantitativa di un ‘fenomeno’, inteso nel senso ampio del termine: fenomeni fisico-naturali (come la dinamica di un sistema meccanico, la variazione spaziale del potenziale corrispondente a una data distribuzione di cariche o l’evoluzione nel tempo di una popolazione, . . . ), fenomeni economico-sociali (dinamica di grandezze macroeconomiche come produzione, capitale e lavoro in un sistema economico, . . . ), ecc. In questo capitolo presentiamo alcuni esempi, tratti da contesti differenti, con lo scopo sia di mettere in luce l’importanza delle equazioni differenziali in fase modellistica, sia di illustrare le peculiarità rilevanti delle varie tipologie di equazioni (lineari, non lineari, autonome, . . . ) e i primi concetti basilari. 1.1 MODELLI DI CRESCITA PER UNA SINGOLA POPOLAZIONE Si consideri una ‘popolazione’, intesa in senso lato: un agglomerato di entità di qualunque genere (batteri, esseri umani, nuclei radioattivi, . . . ) la cui consistenza complessiva varia nel tempo. Supponiamo di poter misurare quantitativamente la popolazione in modo ‘continuo’ (la variazione di una singola unità sia trascurabile sul totale della popolazione). Se x(t) misura l’entità della popolazione all’istante di tempo t, il valore x′ (t) x(t) è il tasso di variazione di x: esso dà la rapidità di variazione di x rispetto al tempo rapportata al totale della popolazione (cioè ‘per unità di popolazione’). Una situazione che, come vedremo fra poco, si verifica in numerosi casi è quella in cui il tasso di variazione dipende dalla popolazione stessa ed eventualmente dal tempo, cioè: x′ (t) = r(t, x(t)), x(t) o anche x′ (t) = r(t, x(t))x(t). (1.1) Questa relazione esprime la legge di evoluzione di x. Si tratta di una equazione differenziale: un’equazione in cui l’incognita è una funzione (la x) e compare almeno una derivata della funzione 1 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE stessa. Qui l’ordine massimo di derivazione che compare è 1, per cui abbiamo un’equazione differenziale del primo ordine. Assegnato il tasso r come funzione di t e di x, ci aspettiamo che la legge di evoluzione (1.1) specifichi completamente la funzione x se è noto, ad esempio, il valore assunto in un istante t0 di riferimento: x(t0 ) = x0 (valore noto). Spesso t0 = 0 (istante iniziale dell’esperimento o dell’intervallo di rilevazione dei dati, ecc.): ci si riferisce pertanto alla condizione x(t0 ) = x0 come condizione iniziale per l’equazione (1.1). Il problema: ′ x = r(t, x)x (1.2) x(t0 ) = x0 , è detto problema ai valori iniziali o problema di Cauchy per l’equazione (1.1). Per soluzione dell’equazione (1.1) intendiamo una qualunque funzione x di classe C 1 su un intervallo J per la quale x′ (t) = r(t, x(t))x(t) per ogni t ∈ J. Se t0 ∈ J e x(t0 ) = x0 allora x è soluzione di (1.2). Vediamo alcuni esempi. a) Tasso costante di variazione. Il modello di crescita di una popolazione in cui il tasso di variazione è assunto costante è legato al nome di Thomas Robert Malthus (1766–1834), demografo ed economista politico inglese.1 e L’equazione (1.1) diventa: x′ = rx. (1.3) Osserviamo innanzitutto che vi è la soluzione costante x ≡ 0. Sia x : J → R, con J intervallo, una soluzione di classe C 1 (si noti che se x è una soluzione differenziabile allora è automaticamente C 1 , dovendo sussistere l’uguaglianza x′ = rx). Se t0 ∈ J è tale che y(t0 ) 6= 0, allora y non si annulla in tutto un intorno U di t0 . In U l’uguaglianza x′ = rx equivale a: Z ′ x (t) dt = rt, x(t) che possiamo anche scrivere come: ∃c ∈ R log |x(t)| = rt + c, oppure: ∃C > 0 |x(t)| = Cert . Se inglobiamo il segno di x nella costante otteniamo infine: ∃C ∈ R \ {0} x(t) = Cert . Pertanto ogni soluzione, dove non nulla, deve essere un’esponenziale Cert , per una qualche costante C. Ne segue che ogni soluzione, se diversa dalla soluzione nulla, non si annulla mai ed è un esponenziale di questo tipo. Concludiamo che la famiglia delle soluzioni dell (1.3) è data da: t 7→ Cert : R → R 1 Malthus (C ∈ R). (1.4) enunciò per la prima volta le sue teorie sull’evoluzione della popolazione nel saggio anonimo "An essay on the principle of population as it affects the future improvement of society" nel 1798, ripubblicato successivamente più volte a proprio nome in forma ampliata. Sulla base dei dati demografici dei coloni inglesi nordamericani Malthus sostenne che in condizione di fecondità naturale la popolazione tende a raddoppiare a ogni generazione (circa 25 anni). Questa dinamica può essere espressa tramite una crescita esponenziale come in (1.4): si calcoli il valore di r se y raddoppia ogni 25 anni. 2 Chapter 1 - ESEMPI INTRODUTTIVI Se y(t) = Cert è una soluzione della (1.3), il valore C non è altro che y(0), per cui possiamo scrivere, più espressivamente: y(t) = y(0)ert ; a partire dal dato iniziale y(0) l’evoluzione è di tipo esponenziale. Nel caso in cui r < 0 abbiamo una decrescita esponenziale. Osservazione 1.1.1 Per meglio inquadrare le equazioni che incontreremo in questo capitolo, conviene notare subito che l’equazione (1.3), che possiamo anche scrivere come y ′ − ry = 0, rientra fra le equazioni differenziali lineari del primo ordine a coefficienti costanti: l’operatore differenziale y 7→ y ′ − ry è infatti lineare, coinvolge solo il primo ordine di derivazione e presenta ogni termine y (k) (con k = 0, 1) con coefficienti costanti. b) Equazione logistica. Spesso in un ambiente naturale la crescita è inibita da fattori il cui effetto è sempre più considerevole col passare del tempo, per esempio l’esaurimento delle risorse alimentari disponibili, la quantità di rifiuti tossici prodotti, l’affollamento fisico, ecc. In tal caso non è più ragionevole ammettere un tasso costante di crescita. Una possibile correzione al modello di crescita malthusiano fu proposta da Pierre François Verhulst (matematico belga, 1804– 1849) assumendo l’esistenza di una capacità di carico (o portante) dell’ambiente, cioè di un livello K della popolazione oltre al quale il tasso di crescita diventa negativo.2 Il più semplice modello che realizza ciò è una dipendenza lineare del tasso di crescita dalla popolazione: x′ x (1.5) =r 1− x K Procediamo in modo analogo a quanto abbiamo fatto per la (1.3). Chiaramente le funzioni costanti con valore 0 o K sono soluzioni. Se poi x è una soluzione in un intervallo I che non assume mai i valori 0 e K, allora deve essere: x′ =r x(1 − x/K) e per integrazione si ottiene: x = rt + c ∃c ∈ R log 1 − (x/K) o anche: 1 Cert =K 1− (1.6) rt rt 1 + Ce 1 + Ce (per C = 0 si recupera la soluzione nulla, per ‘C = ∞’ la soluzione costante di valore K; queste si scambiano ponendo C ′ = 1/C). Procedendo in modo analogo a quanto fatto per l’equazione (1.3), non è difficile vedere che queste esauriscono le soluzioni di (1.5). Consideriamo, in particolare, il caso 0 < x(0) < K: si ottiene (posto x0 = x(0)) x0 > 0. C= K − x0 ∃C ∈ R x(t) = K Se scriviamo C nella forma C = e−rt0 (come è sempre possibile per un opportuno valore t0 ∈ R) si nota che le soluzioni sono traslate temporali l’una dell’altra: x(t) = K er(t−t0 ) . 1 + er(t−t0 ) È sufficiente studiare il caso t0 = 0 (vedi Figura 1.1). Coerentemente con l’interpretazione modellistica considerata, K è il valore su cui si stabilizza asintoticamente il valore y della popolazione. 2 Al nome di Verhulst vanno associati anche quelli dei demografi americani R. Pearl e L.J. Reed, che negli anni ’20 del secolo scorso riscopersero le memorie pubblicate da Verhulst negli anni attorno al 1840 e a lungo dimenticate. 3 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE y K t Figure 1.1 - Curva logistica (Kert /(1 + ert )). 1.2 CINETICA CHIMICA La cinetica chimica studia i meccanismi che portano alle condizioni di equilibrio termodinamico per una data reazione. Come vedremo, le stesse equazioni (1.3) e (1.5) nascono come modelli naturali anche in questo campo: la ‘popolazione’ in oggetto è ora una specie chimica. 1.2.1 Ordine di una reazione e modello differenziale Consideriamo una generica reazione chimica del tipo aA + bB −−→ cC + dD. Mettiamoci nell’ipotesi che la reazione sia omogenea (cioè avvenga tra specie all’interno della stessa fase (solida, liquida o gassosa)); supponiamo inoltre che si svolga a volume e a temperatura costanti.3 Come misura della velocità di reazione possiamo assumere l’aumento della concentrazione di uno dei prodotti o la diminuzione di uno dei reagenti per unità di tempo: v=− 1 d[B] 1 d[C] 1 d[D] 1 d[A] =− = = . a dt b dt c dt d dt I coefficienti stechiometrici che compaiono tengono conto del fatto che le velocità di variazione delle varie specie sono legate fra loro. Ad esempio: N2 + 3 H2 −−→ 2 NH3 − d[N2 ] 1 d[H2 ] 1 d[NH3 ] =− = . dt 3 dt 2 dt La legge, detta legge cinetica, secondo cui evolve una reazione è determinata sperimentalmente. È molto comune il caso in cui la velocità di reazione è proporzionale alla concentrazione di uno o due dei reagenti, ciascuna elevata ad un esponente intero, generalmente piccolo: la somma di tali esponenti è detta ordine della reazione.4 Ad esempio: 3 altrimenti conviene definire la velocità di reazione come la variazione, nell’unità di tempo, del numero di moli della specie considerata per unità di volume. 4 In realtà molte reazioni sono costituite da diversi stadi o processi elementari; l’ordine della reazione è individuato dallo stadio più lento. Ad esempio 2 N2 O5 −−→ 4 NO2 + O2 si scompone in N2 O5 −−→ NO3 + NO2 (lento; 1◦ ordine) e 2 NO3 −−→ 2 NO2 + O2 (veloce). 4 Chapter 1 - ESEMPI INTRODUTTIVI • 2 N2 O5 −−→ 4 NO2 + O2 v = k[N2 O5 ] reazione del 1◦ ordine • H2 + I2 −−→ 2 HI v = k[H2 ][I2 ] reazione del 2◦ ordine (1◦ ordine rispetto a ciascun reagente) • 2 HI −−→ H2 + I2 2 v = k[HI] reazione del 2◦ ordine • 2 H2 + 2 NO −−→ 2 H2 O + N2 2 v = k[H2 ][NO] reazione del 3◦ ordine In una reazione del primo ordine la velocità di variazione della concentrazione [A]t di un reagente, al tempo t, è proporzionale alla concentrazione stessa; quindi − d[A]t = k[A]t , dt con k opportuna costante positiva dipendente dalla reazione in questione. Posto x(t) = [A]t si ottiene l’equazione x′ = −kx, (1.7) cioè la (1.3). Consideriamo ora le reazioni del secondo ordine. Supponiamo che la legge cinetica sia del tipo: v = k[A]t [B]t , (1.8) con la stechiometria data da A2 + B2 −−→ 2 AB (una molecola A2 formata da due atomi A e una molecola B2 formata da due atomi B si combinano dando luogo a due molecole del composto AB; un esempio è H2 + I2 −−→ 2 HI). Posto y(t) = [AB]t , poiché ogni coppia A2 , B2 produce due molecole di AB(cioè 21 d[AB]/dt = −d[A2 ]/dt = −d[B2 ]/dt), abbiamo (supponendo [AB]0 = 0) 1 [A2 ]t = [A2 ]0 − y(t), 2 1 [B2 ]t = [B2 ]0 − y(t). 2 Pertanto dall’equazione cinetica ricaviamo: Questa è della forma: 1 1 y ′ = k [A2 ]0 − y(t) [B2 ]0 − y(t) . 2 2 (1.9) y ′ = α(β − y)(γ − y), con α, β e γ parametri dati. Mediante il cambiamento di variabile β − y = z si ottiene: z ′ = αz[(β − γ) − z]. (1.10) Per β 6= γ l’equazione è della stessa tipologia della (1.5). 5 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Se in (1.8) si ha [B]t ∼ [B]0 (ad esempio se uno dei reagenti è il solvente (presente in forte eccesso rispetto al soluto)), allora la reazione diventa sostanzialmente del primo ordine. Per una reazione del secondo ordine che segue una legge del tipo − d[A]t = k[A]2t , dt (ad esempio 2 HI −−→ H2 + I2 ) si ottiene l’equazione x′ = −kx2 . (1.11) Questa rientra ancora nella tipologia (1.10), con β = γ. Come è facile vedere la famiglia delle soluzioni di (1.11) è: 1/k t 7→ , α ∈ R. t−α 1.2.2 Datazione mediante radiocarbonio Dal punto di vista matematico il modello cinetico delle reazioni del primo ordine è alla base del ben noto metodo di datazione mediante radiocarbonio. L’isotopo radioattivo 14C del carbonio (o radiocarbonio) ha origine dalla trasformazione dell’azoto 14 N negli strati alti dell’atmosfera mediante cattura di neutroni. Gli organismi viventi scambiano continuamente carbonio con l’atmosfera attraverso processi di respirazione (animali) o di fotosintesi (vegetali), oppure lo assimilano nutrendosi di altri esseri viventi o sostanze organiche. Finché l’organismo è vivo la concentrazione di 14C risultante nell’organismo rispetto a quella dell’isotopo stabile 12C si mantiene costante e uguale a quella che si riscontra nell’atmosfera (attualmente 1 su 1012 ). Alla morte dell’organismo, il radiocarbonio continua a decadere5 senza venire rimpiazzato: cambia quindi il rapporto tra 14C e 12C; la misura di tale rapporto permette di stimare il tempo trascorso dalla morte dell’organismo. Qualitativamente, questo è il principio su cui si basa il metodo di datazione mediante radiocarbonio proposto nel 1949 da W. F. Libby (che ottenne, per questo contributo, il premio Nobel per la Chimica nel 1960). Poichè, come è sperimentalmente verificato, il decadimento radioattivo segue la stessa legge (1.7) già vista per le reazioni del primo ordine, se y(t) indica la quantità di materiale radioattivo (nel nostro caso 14C) presente al tempo t, allora y(t) = y(0)e−kt , dove k è costante e caratteristica dell’elemento considerato. Spesso k viene determinata mediante il tempo di dimezzamento: infatti se T1/2 è tale che y(T1/2 ) = y(0)/2, allora deve essere: y(0)/2 = y(0)e−kT1/2 , da cui k= log 2 . T1/2 Sperimentalmente si determina T1/2 , che per il radiocarbonio è circa T1/2 ∼ 5730 anni, quindi k −1 ∼ 8267 anni. Se p ∈ (0, 1) è la percentuale di 14C residua, rispetto alla percentuale iniziale, rilevata in un reperto, ne possiamo stimare l’età t mediante: log p . t=− k 5 mediante 6 decadimento β − , trasformandosi in 14N: 14C 6 −−→ 14 7N + e− + antineutrino. Chapter 1 - ESEMPI INTRODUTTIVI 0 i Figure 1.2 - Oscillatore armonico F(x) 0 x(t) i Figure 1.3 - Oscillatore armonico: forza di richiamo Se il metodo di datazione mediante 14C è semplice in linea di principio, l’applicazione pratica è tuttavia molto delicata (infiltrazioni spurie di 12C o 14C nel reperto, variazione nel tempo della proporzione6 fra 12C e 14C, ecc.). 1.3 L’OSCILLATORE ARMONICO Un esempio classico che porta a una semplice equazione differenziale lineare del secondo ordine a coefficienti costanti (questo tipo di equazioni verrà studiato nel § 4.7) si ottiene studiando il moto di un punto materiale P di massa m vincolato a scorrere senza attrito su di una retta sotto l’azione di una forza elastica; quest’ultima può essere pensata realizzata mediante una molla come in Figura 1.2. Si supponga che l’origine del sistema di riferimento coincida con la posizione in cui la lunghezza della molla è quella a riposo. La forza di richiamo F(x) esercitata dalla molla quando il punto P si trova nella posizione di ascissa x, secondo la legge di Hooke è: F(x) = −kxi, 6A titolo di esempio si veda al riguardo l’articolo [8]. 7 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE dove i indica il versore dell’asse di riferimento e k la costante elastica della molla. Se x = x(t) indica la legge oraria del punto P , la seconda legge della dinamica dà7: mẍ(t) = −kx(t), da cui ẍ(t) + ω 2 x(t) = 0, dove ω 2 = k/m. (1.12) Si tratta di un’equazione differenziale lineare del secondo ordine a coefficienti costanti (si ricordi l’Osservazione 1.1.1): l’operatore differenziale x 7→ ẍ(t) + ω 2 x(t) è lineare e l’ordine massimo di derivazione coinvolto è il secondo; inoltre i coefficienti di x(k) sono costanti (rispetto al tempo). Le soluzioni di (1.12) sono date da (si veda § 4.7): x(t) = c1 cos ωt + c2 sin ωt, (1.13) al variare di c1 , c2 ∈ R (la verifica che si tratta di soluzioni può, peraltro, essere svolta direttamente). Una forma più espressiva della famiglia delle soluzioni si ottiene mettendo in evidenza l’ampiezza p A = c21 + c22 delle oscillazioni: ! c2 c1 cos ωt + p 2 sin ωt x(t) = A p 2 c1 + c22 c1 + c22 = A (cos ϕ cos ωt + sin ϕ sin ωt) , dove ϕ è tale che (cos ϕ, sin ϕ) = (c1 /A, c2 /A). Le soluzioni possono allora essere espresse come: x(t) = A cos(ωt − ϕ), al variare di A ≥ 0 e ϕ ∈ R. (1.14) Dalla (1.14) risulta evidente l’oscillazione sinusoidale del punto P attorno alla posizione di ascissa nulla, con periodo 2π/ω (moto armonico); risulta altresı̀ evidente che si può ottenere un moto armonico mediante proiezione di un moto circolare uniforme su un diametro della traiettoria. Come è noto dalla Fisica, la conoscenza della posizione x(t0 ) e della velocità ẋ(t0 ) in un istante t0 determina univocamente il moto del punto a ogni istante di tempo (precedente o successivo a t0 ). Analiticamente ciò corrisponde al fatto che il problema ẍ(t) + ω 2 x(t) = 0, (1.15) x(t0 ) = x0 , ẋ(t0 ) = v0 , con x0 e v0 assegnati, ammette una e una sola soluzione (cioè risultano univocamente individuate le costanti A e ϕ in (1.14) o c1 e c2 in (1.13)). Il problema (1.15) è un problema ai valori iniziali, o problema di Cauchy, per un’equazione del secondo ordine, analogamente al problema (1.2) già incontrato per un’equazione del primo ordine. 1.4 CIRCUITI ELETTRICI Vediamo alcune semplici equazioni e sistemi di equazioni differenziali che intervengono nello studio dei circuiti elettrici elementari. In particolare il fenomeno della mutua induzione fra circuiti RL fornirà un esempio della fondamentale famiglia dei sistemi differenziali lineari. Circuiti RC. Consideriamo un circuito in cui è presente un generatore di forza elettromotrice E , un resistore di resistenza R e un condensatore di capacità C (vedi Figura 1.4). Sia q(t) la carica del condensatore 7 In un contesto fisico-matematico, nel caso in cui la variabile di derivazione rappresenti il tempo, utilizzeremo spesso la tipica ’notazione puntata’ per indicare la derivata di una grandezza. 8 Chapter 1 - ESEMPI INTRODUTTIVI R C E Figure 1.4 - Circuito RC R L E Figure 1.5 - Circuito RL all’istante t; la corrente nel circuito è i = dq/dt. A partire da un qualunque punto del circuito la somma algebrica delle variazioni di potenziale rilevate in un giro completo lungo il circuito stesso è nulla (seconda legge di Kirchhoff). Procedendo nel verso della corrente si osserva un aumento di potenziale E attraversando il generatore di f.e.m., una diminuzione di potenziale iR attraversando il resistore e una diminuzione q/C corrispondente al condensatore. Ciò si traduce nell’equazione E − iR − q = 0; C poiché i = dq/dt ricaviamo R dq q + = E. dt C (1.16) Si tratta di un’equazione differenziale lineare del primo ordine non omogenea: rispetto alla (1.3), scritta anche come y ′ − ry = 0, l’operatore differenziale del primo ordine è ora uguagliato ad un funzione data (qui la costante E ). La soluzione corrispondente al dato iniziale q(0) = 0 si verifica essere (rimandiamo al § 3.2 per la tecnica risolutiva): q(t) = CE 1 − e−t/RC ). Circuiti RL. Consideriamo ora il caso in cui, in luogo del condensatore, nel circuito precedente sia presente un induttore di induttanza L (vedi Figura 1.5). Questo componente del circuito dà luogo a una f.e.m. EL tra i capi dell’induttore che si oppone alla variazione di corrente e che è proporzionale alla velocità 9 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE di variazione della corrente. La costante di proporzionalità è l’induttanza L: EL = L di . dt Come per il circuito RC studiato prima, la legge di Kirchhoff dà: E − iR − EL = 0, ovvero L di + Ri = E . dt (1.17) A prescindere dal significato delle grandezze in gioco questa equazione non è altro che la (1.16). Pertanto abbiamo la soluzione: E i(t) = 1 − e−Rt/L ), R nel caso di corrente iniziale nulla. Circuiti RLC. Nel caso più generale in cui sia presente sia un resistore che un induttore e un condensatore, la legge di Kirchhoff dà (i = dq/dt): E − iR − da cui: L q − EL = 0, C dq d2 q 1 +R + q = E. 2 dt dt C (1.18) Questa è un’equazione differenziale lineare del secondo ordine, a coefficienti costanti, non omogenea: analogamente a quanto detto per la (1.16) rispetto alla (1.3), l’operatore differenziale lineare del secondo ordine è uguagliato non a zero (come nella (1.12)), ma a una data funzione (in questo caso la costante E ). Per la tecnica risolutiva rimandiamo al § 4.6. Circuiti accoppiati: un sistema lineare Consideriamo infine la situazione in cui due circuiti diano luogo a una mutua induzione. Una corrente variabile i1 nel primo circuito produce, nel secondo circuito, una f.e.m. indotta proporzionale alla velocità di variazione della stessa i1 : (2) EL = M di1 , dt dove M è un coefficiente di proporzionalità. Analogamente, la variazione di corrente nel secondo circuito produce nel primo la f.e.m. di2 (1) EL = M . dt Si dimostra che il coefficiente M è il medesimo nei due casi e dipende solo dalla forma dei circuiti e dal loro mutuo orientamento. Nel caso di circuiti RL, sfruttando l’equazione (1.17) si ottiene la seguente relazione (in cui abbiamo supposto, per fissare le idee, che le f.e.m. indotte da ciascun circuito sull’altro siano di segno opposto rispetto a quello delle f.e.m. fornite dalle sorgenti): L1 10 di2 di1 + R1 i1 = E1 − M dt dt Chapter 1 - ESEMPI INTRODUTTIVI per il primo circuito; assieme all’analoga equazione per il secondo si ha di2 di1 +M + R1 i1 = E1 L1 dt dt M di1 + L2 di2 + R2 i2 = E2 dt dt Si tratta di un sistema di due equazioni differenziali lineari del primo ordine. Posto: i (t) E1 R1 0 L1 M i(t) := 1 E := R := Λ := i2 (t) E2 0 R2 M L2 possiamo riscrivere di + Ri = E . dt Se assumiamo l’invertibilità di Λ il sistema assume la forma Λ di = Ai + b dt (1.19) dove A = −Λ−1 R e b = Λ−1 E . Questo tipo fondamentale di sistema di equazioni differenziali verrà trattato nel Cap. 4. 1.5 SPECIE IN COMPETIZIONE: SISTEMI NON LINEARI Presentiamo ora un classico modello per l’evoluzione di due specie interagenti che conduce a un sistema nonlineare di equazioni differenziali. Si abbiano due popolazioni, la cui entità al tempo t è data da x1 (t) : “preda”; x2 (t) : “predatore” (ad esempio volpi e conigli). Siano r1 e r2 i loro tassi di crescita, rispettivamente: x1 ′ (t) = r1 , x1 (t) x2 ′ (t) = r2 . x2 (t) È naturale supporre che le variazioni delle singole popolazioni si influenzino a vicenda, per cui assumiamo che r1 = r1 (t, x1 , x2 ), r2 = r2 (t, x1 , x2 ). Otteniamo allora un sistema di equazioni differenziali che in generale è non lineare: ′ x1 = x1 r1 (t, x1 , x2 ) x2 ′ = x2 r2 (t, x1 , x2 ) Introducendo le funzioni vettoriali x = (x1 , x2 ) : t 7→ (x1 (t), x2 (t)), f = (f1 , f2 ) : (t, x) 7→ (x1 r1 (t, x), x2 r2 (t, x)), possiamo anche scrivere, più semplicemente, x′ = f (t, x). Come nel caso di una singola popolazione esaminiamo due casi. 11 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE a) Partiamo dalla legge di variazione a tasso costante per ciascuna delle due specie in competizione e modifichiamola per tenere conto della presenza dell’altra specie. Cosı̀, il tasso x1 ′ /x1 = α (con α > 0 costante), valido in assenza di predatori, viene corretto sottraendo a secondo membro un termine proporzionale all’entità del predatore; otteniamo: x1 ′ = α − βx2 . x1 Analogamente, al tasso costante negativo che caratterizzerebbe la variazione di x2 in assenza di preda, viene sommato un termine proporzionale all’entità della preda: x2 ′ = −γ + δx1 . x2 Ne risulta il sistema delle equazioni di Lotka-Volterra8 : ′ x1 = x1 (α − βx2 ) x2 ′ = x2 (−γ + δx1 ) (1.20) che possiamo anche scrivere, avendo posto x = (x1 , x2 ), x′ = f (x), con f (x) = (x1 (α − βx2 ), x2 (−γ + δx1 )). (1.21) b) Correggiamo ora ciascuna delle due equazioni in (1.20) rimpiazzando i tassi α e −γ con un termine analogo a quello che nell’equazione logistica introduceva la capacità di carico dell’ambiente: ′ x1 /x1 = α − λx1 − βx2 x2 ′ /x2 = −γ − µx2 + δx1 o anche x1 ′ = (α − λx1 − βx2 )x1 x2 ′ = (−γ − µx2 + δx1 )x2 (1.22) Accenneremo al comportamento delle soluzioni nel § 1.9, dopo aver puntualizzato il quadro generale in cui collocare i problemi differenziali presentati in questo capitolo. 1.6 PENDOLO SEMPLICE Assumiamo il punto di sospensione del pendolo come origine di un sistema di riferimento cartesiano nel piano verticale in cui si svolge il moto; l’asse delle ordinate è verticale, diretto verso l’alto. Indichiamo con ϑ lo scostamento angolare rispetto alla posizione verticale misurato in senso antiorario (vedi Figura 1.6), e con ur e ut , rispettivamente, i versori radiale e tangente (secondo l’orientamento antiorario). Indichiamo con ϑ = ϑ(t) il valore dell’angolo al tempo t; se l è la lunghezza del pendolo, risulta: x(t) = l sin ϑ(t) y(t) = −l cos ϑ(t) da cui: ẋ(t) = lϑ̇ cos ϑ ẏ(t) = lϑ̇ sin ϑ. 8 Proposto indipendentemente nel 1924 dal demografo americano Alfred James Lotka e nel 1926 dal matematico italiano Vito Volterra. 12 Chapter 1 - ESEMPI INTRODUTTIVI y ut ϑ x ϑ ur l ut F Figure 1.6 - Pendolo semplice Le componenti dell’accelerazione sono quindi: ẍ(t) = −lϑ̇2 sin ϑ + lϑ̈ cos ϑ ÿ(t) = lϑ̇2 cos ϑ + lϑ̈ sin ϑ (1.23) Proiettiamo la seconda legge della dinamica lungo il versore tangente ut = (cos ϑ)i + (sin ϑ)j: F · ut = ma · ut . Allora, in base a (1.23) si ottiene: −mg sin ϑ = mlϑ̈ Quindi: spiegare in g di ϑ̈ + sin ϑ = 0. (1.24) termini l acc. angolare Si tratta di un’equazione differenziale non lineare del secondo ordine. Per “piccole” oscillazioni possiamo assumere che sin ϑ ∼ ϑ, per cui si ottiene un’equazione lineare: ϑ̈ + ω 2 ϑ = 0 ω2 = g , l che è l’equazione del moto armonico incontrata nel paragrafo 1.3. Nei limiti di questa approssimazione il periodo s l T = 2π/ω = 2π g risulta indipendente dall’ampiezza delle oscillazioni (isocronismo delle piccole oscillazioni)9 . 1.7 EQUAZIONE DI SCHRÖDINGER L’equazione di Schrödinger svolge in meccanica quantistica il ruolo che le equazioni di Maxwell svolgono in elettromagnetismo. Per una particella di massa m ed energia potenziale U (x, t) essa 9 Questa legge era stata sperimentalmente osservata già da Galileo (ne accenna in una lettera del 1602 a Guidubaldo del Monte), in connessione ai suoi studi sul moto dei gravi. 13 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE assume la forma: ~2 ∂ψ(x, t) ∆x ψ(x, t) + U (x, t)ψ(x, t) = i~ , (1.25) 2m ∂t dove x indica la variabile spaziale (in una, due o tre dimensioni) e t la variabile temporale, ∆x è il laplaciano rispetto alle variabili spaziali e ~ = h/2π, con h costante di Planck. La ψ è la funzione d’onda, a valori complessi; separando la parte reale e quella immaginaria possiamo equivalentemente considerare due equazioni differenziali in campo reale. Se supponiamo il potenziale indipendente dal tempo, il metodo della separazione delle variabili consente di caratterizzare le eventuali soluzioni della forma − ψ(x, t) = u(x)ϕ(t). Infatti per tali soluzioni la (1.25) diventa: − ~2 (∆u(x))ϕ(t) + U (x)u(x)ϕ(t) = i~u(x)ϕ′ (t); 2m dividendo per u(x)ϕ(t) abbiamo: 1 ~2 ϕ′ (t) − ∆u(x) + U (x)u(x) = i~ . u(x) 2m ϕ(t) Deve pertanto esistere E ∈ C tale che ~2 ∆u(x) + U (x)u(x) = Eu(x) 2m E ϕ′ (t) = ϕ(t) i~ − (1.26) (1.27) La seconda equazione, a parte essere espressa in C, è della stessa forma di (1.3). Sia t0 è un punto in cui ϕ non si annulla; ricordando che, se log indica una qualunque determinazione del logaritmo d log ϕ(t) = ϕ′ (t)/ϕ(t), possiamo svolgere i medesimi differenziabile in un intorno di ϕ(t0 ) allora dt E ragionamenti utilizzati nel § 1.1. Allora localmente, e quindi globalmente, deve essere ϕ(t) = Ce i~ t , per un’opportuna costante C. Concludiamo che la famiglia delle soluzioni è data da: E ϕ(t) = ϕ(0)e i~ t , al variare del valore ϕ(0) ∈ C. Osservazione 1.7.1 Sia a = α + iβ un dato numero complesso; l’equazione ϕ′ (t) = aϕ(t) (fra cui rientra la (1.27)) dà luogo a un sistema differenziale lineare considerando separatamente la parte reale e la parte immaginaria di ϕ. Infatti, posto ϕ(t) = u(t) + iv(t), l’uguaglianza ϕ′ (t) = aϕ(t) diventa: ′ u = αu − βv v ′ = βu + αv , che è della stessa forma di (1.19)) (qui ora b = 0). L’equazione soddisfatta da u nel caso monodimensionale, cioè − ~2 ′′ u (x) + U (x)u(x) = Eu(x) 2m (1.28) è detta equazione di Schrödinger degli stati stazionari ed è una equazione lineare del secondo ordine a coefficienti, in generale, non costanti. La variabilità dei coefficienti rende la studio di questo 14 Chapter 1 - ESEMPI INTRODUTTIVI tipo di equazioni completamente diverso dallo studio delle equazioni a coefficienti costanti (come l’equazione (1.12) del moto armonico o l’equazione (1.18) per i circuiti RLC). Vedremo un esempio nel Capitolo 6. Le soluzioni dipendono dal tipo di energia potenziale considerata. Le condizioni di regolarità che devono essere richieste per avere soluzioni fisicamente significative (in primis la condizione di essere a quadrato integrabile) individuano una successione ψn di funzioni e di valori En corrispondenti. Questi ultimi, che si dimostrano essere numeri reali, hanno il significato di energia totale dello stato stazionario individuato dalla corrispondente soluzione: ne risulta la quantizzazione dell’energia del sistema. Caso del potenziale armonico. Nel caso monodimensionale, se U (x) = 1 Kx2 2 eseguiamo, nella (1.28), il cambiamento di variabili: ξ = αx, u(x) = u(ξ/α) =: v(ξ), dove α= Poiché u(x) = v(αx), si ottiene l’equazione: mK 1/4 ~2 . v ′′ (ξ) + (ε − ξ 2 )v(ξ) = 0, (1.29) dove si è posto ε = 2α2 E/K. L’ulteriore cambiamento di variabile: 1 v(ξ) = H(ξ)e− 2 ξ 2 conduce (svolgere i calcoli) all’equazione di Hermite H ′′ − 2ξH ′ + (ε − 1)H = 0. (1.30) A partire da questa è possibile ricavare la famiglia dei cosiddetti polinomi di Hermite, mediante i quali rappresentare la generica soluzione dell’equazione di Schrödinger degli stati stazionari. 1.8 ELASTICHE PIANE; UN ESEMPIO DI PROBLEMI AI LIMITI In questo paragrafo accenniamo alla modellizzazione matematica delle cosiddette verghe elastiche nel caso piano. Una verga è un solido deformabile che, dal punto di vista geometrico è rappresentabile mediante una linea γ (pertanto supponiamo che la sezione sia di ampiezza trascurabile rispetto alla lunghezza), mentre dal punto di vista meccanico soddisfa opportune richieste, di seguito precisate, sugli sforzi interni che si producono in presenza di sollecitazioni. Sia ϕ : [a, b] → R3 una rappresentazione parametrica semplice e C 1 della curva γ; poniamo A = ϕ(a) e B = ϕ(b). Supponiamo che la verga AB sia in equilibrio sotto l’azione di date forze esterne. Comunque preso il punto P = ϕ(t), se immaginiamo di rimuovere il tratto P B, la parte rimanente AP non sarà più, in generale, in equilibrio. Per ripristinarne l’equilibrio dobbiamo applicare in B un sistema di forze che traduce l’azione di P B su AP : tale sistema si può ridurre ad una forza T e una coppia di momento Γ. I due vettori T e Γ caratterizzano gli sforzi interni nel punto P .10 Supporremo regolari quanto sarà necessario le due funzioni T e Γ che risultano cosı̀ 10 I concetti ora esposti trovano una loro naturale collocazione nello studio dei continui deformabili, per i quali svolge un ruolo chiave il cosiddetto tensore degli sforzi. Per una trattazione approfondita rimandiamo ai testi dedicati all’argomento (citiamo, ad esempio, [3]). 15 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE u A=O F(A) F(B) b x Figure 1.7 - Una verga elastica piana sollecitata da forze opposte applicate agli estremi. definite su [a, b]. La componente di T tangente alla curva e la componente nel piano normale sono dette rispettivamente sforzo assiale e sforzo di taglio, mentre le componenti tangente e normale di Γ si dicono momento torcente e momento flettente, rispettivamente. Particolarizziamo ora la situazione: consideriamo verghe che giacciono su un piano, diciamo xy, e sono soggette solamente a forze di questo piano applicate agli estremi: siano esse F(A) e F(B). Poiché il sistema è in equilibrio deve essere F(A) + F(B) = 0. Del resto, fissato arbitrariamente un punto P della linea, per definizione di T e Γ anche il tratto AP è in equilibrio sotto l’azione delle forze F(A) e T(P ) e del momento Γ(P ) applicato in P . Pertanto deve essere: F(A) + T(P ) = 0, (P − A) ∧ T(P ) + Γ(P ) = 0. In particolare la forza T è costante e vale la relazione: Γ(P ) = (P − A) ∧ F(A), per ogni punto P di AB. (1.31) Allora il momento Γ è in ogni punto perpendicolare al piano xy della verga, e quindi è un momento flettente: Γ = Γz k. Le condizioni di equilibrio, in particolare l’equazione (1.31), non possono esserre da sole sufficienti per determinare la configurazione di equilibrio una volta note le forze applicate: infatti deve essere nota una relazione costitutiva che specifichi il legame fra gli sforzi interni e la variazione della configurazione corrispondente. Si è rivelata modellisticamente proficua, come relazione costitutiva, l’ipotesi (risalente a Eulero) che il momento flettente è proporzionale alla variazione ∆κ della curvatura della verga. La costante di proporzionalità dipende dalla natura della verga (materiale utilizzato, dimensione della sezione trasversale, ecc.). Per tradurre analiticamente la relazione costitutiva, ci poniamo nella situazione particolare in cui la verga, in assenza di sollecitazione, sia rettilinea, disposta come l’asse x e che le forze applicate agli estremi siano (opposte e) disposte anch’esse come l’asse x. Supponiamo inoltre che la configurazione di equilibrio che si realizza con questo sistema di forze sia rappresentabile come grafico y = u(x) di una funzione u : [0, b] → R (vedi Figura 1.8). Poiché in condizioni di riposo la verga è rettilinea, la variazione di curvatura prodotta coincide con la curvatura stessa, cioè: 3/2 κ = u′′ (x) 1 + u′ (x)2 . Cosı̀ espressa la curvatura presenta segno positivo o negativo nei punti di convessità o concavità, rispettivamente; queste due situazioni corrispondono a momenti flettenti Γz k con Γz ≥ 0 o Γz ≤ 0, rispettivamente. Tenendo conto di ciò possiamo tradurre la relazione costitutiva nell’equazione: u′′ (x) Γz = K 3/2 , 1 + u′ (x)2 16 Chapter 1 - ESEMPI INTRODUTTIVI con K costante positiva. Posto F(A) = f i, con f > 0, abbiamo (P − A) ∧ F(A) = (xi + u(x)j) ∧ f i = −f u(x)k. Allora la (1.31) diventa: Ku′′ (x) cioè 1 + u′ (x)2 3/2 = −f u(x), u′′ (x) + λu(x) 1 + u′ (x)2 3/2 = 0, (1.32) con λ = f /K > 0. Questa è la cosiddetta equazione delle linee elastiche piane. L’equazione (1.32) è un’equazione del secondo ordine non lineare,poiché l’operatore differenziale a primo membro non è lineare nella derivata prima. Se la configurazione di equilibrio y = u(x) si discosta poco dalla configurazione rettilinea è però possibile trascurare il termine u′ nell’espressione della curvatura, ottenendo cosı̀ l’equazione u′′ (x) + λu(x) = 0, cioè l’equazione del moto armonico. Nelle ipotesi in cui ci siamo posti, la configurazione di equilibrio è soluzione di un problema del secondo ordine di tipo differente rispetto ai problemi ai valori iniziali per equazioni del secondo ordine di cui abbiamo incontrato un esempio in (1.15). Infatti ora cerchiamo, fra le soluzioni della (1.32), quelle che verificano le condizioni agli estremi u(0) = u(b) = 0, quindi: u′′ (x) + λu(x) 1 + u′ (x)2 3/2 = 0 , (1.33) u(0) = u(b) = 0 . Si tratta di un cosiddetto problema ai limiti per un’equazione del secondo ordine. Per questo tipo di problemi accenneremo solamente, nel paragrafo 6.1, al caso particolare dell’equazione linearizzata u′′ + λu = 0, per la quale, come vedremo, incontreremo lo stesso problema ai limiti in un contesto molto differente. 1.9 EQUAZIONI IN FORMA NORMALE. RAPPRESENTAZIONE DELLE SOLUZIONI. Molti problemi e risultati fondamentali per le equazioni differenziali presentate nei paragrafi precedenti possono essere utilmente inquadrati in una teoria generale. Cerchiamo innanzitutto di unificare, anche dal punto di vista notazionale, le equazioni incontrate fino ad ora. caso compn+1 n lesso?? Sia D un aperto di R e f : D → R una funzione continua. Definizione 1.9.1 Diciamo che una funzione x : J → Rn è soluzione dell’equazione differenziale: x′ = f (t, x) (1.34) 1 n se J è un intervallo, x ∈ C (J; R ), risulta t, x(t) ∈ D per ogni t ∈ J e x′ (t) = f t, x(t) per ogni t ∈ J. Le equazioni della forma (1.34) si dice che sono poste in forma normale. Useremo in genere la parola ‘equazione’ anche nel caso dei ‘sistemi’ di equazioni, cioè n > 1. In questa tipologia, con n = 1, rientrano palesemente le equazioni (1.1), (1.16), (1.17) precedentemente incontrate; nel caso n = 2, invece, rientrano gli esempi (1.19), (1.21) e (1.22). 17 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Il significato modellistico delle soluzioni già motiva l’opportunità di considerare come soluzioni funzioni definite su intervalli (non è ammessa una discontinuità temporale): se matematicamente una funzione è definita sull’unione di due intervalli e risolve l’equazione, intenderemo che dà luogo a due soluzioni. Questa convenzione semplificherà anche alcuni degli enunciati generali che verranno esposti nel seguito. Definizione 1.9.2 Dato (t0 , x0 ) ∈ D, diciamo soluzione del problema ai valori iniziali (o di Cauchy): ′ x = f (t, x) x(t0 ) = x0 ogni funzione x che sia una soluzione di x′ = f (t, x) in un intervallo J contenente t0 e si abbia x(t0 ) = x0 . Diremo anche che la soluzione x passa per il punto (t0 , x0 ). L’estensione al secondo ordine della forma normale (1.34) è: x′′ (t) = f (t, x(t), x′ (t)), (1.35) con f : D → Rn funzione continua su un aperto D ⊆ R2n+1 . È facile vedere che in questa tipologia rientrano le equazioni (1.12), (1.24), (1.28) o (1.30), e (1.32) precedentemente incontrate. Tuttavia le equazioni (1.35) possono essere equivalentemente trasformate in equazioni in forma normale del primo ordine, a patto di aumentare il numero delle equazioni e delle funzioni incognite. Infatti, se poniamo x′ = v, l’equazione (1.35) si trasforma nel sistema del primo ordine: ′ x =v v ′ = f (t, x, v) che possiamo anche scrivere, in forma più compatta, come: x′ = F (t, x(t)) (1.36) con x = (x, v) e F (t, x) = (v, f (t, x, v)). È facile vedere la generalizzazione a equazioni differenziali di ordine n del tipo: x(n) = f t, x(t), x′ (t), x′′ (t), . . . , x(n−1) (t) , (1.37) dette in forma normale. Anche per esse possiamo ricondurci allo studio di un’equazione del primo ordine; ponendo x0 = x, x1 = x′ , x2 = x′′ , . . . , xn−1 = x(n−1) ; otteniamo, equivalentemente ′ x0 = x1 x′1 = x2 ... x′ = xn−1 ′n−2 xn−1 = f t, x0 , x1 , x2 , . . . , xn−1 . Questo sistema è della forma (1.34). Per l’equazione (1.37) il problema ai valori iniziali: x(n) = f t, x(t), x′ (t), x′′ (t), . . . , x(n−1) (t) , 18 x(t0 ) = y0 , x′ (t0 ) = y1 , x′′ (t0 ) = y2 , . . . , xn−1 (t0 ) = yn−1 , Chapter 1 - ESEMPI INTRODUTTIVI y pendenza=f (t,y(t)) (t,y(t)) t t Figure 1.8 - La condizione che la funzione (scalare) y sia soluzione dell’equazione y ′ = f (t, y) si traduce geometricamente nella condizione che il grafico di y abbia in ogni punto come pendenza proprio il valore di f in quel punto. con y0 , y1 , y2 , . . . , yn−1 assegnati, si traduce nel problema ai valori iniziali per il sistema equivalente del primo ordine con i dati: x0 (t0 ) = y0 , x1 (t0 ) = y1 , x2 (t0 ) = y2 , . . . , xn−1 (t0 ) = yn−1 , secondo la Definizione 1.9.2. Pertanto, possiamo affermare che la teoria dei sistemi di equazioni differenziali ordinarie (cioè la cui incognita dipende da una sola variabile) in forma normale conserva tutta la sua generalità anche se ci si limita a considerare sistemi del primo ordine. Nel capitolo successivo svilupperemo gli elementi di base della teoria delle equazioni differenziali del primo ordine che possono essere poste in forma normale: per esse è infatti possibile sviluppare un soddisfacente quadro generale. La teoria per le equazioni della forma generale F t, x(t), x′ (t), x′′ (t), . . . , x(n−1) (t), x(n) (t) = 0 è invece fortemente dipendente dalla tipologia della funzione F . ∼·∼·∼·∼·∼·∼·∼ Nel caso scalare (n = 1) la richiesta che una funzione y : J → R di classe C 1 sia soluzione dell’equazione y ′ = f (t, y) si traduce nella condizione che il suo grafico sia contenuto in D (dominio di f ) e in ogni suo punto (t, y(t)) la retta tangente abbia pendenza f (t, y(t)) (Figura 1.9). Un discorso analogo, anche se di minor efficacia dal punto di vista grafico, può essere svolto nel caso generale n ≥ 1 relativamente alle tangenti alla curva t 7→ (t, y(t)) nello spazio delle coordinate ty. Particolarmente importante, anche dal punto di vista grafico, è la situazione in cui la funzione f non dipende dalla variabile t (nella notazione della (1.34)). Sia Ω un sottoinsieme aperto di Rn e f : Ω → Rn continua; l’equazione (sistema di equazioni): y ′ = f (y) è detta autonoma. Gli esempi precedentemente visti rientrano tutti in questa categoria (a parte i casi generali esposti nei § 1.1 e § 1.5, in cui i tassi di variazione dipendono dal tempo). Per equazioni di 19 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE γy y(·) y(t0 ) f (y(t0 )) J Figure 1.9 - Rappresentazione grafica di una soluzione: γy è il luogo descritto dal punto y(t) al variare di t ∈ J. ordine superiore si utlizza il termine autonomo nel caso in cui tale sia il sistema equivalente del primo ordine. Cosı̀, è autonoma l’equazione (1.24) del pendolo semplice o la (1.32) delle linee elastiche; mentre non è di tipo autonomo l’equazione (1.28): infatti i coefficienti dell’equazione dipendono da x, per cui il sistema equivalente (ponendo y0 = u) ′ y0 = y1 2m y1′ = (U (x) − E)y0 ~2 non è di tipo autonomo (a meno che il potenziale non sia costante). L’insieme Ω è lo spazio degli stati: se y(·) è una soluzione, il valore y(t) rappresenta lo ‘stato’ del ‘sistema’ (fisico, naturale, . . . ) all’istante di tempo t: la consistenza della popolazione che evolve secondo la (1.3) o la (1.5), la carica o l’intensità di corrente nei circuiti di cui alle (1.16) o (1.17), il valore della coppia i = (i1 , i2 ) nel caso dei circuiti accoppiati in (1.19), il valore della coppia preda-predatore nelle equazioni (1.20) di Lotka-Volterra, ecc. Per le equazioni del secondo ordine, come la (1.12) (oscillatore armonico), in cui la grandezza è la posizione di un punto (o di un sistema di punti), lo spazio degli stati per il sistema equivalente del primo ordine diventa lo spazio delle coppie posizione-velocità (e si parla anche di spazio delle fasi). Le soluzioni danno luogo a curve in Ω che sono tangenti al campo f in ciascun punto (vedi Figura 1.9). La conoscenza del campo vettoriale f (indipendente dal ‘tempo’) permette cosı̀ di ricavare informazioni sulle ‘traiettorie’ del punto y(t). Ad esempio, in Figura 1.10 è rapresentato il campo vettoriale relativo all’equazione (1.20) o (1.21): si intuisce che le curve-soluzione “ruotano attorno al punto di equilibrio” (x1 0 , x2 0 ) = (γ/δ, α/β). La Figura 1.11 è invece relativa all’equazione (1.22) nel caso in cui il “punto di equilibrio” (x1 0 , x2 0 ) corrispondente alla soluzione costante che annulla il secondo membro dell’equazione sia in R+ × R+ . Si intuisce un movimento a spirale verso (x1 0 , x2 0 ). Rimandiamo al § 2.6 per alcuni concetti di base sui sistemi automoni. 20 Chapter 1 - ESEMPI INTRODUTTIVI x2 1.8 1.6 1.4 1.2 1 0.8 0.6 0.4 0.2 0 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 x1 Figure 1.10 - Campo f per il sistema (1.20) (nel caso α = β = γ = δ = 1). Qui il punto di equilibrio (x10 , x20 ) è (1, 1). x2 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 x1 Figure 1.11 - Campo f per il sistema (1.22) (nel caso α = β = γ = δ = µ = 1 e λ = 1/2). Qui il punto di equilibrio (x10 , x20 ) è (4/3, 1/3). 21 Chapter 2 PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE In questo capitolo esponiamo i risultati di base relativi alle soluzioni dei sistemi di equazioni differenziali del primo ordine in forma normale. Un ruolo chiave è svolto dallo studio del problema ai valori iniziali: dopo averne illustrato i classici risultati di esistenza e unicità viene affrontata l’indagine dell’ampiezza dell’intervallo su cui possiamo garantire l’esistenza di una soluzione. Il contesto fornisce l’occasione per presentare due risultati (Lemma di Gronwall e disuguaglianze differenziali) che forniscono strumenti di stima per le soluzioni di un’equazione differenziale, spesso utili anche nel problema della deteminazione del più ampio intervallo di esistenza delle soluzioni. Un altro aspetto che verrà preso in considerazione, e la cui rilevanza è messa bene in luce dagli esempi del capitolo precedente, riguarda l’analisi della dipendenza delle soluzioni dai vari dati del problema: è infatti essenziale, per l’utilizzo di un modello matematico. che al variare dei parametri che intervengono nell’equazione (spesso noti a meno di un’approssimazione sperimentale) la corrispondente soluzione vari almeno con continuità. Il capitolo si chiude con l’esposizione dei concetti chiave che verranno utilizzati nel seguito riguardo all’importante classe dei sistemi autonomi. 2.1 RISULTATI DI ESISTENZA ED UNICITÀ Sia D un aperto di Rn+1 e f : D → R una funzione continua. Ci occupiamo dell’esistenza di soluzioni per l’equazione x′ = f (t, x) (2.1) con i valori iniziali x(t0 ) = x0 , dove (t0 , x0 ) è un dato punto di D. Stiamo pertanto considerando il problema ai valori iniziali, o problema di Cauchy, ′ x = f (t, x) (P ) x(t0 ) = x0 . Ricordiamo che come soluzione consideriamo una funzione definita su un intervallo (vedi § 1.9). Premettiamo una caratterizzazione integrale delle soluzioni del problema (P ). Lemma 2.1.1 Sia x una funzione continua su un intervallo J e tale che t, x(t) ∈ D per ogni t ∈ J. Sia (t0 , x0 ) ∈ D. Allora le seguenti condizioni sono equivalenti: a) x è soluzione di (P ); 23 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE b) x(t) = x0 + Z t t0 f s, x(s) ds per ogni t ∈ J. Dimostrazione. Una semplice applicazione del teorema fondamentale del calcolo integrale. Nel seguito considereremo, per la funzione f , la cosiddetta condizione di lipschitzianità nella seconda variabile, uniformemente rispetto alla prima, su un insieme E ⊆ D, condizione che si traduce nella richiesta che esista una costante LE > 0 per la quale |f (t, x1 ) − f (t, x2 )| ≤ LE |x1 − x2 | comunque presi (t, x1 ), (t, x2 ) ∈ E. Nel caso in cui questa condizione sia richiesta per ogni compatto K di D parleremo di lipschitzianità locale di f su D (nella seconda variabile, uniformemente rispetto alla prima). Proposizione 2.1.2 Ogni funzione f ∈ C 1 (D; Rk ), con G sottoinsieme aperto di Rm , è lipschitziana su ciascun sottoinsieme compatto di G. Dimostrazione. Sia K ⊆ G compatto. Se f non fosse lipschitziana, per ogni j ∈ N esisterebbero x1j , x2j ∈ K tali che K |f (x1j ) − f (x2j )| > j|x1j − x2j | . (2.2) Poiché K è compatto possiamo supporre (a meno di passare a sottosuccessioni) che (x1j )j e (x2j )j siano convergenti. Dal momento che 2 max |f | −→ 0 , j→+∞ j K |x1j − x2j | ≤ il limite delle due successioni è uno stesso punto x ∈ K. Sia r > 0 tale che Br (x) ⊆ G; per j sufficientemente grande risulta x1j , x2j ∈ Br (x). Possiamo allora definire la funzione ϕ : [0, 1] → Rk ϕ(t) = f x1j + t(x2j − x1j ) . Risulta: f (x2j ) = ϕ(1) = ϕ(0) + = f (x1j ) + Z 0 1 Z 1 ϕ′ (s) ds 0 Df x1j + t(x2j − x1j ) · (x2j − x1j ) ds ; quindi |f (x2j ) − f (x1j )| ≤ max |f | |x2j − x1j |. B r (x) Ciò contraddice (2.2). Mediante il teorema del valor medio non è difficile vedere come la condizione f ∈ C 1 (D) assicuri la condizione di lipschitzianità locale nell’ipotesi che D sia convesso. In realtà si può dimostrare come sia sufficiente che D sia un aperto connesso. Siano ora a, b > 0 tali che il “rettangolo” R = [t0 − a, t0 + a] × B b (x0 ) 24 Chapter 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE x R D (t0 ,x0 ) x0 t0 t sia contenuto in D (con B b (x0 ) intendiamo la chiusura della palla di centro x0 e raggio b). Teorema 2.1.3 (Esistenza e unicità) (Picard-Lindelöf) Supponiamo che la funzione f (t, y) su R sia lipschitziana in x uniformemente rispetto a t. Allora: a) il problema (P ) ammette soluzione nell’intervallo [t0 − α, t0 + α], dove α = min a, essendo M una limitazione per |f (t, x)| su R. b , M b) esiste al più una soluzione del problema (P ), nel senso che se x1 , x2 sono due soluzioni di (P ) in un intorno I (destro o sinistro) di t0 contenuto in [t0 − α, t0 + α], allora x1 = x2 in I. Dimostrazione. a) (Esistenza) In base al lemma precedente ricerchiamo una funzione x continua in I = [t0 − α, t0 + α] il cui grafico sia contenuto in D e tale che x(t) = x0 + Z t t0 f s, x(s) ds per ogni t ∈ I. (2.3) Osserviamo che, data una funzione x ∈ C 0 (I), se il suo grafico è contenuto in R, allora la funzione T x : t 7→ x0 + Z t t0 f s, x(s) ds è definita in I e ha anch’essa il grafico in R. Infatti, per ogni t ∈ I Z t (T x)(t) − x0 ≤ f s, x(s) ds ≤ M |t − t0 | ≤ b. t0 25 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Allora T : C 0 I; B b (x0 ) → C 0 I; B b (x0 ) . Definiamo ora, per ricorrenza, la seguente successione di funzioni: x0 ≡ x0 x1 = T x0 x2 = T x1 ... xn+1 = T xn ... Dimostriamo che (xn ) converge uniformemente in I ad una funzione continua x. Risulta: |x1 (t) − x0 (t)| ≤ Z t t0 f (s, x0 ) ds ≤ M |t − t0 |; mediante questa stimiamo analogamente |x2 (t)−x1 (t)|, tenendo conto della lipschitzianità di f nella seconda variabile: Z t |x2 (t) − x1 (t)| ≤ f (s, x1 (s)) − f (s, x0 (s) ds t0 Z t ≤L |x1 (s) − x0 (s)| ds t0 Z t ≤ M L |s − t0 | ds t0 (L è una costante di Lipschitz di f su R), da cui |x2 (t) − x1 (t)| ≤ 1 M L|t − t0 |2 . 2 Un semplice ragionamento per induzione porta a: |xn+1 (t) − xn (t)| ≤ 1 M Ln |t − t0 |n+1 . (n + 1)! (2.4) Allora per ogni j ∈ N |xn+j (t) − xn (t)| ≤ |xn+j (t) − xn+j−1 (t)| + |xn+j−1 (t) − xn+j−2 (t)| + . . . ≤ M L ∞ X k=n+1 . . . + |xn+1 (t) − xn (t)| (αL)k → 0 per k → ∞. k! Pertanto: max |xn+j (t) − xn (t)| → 0 per n → ∞ e per ogni j. t∈I Per il criterio di Cauchy per la convergenza uniforme la successione (xn ) converge uniformemente in I e la funzione limite x è ivi continua. 26 Chapter 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE Dalla definizione di (xn ) abbiamo xn+1 = x0 + Z t t0 f s, xn (s) ds; La convergenza uniforme di xn a x in I assicura che f (·, xn (·)) converge uniformemente in I alla funzione f (·, x(·)), per cui possiamo passare al limite sotto il segno di integrale, ottenendo: x = x0 + Z t t0 f s, x(s) ds. Per il Lemma 2.1.1 la funzione x è soluzione del problema (P ). b) (Unicità) Sia ora z una qualunque soluzione del problema (P ) in un intorno destro [t0 , t0 + δ] di t0 . Allora per ogni t ∈ [t0 , t0 + δ] z(t) = x0 + Z t t0 Quindi f s, z(s) ds. |z(t) − x0 (t)| ≤ M1 (t − t0 ), dove M1 è una limitazione del modulo di |f | su un compatto contenente il grafico di z . Detta [t0 ,t0 +δ] L1 una costante di Lipschitz per f su un compatto contenente z e R, se procediamo in modo [t0 ,t0 +δ] analogo a quanto fatto per stimare |yn+1 − yn |, abbiamo poi: |z(t) − x1 (t)| ≤ Z t t0 ≤ L1 Z f (s, z(s)) − f (s, x0 (s) ds t t0 ≤ M1 L1 |z(s) − x0 (s)| ds Z t t0 |s − t0 | ds = 1 M1 L1 (t − t0 )2 . 2 Iterando il procedimento otteniamo cosı̀ |z(t) − xn (t)| ≤ 1 M1 Ln1 (t − t0 )n+1 (n + 1)! per ogni t ∈ [t0 , t0 + δ]. Al tendere di n all’infinito risulta x(t) = z(t). Il teorema precedente può essere sostanzialmente riformulato come segue: Teorema 2.1.4 Sia f localmente lipschitziana su D in x uniformemente rispetto a t. Allora il problema (P ) ammette, in un opportuno intorno di t0 , una e una sola soluzione. Osservazione 2.1.5 [Unicità locale e globale] L’unicità di cui al teorema precedente è locale, nel senso che è ristretta alla considerazione dell’intorno [t0 − α, t0 + α]. A partire da ciò si può tuttavia ottenere facilmente un risultato di unicità globale. Più precisamente, dimostriamo che se y1 , y2 sono due soluzioni del problema (P ) negli intervalli J1 e J2 rispettivamente, allora y1 e y2 coincidono su J := J1 ∩ J2 , e quindi è individuata un’“unica soluzione” su tutto l’intervallo J1 ∪ J2 . Poniamo t = sup{t ∈ J : t ≥ t0 , y1 = y2 in [t0 , t]} 27 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE x t2 /4 (t − c)2 /4 c t Figure 2.1 - (per t ≤ t0 si procede in modo analogo). Se t = sup J non vi è nulla da dimostrare. Altrimenti y1 e y2 sarebbero definite in un intorno destro di t e coinciderebbero in t; per l’unicità asserita nel Teorema 2.1.3 (applicato con t in luogo di t0 ) si avrebbe y1 = y2 in un intorno destro di t, contro la definizione di t. In modo differente l’unicità globale delle soluzioni può essere enunciata dicendo che due soluzioni dell’equazione x′ = f (t, x) o hanno grafici disgiunti o coincidono. Ai fini dell’esistenza di una soluzione del problema (P ) la lipschitzianità di f non è necessaria. Vale infatti il seguente risultato. Teorema 2.1.6 (Peano) Sia R come sopra. Allora: il problema (P ) ammette soluzione nell’intervallo [t0 − α, t0 + α], dove ` b ´ , α = min a, M essendo M una limitazione per |f (t, y)| su R. In assenza della condizione di lipschitzianità può venire a mancare l’unicità. Si pensi al caso: f (x) = p |x|. Il problema (P ) con (t0 , x0 ) = (0, 0) ha come soluzioni, oltre la funzione nulla, tutte quelle della forma (vedi Figura 2.1): 1 (t − c)2 se t ≥ c ≥ 0 (2.5) x(t) = 4 0 se t ≤ c. Corollario 2.1.7 Se K ⊆ D è compatto, esiste α > 0 tale che per ogni (t0 , x0 ) ∈ K il problema (P ) ha una soluzione definita nell’intervallo [t0 − α, t0 + α]. 28 Chapter 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE Dimostrazione. Basta osservare che il Teorema di Peano può essere applicato, per ogni (t0 , x0 ) ∈ K, con a e b dipendenti soltanto da dist(K, ∂D) > 0. Esercizi 1. In connessione con il fatto che una funzione differenziabile soluzione di (2.1) è automaticamente C 1 : dare un esempio di funzione differenziabile, ma non C 1 . 2. Dimostrare il Lemma 2.1.1. 3. Teorema della funzione implicita. Sia D un sottoinsieme aperto di Rn+1 e F : D → Rn una funzione di classe C 1 ; sia (t0 , x0 ) un punto di D. Si abbia: F (t0 , x0 ) = 0; la matrice jacobiana Dx F (t0 , x0 ) sia non singolare. Dimostrare che esistono due aperti I e J tali che (t0 , x0 ) ∈ I × J ⊆ D ed esiste una funzione x : I → J di classe C 1 tale che ` ´ x(t0 ) = x0 ; F t, x(t) = 0 per ogni t ∈ I. 4. Individuare in quali intervalli le seguenti funzioni sono lipschitziane: a) xn (n ∈ Z), b) log x, c) sin x. 5. a) Verificare che comunque dati a, b, c, d ∈ R risulta: |a ∧ b − c ∧ d| ≤ max |a − c|, |b − d|). b) Siano f, g funzioni reali definite su un intervallo I. Verificare che se f e g sono lipschitziane allora tale è anche f ∧ g. 2.2 PROLUNGAMENTO DELLE SOLUZIONI Come risulta evidente dall’esempio x′ = f (t, x) con f (t, x) = x2 (vedi esercizi alla fine del paragrafo), anche se la funzione f è ovunque definita e regolare non è detto che le soluzioni della corrispondente equazione siano definite su tutto R. Vediamo ora alcuni risultati sulla prolungabilità delle soluzioni. Sia D aperto di Rn+1 e f : D → Rn continua. Data una soluzione x : J → Rn di (2.1), chiamiamo prolungamento di x ogni soluzione x̂ che sia definita su un intervallo Jˆ strettamente contenente J. Se x non ammette prolungamenti allora diciamo che è definita su un intervallo massimale di esistenza. (Si pensi, ad esempio, alle soluzioni dell’equazione x′ = x2 ). Prima di enunciare il principale risultato sulla prolungabilità delle soluzioni conviene svolgere due semplici osservazioni, la cui dimostrazione è lasciata per esercizio. 29 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Osservazione 2.2.1 Se x è soluzione di (2.1) in (a, b) ed esiste finito lim x(t) = l, t→b− con (b, l) ∈ D, allora x può essere estesa in modo C 1 in (a, b] e x′ (b) = f (b, x(b)), cioè x è soluzione di (2.1) in (a, b]. (Si utilizzi il teorema del valor medio). Teorema 2.2.2 (prolungamento massimale) Sia D aperto di Rn+1 e f : D → Rn continua. Ogni soluzione x di (2.1) ammette un prolungamento ad un intervallo massimale di esistenza (ω− , ω+ ). Inoltre (t, x(t)) “abbandona definitivamente” ogni compatto di D per t → ω± , cioè comunque preso K compatto contenuto in D, esiste un intorno U di ω+ [e, analogamente, di ω− ] tale che (t, x(t)) ∈ /K per t ∈ (ω− , ω+ ) ∩ U . Scriveremo sinteticamente questa proprietà come: (t, x(t)) → ∂D per t → ω± (2.6) Osservazione 2.2.3 In assenza di ipotesi di unicità per le soluzioni dei problemi dipCauchy il prolungamento massimale non è necessariamente unico. Si pensi all’equazione y ′ = |y| e alle soluzioni (2.5), tutte definite su intervalli massimali e coincidenti su (−∞, c]. Dimostrazione (del Teorema 2.2.2). Sia x : J → Rn soluzione di (2.1). Occupiamoci del prolungamento a destra. Sia a un punto di J e b = sup J. Se J è massimale allora deve essere b ∈ / J: infatti, in caso contrario, il problema di Cauchy con dato iniziale x(b) in b permetterebbe di estendere l’intervallo di esistenza, che pertanto non sarebbe massimale. Quindi se J è massimale (destro) allora è aperto a destra. Se J non è un intervallo massimale (destro) allora possiamo supporre che x sia prolungabile almeno in b. Pertanto è lecito assumere che x : [a, b] → Rn . Passo 1. Sia K un qualunque compatto contenuto in D e contenente il grafico di x. In base al Corollario 2.1.7 esiste αK > 0 tale che il problema ai valori iniziali ′ z = f (t, z) z(t0 ) = z0 ha soluzione nell’intervallo [t0 − αK , t0 + αK ] comunque preso (t0 , z0 ) ∈ K. Scegliendo (t0 , z0 ) = (b, x(b)) possiamo prolungare x fino a b + αK ; se (b + αK , x(b + αK )) ∈ K possiamo ulteriormente prolungare x fino a b + 2αK . Ripetendo il ragionamento un numero finito di volte si ottiene bK tale che (bK , x(bK )) ∈ / K. Passo 2. Sia (Vn ) una successione crescente di aperti di D a chiusura compatta in D: Vn ⊆ Vn+1 ⊂⊂ D. S Supponiamo inoltre che V1 contenga il grafico di x e che Vn esaurisca D: [ (t, x(t)) ∈ V1 per ogni t ∈ [a, b]; Vn = D. Sia bn = bV n il valore costruito al passo precedente per K = V n . Possiamo supporre che 30 Chapter 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE • (bn ) sia non decrescente; • (bn ) sia limitata superiormente (altrimenti si avrebbe un prolungamento ad [a, +∞), che è già massimale). Allora (bn ) converge ad un valore reale ω+ cosı̀ che abbiamo ottenuto un prolungamento ad [a, ω+ ). Mostriamo che tale prolungamento è massimale (destro). Se infatti cosı̀ non fosse x sarebbe prolungabile in ω+ , quindi per continuità si avrebbe: (bn , x(bn )) → (ω+ , x(ω+ )) ∈ D; del resto, fissato N ∈ N, risulta: (bn , x(bn )) ∈ / V n ⊇ VN per ogni n ≥ N ; quindi (bn , x(bn )) ∈ / VN per ogni n ≥ N, da cui (ω+ , x(ω+ )) ∈ / VN . Per l’arbitrarietà di N ∈ N concludiamo che [ (ω+ , x(ω+ )) ∈ / VN = D : assurdo. N Per ora abbiamo dimostrato che è sempre possibile estendere x ad un intervallo massimale destro e che tale intervallo è aperto a destra. Passo 3. Rimane da dimostrare che (t, x(t)) → ∂D per t → ω+ . Se ω+ = +∞ non c’è nulla da dimostrare; sia pertanto ω+ < +∞. Per assurdo supponiamo che esista K compatto di D e una successione tk → ω+ tali che: (tk , x(tk )) ∈ K. Assumiamo (tk ) strettamente crescente. Per la compattezza di K possiamo anche supporre che (tk , x(tk )) → (ω+ , x) ∈ K. Passo fondamentale è ora dimostrare che non si ha solo x(tk ) → x, ma lim x(t) = x. (2.7) t→ω+ Dobbiamo pertanto escludere la possibile non esistenza del limite di x per t → ω+ (vedi Figura 2.2). Sia B una palla chiusa di centro (ω+, x) e tutta contenuta in D. Possiamo supporre che (tk, x(tk )) ∈ B per ogni k. Sia M = maxB |f |. Se sapessimo che (s, x(s)) ∈ B per ogni s in un intorno di ω+ allora per k sufficientemente grande e τ ≥ tk : Z τ |f (s, x(s))| ds ≤ M (τ − tk ) |x(τ ) − x(tk )| ≤ tk ≤ M (ω+ − tk ) → 0 per k → +∞; di conseguenza se ne dedurrebbe facilmente la (2.7): infatti, se k soddisfa la disuguaglianza ora ottenuta, per ogni τ ≥ tk abbiamo: |x(τ ) − x| ≤ |x(τ ) − x(tk )| + |x(tk ) − x| ≤ M |ω+ − tk | + |x(tk ) − y| → 0 (2.8) 31 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE y D K tk ω+ t y(·) Figure 2.2 - La negazione che x(t) → ∂D per t → ω+ porta ad un assurdo (vedi Passo 3 della dimostrazione del Teorema 2.2.2). Consideriamo pertanto l’insieme dei valori τ per i quali vale la disuguaglianza |x(τ ) − x(tk )| ≤ M (ω+ − tk ) o, più precisamente, per ogni k consideriamo ωk = sup{t ∈ [tk , ω+ ) : |x(τ ) − x(tk )| ≤ M (ω+ − tk ) per ogni τ ∈ [tk , t]}. Mostriamo che ωk = ω+ per k sufficientemente grande. Osserviamo i seguenti due fatti: • Per ogni t ∈ [tk , ωk ) è lecito applicare la disuguaglianza (2.8). Quindi possiamo affermare che (t, x(t)) ∈ B per ogni t ∈ [tk , ωk ) per k sufficientemente grande. (2.9) • Per ogni k per il quale sussiste (2.9) e ωk < ω+ (quindi, in particolare, risulta definito x(ωk )) abbiamo: Z ωk |f (s, x(s))| ds ≤ M (ωk − tk ) < M (ω+ − tk ). |x(ωk ) − x(tk )| ≤ tk Pertanto esiste ε tale che per ogni ε < ε |x(ωk + ε) − x(tk )| < M (ω+ − tk ); ciò è assurdo in base alla definizione di ωk . Abbiamo quindi dimostrato che per tutti i k per i quali vale la (2.9) deve essere ωk = ω+ . Di conseguenza da (2.8) ricaviamo la (2.7). Dall’esistenza del limite (2.7) concludiamo che x è prolungabile in ω+ (si ricordi l’Osservazione 2.2.1): assurdo poiché al passo precedente si era dimostrato che [a, ω+ ) è massimale destro. Alcune conseguenze: condizioni per l’esistenza globale. Supponiamo che D sia della forma I × Ω, con I intervallo aperto e Ω aperto di Rn . Sia x : J → Rn una soluzione di (2.1); supponiamo che J sia un intervallo massimale di esistenza. • Se esiste un compatto Y di Ω per il quale x(t) ∈ Y 32 per ogni t ∈ J, Chapter 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE x(t0 ) + M |t − t0 | t0 t Figure 2.3 - allora deve essere J = I: si ha cioè esistenza globale. Infatti x(t), che rimane confinato in Y , non può raggiungere ∂Ω, per cui l’unico modo di soddisfare la condizione (2.6) è che J = I. • Sia Ω = Rn . Se f è limitata allora J = I (esistenza globale). Infatti, fissato t0 ∈ I, per ogni t ∈ I si ha: Z t |x(t) − x(t0 )| ≤ f (s, x(s)) ds ≤ M |t − t0 |. (2.10) t0 Ancora, la condizione (2.6) dà J = I 11 (vedi Figura 2.3). Definizione 2.2.4 In ipotesi di unicità per i problemi di Cauchy (P ) indicheremo con y(·, t0 , y0 ) l’unica soluzione del problema, definita nel suo intervallo massimale di definizione. Se D è una striscia della forma I × Rn con I ⊆ R intervallo aperto, il fatto che x(·, t0 , x0 ) sia definita in tutto I comunque preso (t0 , y0 ) ∈ D viene spesso espresso dicendo che vi è esistenza globale per l’equazione x′ = f (t, x). Esercizi 6. Si valuti la massima ampiezza garantita dal Teorema 2.1.3 per l’intervallo di definizione della soluzione del problema di Cauchy: ′ x = x2 x(0) = x0 . 11 ci si può anche ricondurre al caso precedente, poiché la stima (2.10) assicura che su ogni compatto di I la x rimane in un compatto di Ω = Rn . 33 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE 7. Si dimostri quanto affermato nell’Osservazione 2.2.1. 8. Sia D aperto di Rn+1 e f : D → Rn continua. Siano x1 e x2 soluzioni dell’equazione (2.1) negli intervalli (a, b] e [b, c), rispettivamente. Dimostrare che se x1 (b) = x2 (b) allora la funzione x1 in (a, b], x= x2 in [b, c) è soluzione di (2.1) in (a, c). 9. Sia f come sopra. Se f è limitata in D, ogni soluzione x in un intervallo (a, b) ammette limiti finiti lim x(t) = x(a+ ) e lim x(t) = x(b− ). t→a+ t→b− − Se inoltre f è o può essere definita in (b, x(b )) in modo continuo, allora x è soluzione di (2.1) in (a, b]. Analogamente per l’estremo sinistro a. 10. Se D è della forma I × Rn con I intervallo e f è lipschitziana su tutto D nella seconda variabile, uniformemente rispetto alla prima, come può essere svolto, più rapidamente, il Passo 3 della dimostrazione del Teorema 2.2.2? 2.3 LEMMA DI GRONWALL Il Lemma di Gronwall e le disuguaglianze differenziali di cui al successivo paragrafo sono strumenti che spesso permettono di ottenere stime a priori per le soluzioni di un’equazione differenziale; queste possono dare luogo a risultati di esistenza globale in connessione con il Teorema 2.2.2. Ci sarà utile (per la dimostrazione del Lemma di Gronwall) premettere la tecnica risolutiva delle equazioni differenziali lineari del primo ordine, cioè della forma: x′ + p(t)x = q(t), (2.11) dove p, q sono funzioni continue su un intervallo I. Sia y : J → R una soluzione. Detta P una primitiva di p, moltiplichiamo entrambi i membri d (eP (t) x(t)). dell’equazione per eP (t) e osserviamo che cosı̀ facendo il primo membro non è altro che dt Pertanto, passando agli integrali indefiniti: Z eP (t) x(t) = eP (t) q(t) dt. Concludiamo che la famiglia delle soluzioni di (2.11) è data da: Z x(t) = e−P (t) eP (t) q(t) dt. In particolare, consideriamo il problema ′ u (t) = β(t)u(t) u(a) = α dati α ∈ R e β funzione continua su un intervallo I = [a, b]. Ricordiamo che la formulazione integrale di questo problema è: Z t u(t) = α + β(s)u(s) ds. (2.12) a 34 Chapter 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE In base a quanto precede, la soluzione è data da: u(t) = αe Rt a β(s) ds . (2.13) Il Lemma seguente risponde alla domanda: se in (2.12) vale il segno di disuguaglianza, anziché di uguaglianza, lo stesso si riflette nella (2.13)? Lemma 2.3.1 (Gronwall) Siano α ∈ R e β ∈ C 0 ([a, b]), con β ≥ 0. Sia u ∈ C 0 ([a, b]) tale che Z t u(t) ≤ α + β(s)u(s) ds per ogni t ∈ [a, b]. a Allora: u(t) ≤ αe Rt a β(s) ds per ogni t ∈ [a, b]. Dimostrazione. Poniamo R(t) = Z t β(s)u(s) ds. a Allora R′ (t) = β(t)u(t) ≤ β(t) α + R(t) . Applichiamo alla disuguaglianza R′ (t) − βR(t) ≤ αβ(t) il ragionamento utilizzato poco sopra per le equazioni differenziali lineari del primo ordine. Sia B la primitiva di β definita da: B(t) = Z t β(s) ds. a Allora, moltiplicando per e−B(t) , si ha: d −B(t) e R(t) ≤ αβ(t)e−B(t) . dt Integriamo ora fra a e t ≥ a, tenendo conto che R(a) = 0: t e−B(t) R(t) ≤ −α e−B(s) a = −α(e−B(t) − 1). Concludiamo ricavando R(t) ≤ −α+αeB(t) e sostituendo tale stima nella disuguaglianza data come ipotesi. Un’applicazione all’unicità delle soluzioni. Un’efficace dimostrazione alternativa dell’unicità globale, rispetto a quanto già visto nell’Osservazione 2.1.5, si può ottenere facilmente come applicazione del Lemma di Gronwall. Proposizione 2.3.2 Sia D aperto di Rn+1 e f : D → Rn funzione continua e localmente lipschitziana nella seconda variabile, uniformemente rispetto alla prima. Siano xi : Ji → Rn (i = 1, 2) due soluzioni dell’equazione x′ = f (t, x). Se x1 (t0 ) = x2 (t0 ) per qualche t0 ∈ J1 ∩ J2 allora x1 = x2 su J1 ∩ J2 (e quindi è individuata un’“unica soluzione”, definita su tutto J1 ∪ J2 ). 35 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Dimostrazione. Supponiamo J1 ∩ J2 6= {t0 }, altrimenti non vi è nulla da dimostrare. Prendiamo in considerazione i valori t ≥ t0 (per t ≤ t0 si procede in modo analogo). Utilizzando la caratterizzazione integrale delle soluzioni abbiamo, per t ≥ t0 : Z t |f (s, x1 (s)) − f (s, x2 (s))| ds. |x1 (t) − x2 (t)| ≤ |y1 (t0 ) − x2 (t0 )| + t0 Fissiamo arbitrariamente t > t0 in J1 ∩ J2 . Esiste K compatto di D contenente i grafici di x1,2 . [t0 ,t] Sia LK una costante di Lipschitz per f in K. Allora per ogni t ∈ [t0 , t]: |x1 (t) − x2 (t)| ≤ |y1 (t0 ) − x2 (t0 )| + LK Z t t0 |x1 (s) − x2 (s)| ds. Per il Lemma di Gronwall (con α = |y1 (t0 ) − x2 (t0 )| e β = LK ): |x1 (t) − x2 (t)| ≤ |y1 (t0 ) − x2 (t0 )|eLK t = 0, poiché y1 (t0 ) − x2 (t0 ) = 0. Notiamo come la disuguaglianza ora ottenuta dia una stima di |x1 (t) − x2 (t)| in termini dei dati iniziali e del tempo t. Possiamo quindi dire che le condizioni di lipschitzianità locale assicurano l’unicità globale. A titolo di esempio ricordiamo l’equazione della crescita logistica (1.5): x′ = rx 1 − x . K Poiché x ≡ 0 e x ≡ K sono soluzioni, il grafico di ogni soluzione con dato iniziale x0 ∈ (0, K) deve rimanenre confinato nella striscia R × (0, K), non potendo, per unicità, attraversare le costanti 0 e K. Allora il Teorema 2.2.2 dà esistenza globale su tutto R per tali soluzioni. 2.4 DISUGUAGLIANZE DIFFERENZIALI Il teorema che ora enunciamo è una formalizzazione del fatto che date due funzioni (scalari) x e u, se negli eventuali punti di intersezione dei grafici la pendenza della prima è sempre inferiore a quella della seconda, allora l’informazione che x ≤ u in un istante a permette di concludere che x ≤ u per tutti i tempi successivi t ≥ a. Teorema 2.4.1 (confronto) Sia D = I × R ⊆ R2 con I intervallo aperto. Sia ω : D → R una funzione continua e localmente lipschitziana nella seconda variabile, uniformemente rispetto alla prima. Siano x e u funzioni di classe C 1 su un intervallo J ⊆ I tali che x′ (t) ≤ ω(t, x(t)), per ogni t ∈ J. Sia a ∈ J tale che u′ (t) = ω(t, u(t)) x(a) ≤ u(a). Allora x(t) ≤ u(t) per ogni t ≥ a (t ∈ J). Questo risultato vale in realtà nelle ipotesi di unicità per l’equazione differenziale u′ = ω(t, u), indipendentemente dall’ipotesi di lipschitzianità. 36 Chapter 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE Dimostrazione. Supponiamo che in J esista t > a con x(t) > u(t). Sia t0 = sup{t ∈ [a, t] : x(t) ≤ u(t)}. Deve essere (teorema permanenza del segno) x(t0 ) = u(t0 ) e t0 < t. Inoltre: x(t) > u(t) In [t0 , t] risulta: Z x(t) = x(t0 ) + t t0 e per t0 < t ≤ t. ′ x (s) ds ≤ x(t0 ) + u(t) = u(t0 ) + Z Z t ω(s, x(s)) ds, t0 t ω(s, u(s)) ds. t0 Sottraendo questa uguaglianza alla disuguaglianza precedente si ha: x(t) − u(t) ≤ x(t0 ) − u(t0 ) + Z t t0 Se K è un compatto di D contenente i grafici di x, u K, allora: x(t) − u(t) ≤ LK Z ω(s, x(s)) − ω(s, u(s)) ds. [t0 ,t] e LK è una costante di Lipschitz per ω in t t0 |x(s) − u(s)| ds = LK Z t t0 x(s) − u(s) ds (notiamo la necessità di lavorare in un intervallo in cui x(t) − u(t) > 0). Per il Lemma di Gronwall concludiamo che (α = 0) x(t) − u(t) ≤ 0. Ciò è assurdo. Osservazione 2.4.2 Risultati analoghi a quello enunciato si ottengono invertendo opportunamente le disuguaglianze. Ad esempio, se x(a) ≥ u(a) deve essere x(t) ≥ u(t) per t ≤ a; oppure, sempre nell’ipotesi x(a) ≥ u(a), se x′ (t) ≥ ω(t, x(t)) allora x(t) ≥ u(t) per t ≥ a. Come applicazione dimostriamo l’esistenza globale per le soluzioni del sistema di Lotka-Volterra: ′ x = (α − βy)x (2.14) ′ y = (−γ + δx)y Sia x(·), y(·) : J → R2 una soluzione, con J intervallo massimale di esistenza. Come si vedrà più avanti, ed è immediatamente verificabile, poichè le equazioni sono autonome, cioè in esse non compare esplicitamente il tempo t, la soluzione del problema ai valori iniziali con dato in t0 può essere ottenuta per traslazione temporale dalla soluzione che assume lo stesso dato al tempo 0. Pertanto supponiamo 0 ∈ J e poniamo: x(0) = x0 , y(0) = y0 . È facile vedere che se y0 = 0 e x0 6= 0 allora la funzione y ≡ 0 è soluzione della seconda equazione, mentre la prima fornisce; x(t) = x0 eαt . Analogamente se x0 = 0 e y0 6= 0. 37 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Assumiamo ora (caso di interesse modellistico) che x0 > 0 e y0 > 0. Per unicità deve allora essere x > 0 e y > 0 in tutto J. Allora la prima delle due equazioni dà x′ ≤ αx; se u è la soluzione del problema di Cauchy ′ u = αu(t), u(0) = x0 , cioè u(t) = x0 eαt , per il Teorema del confronto deduciamo che x(t) ≤ x0 eαt per ogni t > 0 (t ∈ J). Di conseguenza la seconda delle due equazioni di Lotka-Volterra dà: y ′ (t) ≤ φ(t)y(t) per ogni t ∈ J, dove si è posto φ(t) = −γ + δx0 eαt . Applichiamo allora il confronto utilizzando la soluzione v del problema ′ v (t) = φ(t)v(t) v(0) = y0 . Notiamo che v è definita su tutto R (l’equazione è lineare del primo ordine, con coefficienti ovunque definiti). Risulta pertanto: y(t) ≤ v(t) per ogni t > 0 (t ∈ J). Le limitazioni cosı̀ ottenute per x(t) e y(t) assicurano, in base al Teorema 2.2.2, l’esistenza della soluzione per tutti i tempi t > 0. Un ragionamento analogo può essere svolto per dimostrare l’esistenza globale per i tempi negativi (si inizi stimando la y mediante un’esponenziale). Corollario 2.4.3 Sia D come nel Teorema 2.4.1 e f : D → R continua soddisfacente la seguente condizione: |f (t, x)| ≤ ϕ(t) + ψ(t)|x| per ogni (t, x) ∈ D, per opportune funzioni ϕ e ψ continue e non negative su I. Allora l’equazione x′ = f (t, y) ha esistenza globale. Dimostrazione. Sia x : J → R una soluzione dell’equazione x′ = f (t, x). Fissato t0 ∈ J diamo limitazioni per x(t) per t ≥ t0 . Per ipotesi: x′ (t) = f (t, x(t)) ≤ ϕ(t) + ψ(t)|x(t)|. Sia u la soluzione del problema: u′ (t) = ϕ(t) + ψ(t)|u(t)| u(t0 ) = |x(t0 )|. Notiamo che u(t) ≥ 0 per ogni t ≥ t0 poiché u(t0 ) ≥ 0 e u′ (t) ≥ 0; allora u soddisfa, per t ≥ t0 , un’equazione differenziale lineare del primo ordine, per cui risulta definita per ogni t ∈ I con t ≥ t0 . Applichiamo ora il Teorema di confronto 2.4.1 con ω(t, x) = ϕ(t) + ψ(t)|x|; dal momento che x(t0 ) ≤ u(t0 ), abbiamo: x(t) ≤ u(t) per ogni t ≥ t0 . In modo analogo, per avere una stima dal basso osserviamo che x′ (t) = f (t, x(t)) ≥ −ϕ(t) − ψ(t)|x(t)|; consideriamo poi la soluzione v del problema ′ v (t) = −ϕ(t) − ψ(t)|v(t)| v(t0 ) = −|x(t0 )|. 38 Chapter 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE La funzione v risulta non positiva per t ≥ t0 , quindi risolve un’equazione differenziale lineare del primo ordine per la quale vi è esistenza globale. Inoltre, per il Teorema del confronto risulta: x(t) ≥ v(t) per ogni t ≥ t0 . Il grafico di x è quindi confinato fra quelli di u e v, per cui abbiamo esistenza globale (Teorema 2.2.2). Osservazione 2.4.4 Il corollario ora considerato ha portata più generale, valendo in realtà anche per sistemi di equazioni (e non soltanto per incognite scalari), con il medesimo enunciato (ora D = I × Rn ). Una dimostrazione può essere ottenuta mediante il Lemma di Gronwall come segue. Sia x : J → Rn una soluzione e t0 ∈ J. Occupiamoci dei tempi t ≥ t0 . Risulta: Z t |f (s, x(s))| ds |x(t)| ≤ |x(t0 )| + ≤ |x(t0 )| + t0 t Z t0 ϕ(s) + ψ(s)|x(s)| ds Detto b l’estremo destro di I, fissiamo t ∈ (t0 , b). Dalla disuguaglianza precedente abbiamo subito: Z t |x(s)| ds, |x(t)| ≤ α + M t0 dove α = |x(t0 )| + (t − t0 ) max ϕ, [t0 ,t] M = max ψ. [t0 ,t] Per il Lemma di Gronwall |x(t)| ≤ αeM(t−t0 ) ≤ αeM(t−t0 ) per ogni t ≤ t (t ∈ J). Ne segue che la soluzione x rimane in un compatto di Rn su J ∩ [t0 , t], per cui J deve contenere [t0 , t] (si ricordi quanto detto dopo la dimostrazione del Teorema 2.2.2). Osservazione 2.4.5 Il Corollario 2.4.3, nella forma estesa di cui all’osservazione precedente, ha una notevole applicazione al caso dei sistemi lineari: x′ = A(t)x + b(t), con A matrice n × n di funzioni continue su un intervallo I e b : I → Rn continua. 2.5 DIPENDENZA DELLE SOLUZIONI DAI DATI Teorema 2.5.1 (Dipendenza continua) Sia (fn )n una successione di funzioni continue D → Rn e sia (tn , xn ) una successione di punti di D. Supponiamo esistano f 0 : D → Rn , (t0 , x0 ) ∈ D tali che i) fn → f0 uniformemente sui compatti di D; ii) (tn , xn ) → (t0 , x0 ) iii) la funzione f0 è localmente lipschitziana in D. 39 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Sia φ0 la soluzione del problema di Cauchy ′ x = f0 (t, x) x(t0 ) = x0 x(tn ) = xn . e supponiamo sia definita su un intervallo [a, b]. Sia φn una soluzione del problema x′ = fn (t, x) Allora per n sufficientemente grande φn può essere definita su [a, b] e φn → φ0 uniformemente in [a, b]. Osservazione 2.5.2 Il teorema vale in realtà nell’ipotesi che il problema che risolve φ0 abbia unicità, indipendentemente dall’ipotesi di lipschitzianità (vedi, ad esempio, [4], Lemma 3.1, pag. 24). Osservazione 2.5.3 Si notino i casi particolari in cui la successione fn o i punti (tn , xn ) non dipendano da n. Alla dimostrazione del teorema premettiamo un lemma, che precisa quanto già contenuto nel Corollario 2.1.7, mettendo in evidenza l’uniformità dell’ampiezza dell’intervallo di esistenza in presenza di una limitazione uniforme per f ; ciò vale per ogni soluzione, indipendentemente dall’ipotesi di unicità o della specifica costruzione considerata per dimostrare l’esistenza di una soluzione. Lemma 2.5.4 Sia f : D → Rn continua, K compatto e V aperto di Rn tali che K ⊆ V ⊂⊂ D. Sia M > maxV |f |. Esiste allora α > 0 dipendente soltanto da K, V e M tale che, comunque preso (t0 , x0 ) ∈ K, se x : J → Rn è una soluzione di ′ x = f (t, x) (2.15) y(t0 ) = x0 con J intervallo massimale, allora x è definita almeno in J ⊇ [t0 − α, t0 + α] e il grafico di è contenuto in V . x [t0 −α,t0 +α] Dimostrazione. Chiaramente esistono a, b > 0 dipendenti soltanto da d(K, ∂V ), tali che Ra,b (t0 , y0 ) := {(t, y) : |t − t0 | < a, |x − x0 | < b} ⊆ V. Mostriamo che se x : J → Rn è una soluzione di (2.15), con J = (ω− , ω+ ) intervallo massimale di esistenza, allora J ⊇ [t0 − α, t0 + α], con α = min a, b M (e pertanto α dipende soltanto da K, V e M ). Occupiamoci dell’intervallo [t0 , t0 + α] (analogamente si procede per il [t0 − α, t0 ]). Sia t = sup{t ∈ [t0 , ω+ ) : ∀τ ∈ [t0 , t] (τ, x(τ )) ∈ Ra,b (t0 , x0 )}. 40 Chapter 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE V K (t0 , x0 ) Ra,b (t0 , x0 ) (t0 , x0 ) Ra,b (t0 , x0 ) t t0 −a t0 +a t t0 −a t0 +a (a) t (b) Figure 2.4 - Dimostrazione del teorema di dipendenza continua Se t = ω+ allora il grafico di x in [t0 , ω+ ) sarebbe tutto contenuto in R, che è un compatto di D: ciò è assurdo. Sia pertanto t < ω+ e supponiamo, per assurdo, che t < t0 + α. Allora deve essere (vedi Figura 2.4(b)) |x(t) − x0 | = b; ma per ogni t ∈ [t0 , t] risulta (t, x(t)) ∈ Ra,b (t0 , x0 ), per cui |f (t, x(t))| ≤ M e b = |x(t) − x0 | ≤ Z t t0 |f (s, x(s))| ds ≤ M |t − t0 | < M α ≤ b. Allora deve essere t ≥ t0 + α e quindi, essendo ω+ > t, anche ω+ > t0 + α. Dimostrazione. (Teorema di dipendenza continua). Siano V e V ′ aperti di D, con ⊆ V ′ ⊂⊂ V ⊂⊂ D. graf φ0 [a,b] Per (ii) possiamo supporre (tn , xn ) ∈ V ′ per ogni n. Per (i), detto M un valore tale che maxV |f0 | < M, possiamo supporre che max |fn | < M per ogni n. V Infatti la (ii) assicura che |fn | ≤ |fn − f0 | + |f0 | ≤ max |fn − f0 | + max |f0 | → max |f0 | < M. V V V ′ Applichiamo il lemma precedente con K = V : poiché M dà una maggiorazione comune ad ogni |fn |, esiste α > 0 tale che φn è definita in [tn − α, tn + α] per ogni n è contenuto in V per ogni n. graf φn [tn −α,tn +α] A motivo della convergenza di tn a t0 [tn − α, tn + α] ⊇ [t0 − α α , t0 + ] 2 2 per n sufficientemente grande. 41 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Mostriamo ora la convergenza uniforme φn → φ0 su tutto [t0 − α/2, t0 + α/2]. Occupiamoci di [t0 , t0 + α/2] (analogamente si procede su [t0 + α/2, t0 ]). In tale intervallo abbiamo: Z t Z t f0 (s, φ0 (s)) ds fn (s, φn (s)) ds − φn (t) − φ0 (t) = xn − x0 + t0 tn t0 = xn − x0 + Z fn (s, φn (s)) ds + Z t t0 tn da cui |φn (t) − φ0 (t)| ≤ |xn − x0 | + M |t0 − tn | + + fn (s, φn (s)) − f0 (s, φ0 (s)) ds t0 +α/2 Z t0 Z t t0 |fn (s, φn (s)) − f0 (s, φn (s))| ds |f0 (s, φn (s)) − f0 (s, φ0 (s))| ds. Per la convergenza uniforme di fn a f0 in V (in cui stanno i grafici di φn ), risulta: Z t0 +α/2 |fn (s, φn (s)) − f0 (s, φn (s))| ds t0 α max |fn − f0 | := σn → 0 per n → +∞. 2 V Inoltre, per la locale lipschitzianità di f0 su V : Z t Z t |f0 (s, φn (s)) − f0 (s, φ0 (s))| ds ≤ LV |φn (s) − φ0 (s)| ds. ≤ t0 t0 Allora |φn (t) − φ0 (t)| ≤ αn + LV con Per il Lemma di Gronwall: Z t t0 |φn (s) − φ0 (s))| ds, αn = |xn − x0 | + M |tn − t0 | + σn → 0. |φn (t) − φ0 (t)| ≤ αn eLV (t−t0 ) ≤ αn eLV α/2 → 0 per n → +∞. Quindi φn → φ0 uniformemente in [t0 , t0 + α/2]. Il procedimento seguito per dimostrare che per n sufficientemente grande le funzioni φn sono definite in [t0 − α/2, t0 + α/2] e che su tale intervallo convergono uniformemente a φ0 può essere ripetuto a partire dagli estremi t0 ± α/2: l’ampiezza α è infatti indipendente dal punto iniziale considerato. Allora, con un numero finito di passi si ottiene quanto asserito. Dal Teorema precedente si può ricavare con facilità il seguente risultato. Sia F un aperto di R × Rn × Rm e f : F → Rn una funzione continua. Si considerino i problemi di Cauchy ′ x = f (t, x, λ) (2.16) x(t0 ) = x0 . Supponiamo che per ogni λ la funzione f (·, ·, λ) sia localmente lipschitziana (nella seconda variabile, uniformemente rispetto alla prima). 12 Pertanto il problema (2.16) ammette soluzione unica, che indichiamo con x(·, t0 , x0 , λ) 12 In 42 realtà, come per il Teorema di dipendenza continua, sarebbe sufficiente l’ipotesi che i problemi (2.16) abbiano unicità. Chapter 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE Sia (ω− (t0 , x0 , λ), ω+ (t0 , x0 , λ)) il suo intervallo massimale di esistenza. Teorema 2.5.5 La funzione ω− (t0 , x0 , λ) [ω+ (t0 , x0 , λ)] è semicontinua superiormente [inferiormente], l’insieme E = {(t, t0 , x0 , λ) : (t0 , x0 , λ) ∈ F, ω− (t0 , x0 , λ) < t < ω+ (t0 , x0 , λ)} è aperto e la funzione (t, t0 , x0 , λ) 7→ x(t, t0 , x0 , λ) è continua in E. La dimostrazione utilizza la continuità (uniforme) garantita dal Teorema 2.5.1 rispetto alle variabili (t0 , x0 , λ): assieme alla continuità in t si ottiene la continuità di (t, t0 , x0 , λ) 7→ x(t, t0 , x0 , λ). Il fatto che E sia aperto discende dalla semicontinuità delle funzioni ω− e ω+ (per questa dimostrazione si veda [5], Theorem 2.1 pag. 94 e [4], Capitolo 1, Theorem 3.4 e Theorem 3.1). Osservazione 2.5.6 Il teorema precedente contiene, in particolare, la seguente versione del Teo rema 2.5.1. Dati t0 , y0 e λ0 , se [a, b] è un intervallo contenuto in ω− (t0 , y0 , λ0 ), ω+ (t0 , y0 , λ0 ) , la semicontinuità di ω± assicura l’esistenza di un intorno U di (t0 , y0 , λ0 ) tale che y(·, τ, z, λ) è definita almeno in [a, b] per ogni (τ, z, λ) ∈ U ; inoltre, potendosi chiaramente supporre U chiuso, la continuità (uniforme) di y su [a, b] × U dà: lim (τ,z,λ)→(t0 ,y0 ,λ0 ) y(t, τ, z, λ) = y(t, t0 , y0 , λ0 ) uniformemente. Dipendenza continua e stabilità Consideriamo il caso in cui l’equazione differenziale x′ = f (t, x) presenti la funzione f definita su tutto R × Rn . Supponiamo inoltre di essere in ipotesi di unicità per i problemi di Cauchy ′ x = f (t, x) x(t0 ) = x0 e indichiamone con x(·, t0 , x0 ) la soluzione. Supponiamo inoltre che la funzione nulla sia soluzione. Dati comunque t0 ∈ R e T > 0 applichiamo i risultati visti sulla dipendenza continua all’intervallo [t0 , t0 +T ], al variare del dato iniziale x0 (si ricordi, in particolare, l’Osservazione 2.5.6). Esiste allora un valore δ(T ) > 0 tale che se |x0 | < δ(T ) la soluzione x(·, t0 , x0 ) è definita su tutto [t0 , t0 + T ]. Inoltre x(·, t0 , x0 ) converge uniformemente alla funzione nulla (che è la soluzione corrispondente al dato (t0 , 0)) per x0 → 0. Quindi (vedi Figura 2.5), fissato t0 : per ogni ε > 0 esiste δ(T, ε) > 0 tale che se |x0 | < δ(T, ε) allora la soluzione x(·, t0 , x0 ) è definita su tutto [t0 , t0 + T ] e |x(t, t0 , x0 )| < ε per ogni t ∈ [t0 , t0 + T ]. È istruttivo verificare questo fatto nel caso dell’equazione x′ = x2 . Sappiamo che la soluzione con dato x0 6= 0 per t0 = 0 è data da: x(t, 0, x0 ) = 1 . (1/x0 ) − t Dati ε > 0 e T > 0 abbiamo esistenza su [0, T ] se x0 < 1/T , mentre la condizione |x(t, 0, x0 )| < ε per ogni t ∈ [0, T ] è verificata se |x0 | < δ, con δ tale che (δ < 1/T e) 1 < ε, (1/δ) − T cioè δ < 1 ε 1 . +T 43 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE z (t0 , x0 ) ε x δ t t0 t0 + T Figure 2.5 - Dipendenza continua dal dato iniziale y0 Al crescere di T o al decrescere di ε l’ampiezza δ dell’intorno di 0 in cui prendere il dato iniziale per avere una soluzione vicina alla soluzione nulla a meno di ε diminuisce e tende a zero. Quindi per l’equazione x′ = x2 non è possibile generalizzare il ragionamento precedente all’intervallo [0, +∞). Si cerchi di visualizzare la situazione in un grafico. La dipendenza continua dai dati iniziali su intervalli illimitati è una proprietà molto rilevante su cui torneremo, la cosiddettà proprietà di stabilità. 2.6 SISTEMI AUTONOMI: GENERALITÀ Consideriamo un sistema autonomo di equazioni differenziali: x′ = f (x) con f : Ω → Rn continua (Ω aperto di Rn ). (2.17) Osserviamo innazitutto che: Se x : J → Ω è una soluzione, allora tale è anche ogni sua traslazione temporale xτ (t) := x(t−τ ) (per t ∈ J + τ ). Infatti: x′τ (t) = x′ (t − τ ) = f (x(t − τ )) = f (xτ (t)). Ricordiamo che, secondo la Definizione 2.2.4, se f è tale da assicurare l’unicità per i corrispondenti problemi di Cauchy, con x(·, t0 , x0 ) indichiamo la soluzione del problema di Cauchy con dato x0 in t0 , definita nel suo intervallo massimale di esistenza. Allora la proprietà ora dimostrata implica che x(t, t0 , x0 ) = x(t − t0 , 0, x0 ). (2.18) Pertanto, per i sistemi autonomi è sufficiente considerare la funzione x(t, 0, x0 ), cioè considerare, per ogni x0 ∈ Ω, la soluzione per la quale x(0) = x0 . Indichiamo con ω− (x0 ), ω+ (x0 ) il suo intervallo massimale di esistenza. 44 Chapter 2 - PROBLEMI AI VALORI INIZIALI PER SISTEMI DEL PRIMO ORDINE x2 γ x1 x(·) t Figure 2.6 - L’orbita della soluzione x(·) è la proiezione γ del grafico di x(·) sullo spazio degli stati. Definizione 2.6.1 La funzione ϕ definita da ϕ(t, x0 ) = x(t, 0, x0 ) è detta flusso (o sistema dinamico) associato all’equazione (2.17). Proposizione 2.6.2 Valgono le seguenti proprietà: a) L’insieme E = {(t, x) ∈ R × Ω : ω− (x) < t < ω+ (x)} è aperto e ϕ : E → Ω è continua. b) ϕ(0, ·) = idΩ ; c) ϕ t, ϕ(s, x) = ϕ(s + t, x). Dimostrazione. Per la prima proprietà si veda il Teorema 2.5.5, mentre la seconda è immediata per la definizione stessa di ϕ. Per la terza proprietà basta osservare che le funzioni ϕ ·, ϕ(s, x) e ϕ(s + ·, x) sono entrambe soluzioni del problema con dato iniziale ϕ(s, x), quindi coincidono. Fissato t, la funzione x 7→ ϕ(t, x) è una trasformazione biunivoca di Ω in sè: ogni stato x viene portato nel nuovo stato ϕ(t, x), che rappresenta l’evoluzione del sistema dopo che è trascorso il tempo t. Diciamo orbita di un punto p ∈ Ω l’immagine della soluzione x(·, p). Altrimenti detto, le orbite sono le proiezioni dei grafici delle soluzioni sullo spazio degli stati o delle fasi Rn . Se interpretiamo “cinematicamente” una soluzione x(·) come legge oraria del moto di un punto, l’orbita individuata da x (detta anche orbita della soluzione x) non è altro che l’insieme delle posizioni assunte. Se x0 è tale che f (x0 ) = 0 allora x(t) ≡ x0 è soluzione e {x0 } è un’orbita. Proposizione 2.6.3 In ipotesi di unicità valgono le seguenti proprietà: a) due orbite distinte non possono avere alcun punto in comune. b) se x : J → Ω è una soluzione non costante, allora è necessariamente una curva regolare, cioè x′ (t) 6= 0 per ogni t ∈ J. 45 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Dimostrazione. a) Siano γ1 e γ2 due orbite, corrispondenti alle soluzioni x1 e x2 , rispettivamente. Se fosse x1 (t1 ) = x2 (t2 ) per una coppia t1 , t2 (nei rispettivi domini), allora u(t2 ) = x2 (t2 ), con u(t) := x1 t − (t2 − t1 ) . La funzione u è soluzione, per cui u ≡ x2 e quindi le orbite devono coincidere (poiché la proiezione del grafico di u sullo spazio degli stati non è altro che γ1 , essendo u una traslata temporale di x1 ). b) Se esistesse t0 ∈ J con x′ (t0 ) = 0 allora dovrebbe essere 0 = x′ (t0 ) = f (x(t0 )), quindi x0 := x(t0 ) sarebbe tale che f (x0 ) = 0: l’orbita di x e quella della soluzione costante con valore x0 dovrebbero coincidere perché presentano un punto in comune. Nello studio delle orbite del sistema (2.17), le particolari rappresentazioni parametriche fornite dalle soluzioni del sistema stesso perdono la loro centralità. Infatti, dal punto di vista della geometria delle orbite, non è rilevante la velocità con cui sono percorse (il che è specificato dalla rischiesta che x′ (t) = f (x(t))); cosı̀, se γ è l’orbita individuata dalla soluzione x : (a, b) → Ω, è naturale considerare la classe delle rappresentazioni parametriche di γ equivalenti a x (le riparametrizzazioni di x), cioè la classe delle funzioni u per le quali esiste una funzione ϕ : (α, β) → (a, b) di classe C 1 , invertibile con inversa C 1 , per la quale: u = x ◦ ϕ. Risulta u′ = λf (u), con λ = ϕ′ . La funzione λ è continua e mai nulla, per cui l’uguaglianza u′ = λf (u) traduce il parallelismo fra il vettore tangente u′ e il campo assegnato f . Inoltre caratterizza le riparametrizzazioni delle soluzioni di (2.17). Più precisamente vale il seguente risultato: Proposizione 2.6.4 Si consideri il problema u′ //f (u) (2.19) cioè il problema della determinazione delle funzioni u : J → Ω, con J intervallo di R, di classe C 1 per le quali esiste λ ∈ C 0 (J) mai nulla e tale che u′ = λf (u). Le soluzioni di (2.19) sono tutte e sole le riparametrizzazioni delle soluzioni di (2.17). Dimostrazione. Già abbiamo visto che se u è una riparametrizzazione di una soluzione allora u′ = λf (u) per un’opportuna λ continua e mai nulla. Viceversa, sia ϕ una primitiva di λ. Allora ϕ è invertibile, con inversa C 1 , e si controlla immediatamente che x = u ◦ ϕ−1 è una soluzione di (2.17). Il problema (2.19) viene anche espresso mediante la scrittura seguente (dove utilizziamo la variabile x in luogo della u): dx2 dxn dx1 = = ... = . (2.20) f1 (x) f2 (x) fn (x) 46 Chapter 3 TECNICHE ELEMENTARI DI INTEGRAZIONE 3.1 EQUAZIONI A VARIABILI SEPARABILI Si tratta di equazioni della forma x′ = g(t)h(x) g ∈ C 0 (I1 ), h ∈ C 0 (I2 ), (3.1) con I1 e I2 intervalli. Osserviamo subito che le funzioni costanti che assumono uno degli eventuali zeri di h sono soluzioni dell’equazione differenziale. Sia ora x una soluzione di (3.1), su un intervallo J in cui t 7→ h(x(t)) è non nulla, risulta: 1 x′ (t) = g(t) h(x(t)) per ogni t ∈ J, (3.2) e quindi Z 1 x′ (t) dt = h(x(t)) Z g(t) dt; quest’ultima uguaglianza può anche essere riscritta come: Z Z 1 = g(t) dt dξ h(ξ) ξ=x(t) (t ∈ J). In tal modo viene individuata implicitamente la soluzione x su J. Più precisamente, detto t0 un punto di J e posto x0 = x(t0 ) (per cui h(x0 ) 6= 0), definiamo Z y 1 H(y) = dξ, x0 h(ξ) per ogni x nella componente connessa U di h−1 (R \ {0}) contenente x0 ; e sia G(t) = Z t g(τ ) dτ t0 per t ∈ I1 . Allora, integrando la (3.2) fra t0 e t ∈ J, risulta: H(x(t)) = G(t) per t ∈ J. 47 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Poiché su U la funzione H è invertibile con inversa C 1 (essendo la derivata 1/h mai nulla), quest’ultima equazione individua univocamente x su J: per t ∈ J. (3.3) x(t) = H −1 G(t) (È immediato ora vedere che questa dà effettivamente una soluzione). Notiamo come l’espressione ora ottenuta per x mostra come sia univocamente individuato, indipendentemente dalla soluzione x considerata, il più ampio intervallo J0 contenente t0 in cui una soluzione soddisfacente il dato x(t0 ) = x0 può essere definita in modo che h(x(t)) 6= 0. Infatti in base alla (3.3) l’intervallo J0 deve essere contenuto in G−1 (V ) con V = H(U ) (l’insieme V è aperto in quanto H è una funzione invertibile di classe C 1 ). Pertanto J0 è la componente connessa di G−1 (V ) contenente t0 . Riassumendo: Dato (t0 , x0 ) ∈ I1 × I2 con h(x0 ) 6= 0, risulta univocamente individuato un intervallo J0 che risulta essere per ogni soluzione x dell’equazione (3.1) il più ampio in cui x può essere definita con h ◦ x 6= 0; in tale intervallo queste soluzioni sono univocamente individuate dall’equazione; H(x(t)) = G(t). Osservazione 3.1.1 Le considerazioni sopra esposte tengono conto della possibilità che l’equazione non presenti unicità per i corrispondenti problemi di Cauchy: due soluzioni che coincidono in un punto t0 in cui h(x0 ) 6= 0 devono coincidere fintanto che si mantengono diverse da uno zero di h. Può essere utile pensare all’esempio p x′ = |x|, che presenta le soluzioni 1 2 se t ≥ c 4 (t − c) . 1 2 − (t − c) se t≤c 0 4 ′ x = ext+1 ′ √ 3 Esempi x′ = 2te−x , x′ = −2t(x − 1), x′ = x(x − 1), x′ = tx(x − 1), , x = x2 . y(0) = 0 x0 ≡ 0, x1 = 1 4 (t − c)2 se t ≥ c , se t ≤ c x2 = 3.2 EQUAZIONI LINEARI DEL PRIMO ORDINE In occasione dello studio del Lemma di Gronwall abbiamo già incontrato le equazioni della forma x′ + p(t)x = q(t), (3.4) dove p, q sono funzioni continue su un intervallo I. Detta P una primitiva di p, la famiglia delle soluzioni è data da: Z x(t) = e−P (t) eP (t) q(t) dt. Osserviamo che se q ≡ 0 allora la (3.4) diventa un’equazione a variabili separabili, le cui soluzioni sono: x(t) = Ce−P (t) al variare di C ∈ R. Mostriamo ora come da queste sia possibile ricavare l’integrale generale della (3.4). Al riguardo utilizzeremo il seguente risultato di struttura. Proposizione 3.2.1 Se x è una fissata soluzione dell’equazione (3.4) tutte e sole le soluzioni della stessa equazione (3.4) sono esprimibili nella forma x = xo + x, al variare di xo fra le soluzioni dell’equazione omogenea associata x′ + p(t)x = 0. 48 Chapter 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE Dimostrazione. La dimostrazione è immediata conseguenza del risultato successivo, applicato all’operatore lineare L : C 1 (I) → C 0 (I), Lx = x′ + p(t)x. Proposizione 3.2.2 Sia L : V → W un’applicazione lineare fra spazi vettoriali. Sia q ∈ W e x ∈ V tale che Lx = q. Allora L−1 (q) = L−1 (0) + x. Dimostrazione. Un elemento x sta in L−1 (q) se e solo se Lx = q = Ly, cioè L(x − x) = 0. Ma ciò significa che x − x ∈ L−1 (0), cioè x ∈ L−1 (0) + x. Una soluzione cosiddetta particolare xdell’equazione completa (3.4) può essere ottenuta dall’espressione Ce−P (t) dell’integrale generale dell’equazione omogenea mediante il metodo di variazione delle costanti arbitrarie, che consiste nel cercare una soluzione nella forma x(t) = C(t)e−P (t) , con C(t) funzione da determinare. Deve allora essere: C ′ (t)e−P (t) − C(t)e−P (t) p(t) + p(t)C(t)e−P (t) = q(t), da cui C ′ (t) = q(t)eP (t) . Per integrazione si ricava una possibile funzione C; ad esempio, se t0 è un punto di I, possiamo scegliere Z t q(s)eP (s) ds. C(t) = t0 Quindi l’integrale generale dell’equazione (3.4) diventa(K costante arbitraria): Z t x = Ke−P (t) + e−P (t) q(s)eP (s) ds t0 Z t q(s)eP (s) ds = e−P (t) K + t0 Z −P (t) =e q(s)eP (t) dt, (3.5) coerentemente con quanto già noto. 1 Esempi x′ = t2 x + t5 , x′ + t+1 x = sin t. 3.3 EQUAZIONI DI BERNOULLI; EQUAZIONE DI RICCATI Sono dette di Bernoulli le equazioni della forma x′ + p(t)x = q(t)xα , α ∈ R. Se α = 0 o α = 1 l’equazione si riduce ad un’equazione lineare. Se α > 0 vi è la soluzione x ≡ 0. In ogni caso le altre soluzioni si ottengono dividendo per x−α x−α x′ + p(t)x1−α = q(t) 49 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE e ponendo z = x1−α . Infatti risulta z ′ = (1 − α)x−α x′ e quindi l’equazione si trasforma nella 1 z ′ + p(t)z = q(t), 1−α che è un’equazione lineare. Esempio Determinare la curva y = ϕ(x) del piano xy per la quale il punto medio dei segmenti di normale aventi un estremo sulla curva stessa e l’altro sull’asse x si trova sulla parabola di equazione x = y 2 . [Si ottiene l’equazione ϕ′ − 21 ϕ = −2x/ϕ]. Un caso classico in cui si giunge ad un’equazione differenziale di Bernoulli è quello dell’equazione di Riccati. Si tratta di un’equazione della forma y ′ = a(t) + b(t)x + c(t)x2 , (3.6) con a, b e c funzioni continue su un intervallo I. Osservazione 3.3.1 Notiamo come il secondo membro costituisca la più semplice nonlinearità in x, ottenibile, ad esempio, sviluppando in x = 0 una funzione x 7→ f (t, x). Inoltre, osserviamo anche che se utilizziamo la variabile u individuata dalla relazione: y(t) = − 1 d log u(t) c(t) dt è immediato verificare che l’equazione soddisfatta da u è lineare del secondo ordine (a coefficienti variabili). Si verifica immediatamente che se è nota una soluzione y di (3.6), la posizione u = y + u dà un’equazione di Bernoulli in u: u′ − b(t) + 2c(t)y u = c(t)u2 . Esempio 1 1 − + 2 x + tx2 t t Una soluzione è data da y(t) = 1/t. La sostituzione x = u + 1/t porta all’equazione di Bernoulli (con α = 2): 1 u′ + u = tu2 , t la quale, con la sostituzione z = 1/u, si trasforma nell’equazione lineare x′ = 1 z ′ − z = −t. t Esempio Per ogni α ∈ R consideriamo l’equazione y ′ + y 2 = t2 + α. (3.7) Se α = 1 la funzione y(t) = t è soluzione; ciò permette di applicare il metodo risolutivo (le soluzioni Rt 2 saranno espresse tramite 0 e−s ds). Per un generico valore di α osserviamo che la posizione u(t) = t + 50 α+1 y+t Chapter 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE trasforma l’equazione (3.7) nella seguente: u′ + u2 = t2 + (α + 2). Si tratta della stessa equazione (3.7), ma con α+ 2 in luogo di α. Poiché per α = 1 è nota la soluzione y(t) = t, ciò consente di ricavare una soluzione particolare per α = 3: u(t) = t + 2 1 =t+ . y(t) + t t Quindi l’equazione (3.7) è risolubile per ogni α dispari. 3.4 EQUAZIONI DI TIPO OMOGENEO Si tratta di equazioni della forma x y ′ = g( ) x (g continua). (qui chiameremo x la ‘variabile indipendente’, per cui y = y(x)). Si risolve ponendo z(x) = y(x) . x Infatti, x = xz e x′ = z + xz ′ , per cui l’equazione diventa: z′ = g(z) − z , x che è a variabili separabili. x+y (le soluzioni sono archi di spirale logaritmica). Esempio y ′ = x−y Equazioni di tipo omogeneo generalizzato. a) Per equazioni della forma y ′ = g(ax + by) (g continua, a, b costanti). dove, chiaramente possiamo supporre b 6= 0, la posizione z(x) = ax + by(x) conduce all’equazione: z ′ = a + bg(z), che è a variabili separabili. b) Consideriamo ora equazioni della forma y′ = g ax + by + c a ′ x + b ′ y + c′ con g continua. a b Se ′ ′ = 0 allora si può scrivere, ad esempio, a′ x + b′ y = λ(ax + by), per cui si ricade nel a b caso precedente. 51 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE a b Sia pertanto ′ ′ 6= 0. In tal caso le equazioni ax + by + c = 0 e a′ x + b′ y + c′ = 0 sono le a b equazioni di due rette incidenti: sia (x0 , y0 ) il loro punto di intersezione. Eseguiamo un cambiamento di variabili che porti l’origine in (x0 , y0 ), in modo da ricondursi al caso in cui l’argomento di g sia quoziente di due polinomi omogenei. Poniamo: t = x − x0 , u = y − y0 ; ciò significa considerare come nuova incognita la funzione u(t) = y(t + x0 ) − y0 . Pertanto: a(t + x0 ) + b(u + y0 ) + c at + bu ′ ′ u (t) = y (t + x0 ) = g , =g a′ (t + x0 ) + b′ (u + y0 ) + c′ a′ t + b ′ u poiché ax0 + by0 + c = 0 e a′ x0 + b′ y0 + c′ = 0. Allora l’equazione può essere riscritta come: a + b(η/ξ) , η′ = g a′ + b′ (η/ξ) che è di tipo omogeneo. y−x−2 Esempio y ′ = . y+x 3.5 EQUAZIONI DEL TIPO F (Y, Y ′ ) = 0 O F (X, Y ′ ) = 0 Consideriamo equazioni della forma a) F (y, y ′ ) = 0; b) F (x, y ′ ) = 0 (trattiamo assieme i due casi fin dove possibile). Cerchiamo di risolverle mediante un cambiamento di variabile x = x(s). Sia y : J → R una soluzione, cioè: a) F (y(x(s)), y ′ (x(s))) = 0; b) F (x(s), y ′ (x(s))) = 0 per ogni s ∈ J. Geometricamente possiamo esprimere queste uguaglianze dicendo che, al variare di s ∈ J, a) s 7→ (y(x(s)), y ′ (x(s))); b) s 7→ (x(s), y ′ (x(s))) (3.8) forniscono rappresentazioni parametriche di un arco C della curva di equazione F = 0 (nel piano yy ′ o xy ′ , rispettivamente). Supponiamo sia nota una rappresentazione parametrica y = A(s) x = A(s) a) ; b) (3.9) y ′ = B(s) y ′ = B(s) di tale arco C . Cerchiamo di determinare il cambiamento di variabile x(s) in modo che questa coincida con la rappresentazione (3.8); quindi richiediamo che sia: y(x(s)) = A(s) x(s) = A(s) a) ; b) . y ′ (x(s)) = B(s) y ′ (x(s)) = B(s) Con notazione impropria, ma significativa, poniamo y(s) := y(x(s)). Per evitare equivoci denoterdy la derivazione di y rispetto alla variabile s, mentre y ′ indica la derivazione rispetto a x. emo con ds Allora: dy dx = y ′ (x(s)) . (3.10) ds ds 52 Chapter 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE Nel caso (a) questo dà: A′ (s) = B(s)x′ (s) quindi, ricavando x′ (s) e integrando, x(s) = Z A′ (s) ds. B(s) La coppia (x(s), y(s)) fornisce, chiaramente, una rappresentazione parametrica del grafico della soluzione: Z ′ A (s) x = x(s) = ds B(s) a) y = y(s) = A(s) Nel caso (b) la (3.10) dà invece dy = B(s)A′ (s) ds per cui il grafico della soluzione è rappresentato da x = x(s) = A(s) b) R y = y(s) = A′ (s)B(s) ds. Osservazione 3.5.1 Sottolineiamo come le espressioni per x(s) e y(s) sono ricavate dall’uguaglianza (3.10): dy dx dy = ds dx ds tenendo conto delle rappresentazioni parametriche (3.9) dell’arco C della curva di equazione F = 0. Esempio (Brachistòcrona o problema della più rapida discesa: Johann Bernoulli - 1696) Dati due punti P1 e P2 in un piano verticale (il primo a quota maggiore), determinare il cammino liscio che li congiunge lungo il quale un punto materiale discenda da P1 a P2 per efffetto della sola gravità nel più breve tempo possibile (Figura 3.1). Siano P1 = (x1 , y1 ) e P2 = (x2 , y2 ) e sia x = x(t) y = y(t) la legge oraria del moto del punto. Supponiamo che il tempo t = 0 corrisponda alla posizione iniziale P1 . Lo spazio percorso fino all’istante t è Z x(t) p s(t) = 1 + u′ (x)2 dx. x1 Pertanto la velocità (scalare) è v(t) = da cui p 1 + u′ (x(t))2 x′ (t), v(t) x′ (t) = p . 1 + u′ (x(t))2 (3.11) Del resto possiamo calcolare v utilizzando la conservazione dell’energia: se m è la massa del punto e v0 = v(0) la velocità iniziale, allora 1 1 mv02 + mgy1 = mv(t)2 + mgy(t) 2 2 53 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE y P1 y=u(x) P2 x Figure 3.1 - Il problema del cammino di più rapida discesa da cui, tenendo conto che y(t) = u(x(t)), v(t)2 = v02 + 2gy1 − 2gu(x(t)) v2 = 2g H − u(x(t)) , con H = 0 + y1 . 2g Sostituiamo nella (3.11) e otteniamo q 2g H − u(x(t)) x′ (t) = p . 1 + u′ (x(t))2 Possiamo assumere che la funzione x(t) sia invertibile; per l’inversa t′ (x) risulta p 1 + u′ (x)2 1 ′ p = t (x) = ′ . x (t) 2g(H − u(x)) Il tempo impiegato per percorrere l’arco fra P1 e P2 si ottiene ora per integrazione: Z x2 p 1 + u′ (x)2 1 p dx. T (u) = √ 2g x1 H − u(x) Come verrà maggiormente dettagliato in appendice a questo capitolo, le eventuali soluzioni del problema di minimo per il funzionale p Z x2 1 + u′ (x)2 ′ ′ f (u(x), u (x)) dx, con f (u, u ) = p T (u) = H − u(x) x1 rendono costante la funzione f (u, u′ ) − u′ fu′ (u, u′ ) (vedi Osservazione 3.7.12). Un calcolo diretto porta cosı̀ alla condizione: (H − u)(1 + u′2 ) = c2 54 (c costante). Chapter 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE y C ϑ P O A x Figure 3.2 - Cicloide: le coordinate di P sono x = rϑ − r sin ϑ e y = r − r cos ϑ Si tratta di un’equazione della forma F (u, u′ ) = 0. Seguiamo il metodo di risoluzione sopra delineato. Una rappresentazione parametrica della curva (H − u)(1 + u′2 ) = c2 è: 1 c2 = H − c2 (1 + cos s) =: A(s) 2 1 + tan2 2s . u′ = tan s =: B(s) 2 u = H − Pertanto x(s) = Z A′ (s) ds = c2 B(s) Z cos2 c2 s ds = (s + sin s) + K, 2 2 con K costante arbitraria. Quindi: od anche: c2 x = K + (s + sin s) 2 , 2 z = H − c (1 + cos s) 2 x = K + r(s + sin s) z = H − r(1 + cos s) con K ∈ R e r ≥ 0 arbitrari. Si tratta delle equazioni parametriche di una cicloide, cioè del luogo delle posizioni assunte da un punto fissato su una circonferenza di raggio r quando viene fatta rotolare su una retta come in Figura 3.2. Le coordinate del punto dopo la rotazione di un angolo ϑ come in figura sono date da x = rϑ − r sin ϑ = r(ϑ − sin ϑ), z = r − r cos ϑ = r(1 − cos ϑ); il cambiamento di parametro ϑ = π + s dà (a meno di una traslazione) x = r(s + sin s), z = r(1 + cos s). Rispetto a questa curva l’arco di minima discesa è capovolto (e opportunamente traslato). 55 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE 3.6 EQUAZIONE DI CLAIRAUT Si tratta di equazioni cui si perviene spesso nella determinazione di una curva mediante imposizioni di condizioni sulla retta tangente.13 Sono equazioni della forma y = xy ′ + g(y ′ ), (3.12) con g di classe C 2 . Se y è una soluzione C 1 , derivando entrambi i membri dell’equazione otteniamo y ′′ (x + g ′ (y ′ )) = 0; quindi y ′′ = 0, cioè y ′ = C costante, oppure x + g ′ (y ′ ) = 0. Nel primo caso la costante C individua subito la soluzione a partire dall’equazione stessa: y = Cx + g(C), C ∈ R. (3.13) Si tratta di una famiglia di funzioni lineari che effettivamente sono soluzioni. La condizione x + g ′ (y ′ ) = 0, cioè x = −g ′ (y ′ ), assieme all’equazione stessa dà: x = −g ′ (y ′ ) ; y = −y ′ g ′ (y ′ ) + g(y ′ ) ciò suggerisce la curva in forma parametrica: x = −g ′ (t) . y = −tg ′ (t) + g(t) (3.14) Negli intervalli in cui g ′ è invertibile si verifica che questa definisce effettivamente una soluzione dell’equazione data. Infatti possiamo eliminare il parametro t ricavandolo dalla prima equazione e ottenere cosı̀ per la funzione y: y′ = −g ′ (t) − tg ′′ (t) + g ′ (t) dy dx = = t, dt dt −g ′′ (t) per cui l’uguaglianza y = −tg ′ (t) + g(t) assieme a x = −g ′ (t) dà y = xy ′ + g(y ′ ). Si può dimostrare che la curva (3.14) è l’inviluppo dei grafici (rette) della famiglia (3.13) di soluzioni. Esempio y = xy ′ + y ′2 . Si ottiene la famiglia di rette y = Cx + C 2 (C ∈ R). La curva (3.14) diventa: x = −2t y = −t2 che in forma cartesiana è y = −x2 /4: è facile verificare che la famiglia delle rette tangenti a questa parabola è proprio data da y = Cx + C 2 al variare di C ∈ R. 13 Si 56 può verificare che localmente le tangenti ad una curva regolare soddisfano ad un’equazione di Clairaut. Chapter 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE 3.7 EQUAZIONI DIFFERENZIALI E FORME DIFFERENZIALI Riprendiamo le considerazioni fatte nel §2.6, in particolare il problema sintetizzato dall’equazione (2.20), nel caso n = 2. Data la funzione continua f : Ω → R2 (con Ω aperto di R2 ), consideriamo il sistema autonomo ′ x1 = f1 (x1 , x2 ) . x′2 = f2 (x1 , x2 ) e il problema della determinazione delle curve in Ω i cui vettori tangenti siano in ogni punto paralleli al campo f in quel punto, richiesta espressa dall’uguaglianza: dx1 dx2 = . f1 (x) f2 (x) (3.15) Osservazione 3.7.1 A questa situazione può essere ricondotto anche il caso di una singola equazione scalare y ′ (x) = f (x, y(x)), considerando il sistema ′ x (t) = 1 (3.16) y ′ (t) = f (x(t), y(t)) nel senso che i grafici dell’equazione sono le orbite del sistema. Infatti: se y è una soluzione di y ′ = f (x, y) allora (x(t), y(t)) := (t, y(t)) risolve (3.16), e la corrispondente orbita è il grafico di y. Viceversa, se u = (x(·), y(·)) : J → R2 è soluzione di (3.16), allora esiste c ∈ R per il quale x(t) = t + c per ogni t ∈ J; ne consegue che l’orbita descritta da u è: {(t + c, x(t)) : t ∈ J} = {(s, x(s − c)) : s ∈ J + c} = {(s, φ(s)) : s ∈ J + c} = graf φ dove φ(s) = y(s − c); inoltre φ′ (s) = y ′ (s − c) = f x(s − c), y(s − c) = f (s, φ(s)). per cui φ è soluzione di φ′ (s) = f (s, φ(s)). L’equazione (3.15) può formalmente essere riscritta come f2 (x)dx1 − f1 (x)dx2 = 0. (3.17) Il significato di questa uguaglianza è precisato dalla seguente proposizione. Proposizione 3.7.2 Sia x : J → Ω una curva regolare di classe C 1 e tale che f ◦ x non si annulli mai (al riguardo si ricordi l’osservazione (b) del paragrafo §2.6). Allora x soddisfa (3.15) se e solo se f2 (x)x′1 (t) − f1 (x)x′2 (t) = 0 per ogni t ∈ J. (3.18) Dimostrazione. Sia x soddisfacente (3.15). Fissato t ∈ J sia, ad esempio, x′1 (t) 6= 0. Allora, dall’uguaglianza x′ = λf (x) ricaviamo f1 (x(t)) 6= 0 e x′2 (t) f2 (x(t)) = , ′ x1 (t) f1 (x(t)) da cui la (3.18). Viceversa, se vale (3.18) e t è un dato punto di J, si abbia, ad esempio, f2 (x(t)) 6= 0 (per ipotesi f ◦ x non si annulla mai). Per continuità questa relazione è vera per tutti i t in un intorno di t; allora x′2 (t) x′2 (t) x′1 (t) = f1 (x(t)), x′2 (t) = f2 (x(t)), f2 (x(t)) f2 (x(t)) 57 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE da cui x′ = λf (x) con λ(t) = x′2 (t)/f2 (u(t)); notiamo che λ(t) 6= 0 poiché altrimenti x′1 (t) = x′2 (t) = 0. Se ricordiamo la nozione di forma differenziale lineare, la condizione (3.17) esprime proprio l’annullarsi, nei punti della curva x, della forma differenziale ω(x) := f2 (x)dx1 − f1 (x)dx2 sul vettore tangente x′ (t) = (x′1 (t), x′2 (t)).14 In generale, data una forma differenziale lineare ω(x) = n X (ai ∈ C 0 (Ω)) ai (x)dxi i=1 su un aperto Ω di Rn , diciamo che una funzione x : J → Ω, con J intervallo, è una (curva-)soluzione dell’equazione ω=0 se n X ai (x(t))x′i (t) = 0 per ogni t ∈ J. i=1 (3.19) Questa condizione può anche essere espressa dicendo che il pull-back x∗ ω della forma ω tramite la funzione x è nullo. Esempio Il sistema di equazioni di Lotka-Volterra ′ x = (α − βy)x y ′ = (−γ + δx)y dà luogo all’equazione: (γ − δx)ydx + (α − βy)xdy = 0. L’equazione scalare y′ = − corrisponde al sistema (3.20) t y x′ = 1 y ′ = − xy e quindi si ottiene l’equazione xdx + ydy = 0. (3.21) Rilevante è il caso in cui la forma differenziale ω(x) = f2 (x)dx1 − f1 (x)dx2 è esatta, cioè esiste H ∈ C 1 (Ω) (detta primitiva) tale che dH(x) = ω(x). (Un esempio è proprio la (3.21)). In tal caso H si mantiene costante sulle orbite. Ciò è precisato nella successiva proposizione, alla quale anteponiamo una definizione. Data H ∈ C 1 (Ω) e c ∈ R, diciamo che c è un valore regolare per H se dH(x) 6= 0 14 Un 58 per ogni x ∈ H −1 (c). richiamo alle forme differenziali lineari è in Appendice B. Chapter 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE Ad esempio c = 0 non è un valore regolare per H(x) = x21 − x22 ; l’insieme H −1 (0) si spezza in due rette incidenti. Proposizione 3.7.3 Sia data la forma differenziale (a, b ∈ C 0 (Ω)). ω(x) = a(x)dx1 + b(x)dx2 Supponiamo che ω sia esatta: esiste H ∈ C 1 (Ω) tale che dH = ω [cioè ∂H ∂H = a(x) e = b(x)]. ∂x1 ∂x2 Sia c un valore regolare di H. Allora l’insieme di livello H −1 (c) è localmente orbita di una soluzione dell’equazione ω = 0. Viceversa, ogni curva soluzione di ω = 0 è contenuta in un insieme di livello di H (cioè H è costante lungo ogni soluzione di ω = 0). Dimostrazione. Se c è un valore regolare di H, per il Teorema della funzione implicita H −1 (c) ∂H (x0 ) 6= 0: allora è localmente grafico di una funzione C 1 ; sia, ad esempio, H(x0 ) = c, con ∂x 2 −1 nell’intorno di (x0 ) l’insieme H (c) è grafico di una funzione x2 = ψ(x1 ). Quindi t 7→ (t, ψ(t)) risolve ω = 0: d a(t, ψ(t)) + b(t, ψ(t))ψ ′ (t) = H(t, ψ(t)) = 0, dt poiché (t, ψ(t)) ∈ H −1 (c). Viceversa, se x : J → Ω è soluzione di ω = 0, allora 0 = a(x(t))x′1 (t) + b(x(t))x′2 (t) = d H(x(t)), dt per cui per ogni t ∈ J H(x(t)) = c per un opportuno valore c ∈ R. Esempio. Sia ω(x, y) = xdx + ydy la funzione H(x, y) = (x2 + y 2 )/2 ne è una primitiva, per cui le orbite sono archi di circonferenza: x2 + y 2 = costante. Esempio. Consideriamo l’equazione (1.24) del pendolo senza attrito: ϑ̈ + ω 2 sin ϑ = 0 (ω 2 = g ). l Scriviamo il sistema del primo ordine equivalente: ϑ̇ = v v̇ = −ω 2 sin ϑ e la corrispondente equazione delle orbite: ω 2 sin ϑdϑ + vdv = 0. 59 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE 5 4 3 2 1 0 −1 −2 −3 −4 −5 −6 −4 −2 0 2 4 6 La forma è esatta: una primitiva è data da: H(ϑ, v) = 1 2 v − ω 2 cos ϑ. 2 In accordo con la Proposizione 3.7.3, le orbite hanno equazioni H(ϑ, v) = c con c costante, cioè (posto c = −ω 2 γ) p v = ±ω 2(cos ϑ − γ), al variare di γ ∈ R. Una semplice analisi porta al diagramma di fase di cui alla Figura 3.7 (si studino i casi γ < −1, γ = −1, −1 < γ < 1 e γ = 1). ∼·∼·∼·∼·∼·∼·∼ Nei casi in cui ω non è esatta, è talvolta possibile determinare una funzione µ(x) mai nulla per la quale µω sia esatta. Chiaramente vale il seguente risultato: Proposizione 3.7.4 Sia µ ∈ C 0 (Ω) mai nulla. Allora u è soluzione di ω = 0 se e solo se u è soluzione di µω = 0. Si dice che la funzione µ è un fattore integrante per la forma ω. Esempio Riprendiamo l’esempio della forma differenziale (3.20), che non è esatta; cerchiamone un fattore integrante µ. Deve essere ∂µ ∂µ (γ − δx)y + µ(x, y)(γ − δx) = (α − βy)x + µ(x, y)(α − βy). ∂y ∂x 60 Chapter 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE y α/β x γ/δ Figure 3.3 - Orbite delle equazioni di Lotka-Volterra (linee di livello di H(x, y) = γ log x+ α log y − δx − βy). Cerchiamo µ nella forma a variabili separate: µ(x, y) = ϕ(x)ψ(y); allora ϕ(x)[ψ ′ (y)y + ψ(y)](γ − δx) = ψ(y)[ϕ′ (x)x + ϕ(x)](α − βy). Una possibile soluzione si ottiene richiedendo: ψ ′ (y)y + ψ(y) = 0 = ϕ′ (x)x + ϕ(x). Otteniamo cosı̀ ϕ(x) = 1/x e ψ(y) = 1/y, cioè µ(x, y) = 1/(xy). Allora: µω = con γ α − δ dx + − β dy = dH(x, y), x y H(x, y) = γ log x + α log y − δx − sβy. pertanto gli insiemi di livello di H danno le orbite del sistema di equazioni di Lotka-Volterra (vedi Figura 3.3). Esempio L’equazione y′ = x+y x−y che abbiamo risolto come equazione di tipo omogeneo (ottenendo come soluzioni archi di spirale logaritmica), una volta espressa come annullamento di una forma lineare diventa: ω := (x + y)dx + (y − x)dy = 0. 61 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Tuttavia la forma ω non è esatta, e non è immediato individuare un fattore integrante, anche localmente. Risulta più naturale esprimere l’equazione in coordinate polari, cioè cercare soluzioni nella forma x(t) = ρ(t) cos ϑ(t) y(t) = ρ(t) sin ϑ(t). Se calcoliamo x′ (t) e y ′ (t) e applichiamo la definizione di soluzione (vedi (3.19)), otteniamo (per ρ 6= 0): 1 dρ − dϑ = 0, ρ cioè d(log ρ − ϑ) = 0, da cui log ρ − ϑ = c o anche ρ = Ceϑ . L’esempio ora illustrato è un caso di cambiamento di variabili nella forma differenziale. In generale,Psia φ : G → Ω un’applicazione C 1 fra aperti di Rn , invertibile con inversa C 1 , e sia ω(x) = i ai (x)dxi una forma differenziale su Ω. Le soluzioni x(·) dell’equazione ω = 0 possono essere espresse come composizione tramite φ di curve in G, cioè x = φ ◦ u, con u : J → G, dove J è un intervallo reale (si definisca u come φ−1 ◦ x). La condizione che x risolva ω = 0 diventa: hω(φ(u(t)), (φ ◦ u)′ (t)i = 0 per t ∈ J, cioè hω(φ(u(t)), Dφ(u(t))u′ (t)i = 0, od anche hω(φ(u(t)), (dφ)u(t) u′ (t)i = 0, cioè (ricordando la nozione di pull-back di una forma differenziale (vedi Appendice B di questo capitolo) φ∗ ω = 0. Posto φ = (φi )i , osserviamo che per ogni ξ ∈ G e v ∈ Rn hdxi , (dφ)ξ (v)i = (dφi )ξ (v); pertanto possiamo scrivere φ∗ ω come φ∗ ω = n X i=1 (ai ◦ φ)dφi . (3.22) Formalmente, questa non è altro che l’espressione di ω(x) in cui alla variabile x venga sostituita la φ(ξ). Esempio Riprendiamo l’esempio precedente e scriviamo la (3.22) nel caso in cui ω = (x + y)dx + (y − x)dy e x = ρ cos ϑ φ: y = ρ sin ϑ Si ottiene subito (φ∗ ω)(ρ, ϑ) = ρdρ − ρ2 dϑ. 62 Chapter 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE Appendice A: equazione di Eulero di un funzionale Nel problema della brachistòcrona, il tempo T di percorrenza relativo al cammino di discesa z = u(x), con x1 ≤ x ≤ x2 , è dato da: Z x2 √ 1 + u′2 1 √ T = T (u) = √ dx, (3.23) 2g x1 H −u con H costante assegnata; si cerca una funzione u che risolva il problema di minimo: min T (u), u∈X dove X = {u ∈ C 1 ([a, b]) : u(x1 ) = z1 , u(x2 ) = z2 }. Questo problema può essere inquadrato in un contesto più generale e di ampia applicabilità. Sia V uno spazio vettoriale reale e X un sottoinsieme di V . Sia F : X → R una funzione definita (almeno) in X e consideriamo il problema min F (u) . (P ) u∈X Dato u ∈ X, diremo variazione ammissibile di u rispetto a X ogni elemento v ∈ V per il quale esiste δ > 0 tale che u + tv ∈ X per ogni |t| < δ . Vale la semplice, ma fondamentale: Osservazione 3.7.5 Se u è soluzione del problema (P ) e v è una variazione ammissibile di u rispetto a X, allora la funzione φ(t) = F (u + tv) , (|t| < δ) ha minimo in t = 0. Pertanto, se φ è derivabile in t = 0, risulta φ′ (0) = 0. Motivati da ciò, indipendentemente dalla considerazione del problema (P ), diamo la seguente: Definizione 3.7.6 (Variazione prima) Sia F come sopra. Dato u ∈ X e v ∈ V variazione ammissibile di u rispetto a X, se φ(t) = F (u + tv) è derivabile per t = 0, diciamo variazione prima di F in u rispetto a v il valore δF (u; v) := φ′ (0) . Pertanto: Proposizione 3.7.7 Sia u soluzione del problema (P ). Allora δF (u; v) = 0 (3.24) per ogni variazione ammissibile v (per la quale esista δF (u; v)). Osservazione 3.7.8 La condizione δF (u; v) = 0 è soltanto una condizione necessaria per la minimalità; si tratta di una condizione di stazionarietà. Specializziamo ora lo studio al caso di funzionali integrali della forma F (u) = Z a b f x, u(x), u′ (x) dx (3.25) 63 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE dove (f = f (x, u, ξ)): f ∈ C 1 ([a, b] × R × R) , u ∈ C 1 ([a, b]). In tal caso F : V → R con V = C 1 ([a, b]). Il problema della stazionarietà per funzionali della forma (3.25) si incontra, ad esempio, in Meccanica Analitica: si ricordi infatti il principio variazionale di Hamilton, secondo cui fra tutti i moti virtuali nello spazio delle configurazioni i moti effettivi x(t) in un intervallo [t1 , t2 ] rendono stazionario l’integrale Z t2 L t, x(t), ẋ(t) dt L (x) = t1 dove L è la funzione lagrangiana del sistema e la stazionarietà è intesa nella cosiddetta classe dei moti variati sincroni, cioè soddisfacenti le stesse condizioni iniziali e finali di x. Proposizione 3.7.9 Nelle ipotesi poste risulta: Z h i fu x, u(x), u′ (x) v(x) + fξ x, u(x), u′ (x) v ′ (x) dx δF (u; v) = Ω comunque prese u, v ∈ C 1 ([a, b]). Dimostrazione. Date u e v risulta d f x,u + tv, u′ + tv ′ dt = fu x, u + tv, u + tv v + fξ x, u + tv, u′ + tv ′ v ′ ; l’applicazione (x, t) 7→ x, u + tv, u′ + tv ′ su [a, b] × [−1, 1] è continua e quindi ha immagine d compatta. Pertanto dt f x, u + tv, u′ + tv ′ è limitata in x uniformemente rispetto a t: possiamo applicare il teorema di derivazione sotto il segno di integrale. Ritornando al funzionale in (3.23), ogni ϕ ∈ Cc∞ ([a, b]) è una variazione ammissibile (e questo è vero, in generale, tutte le volte che X è un sottoinsieme di C 1 ([a, b]) ottenuto prescrivendo i dati al bordo). In tal caso l’equazione (3.24), assieme a quanto asserito nella Proposizione 3.7.9, dà: Z bh i fu x, u(x), u′ (x) ϕ + fξ x, u(x),u′ (x) ϕ′ dx = 0 a per ogni ϕ ∈ Cc∞ ([a, b]). Se ora supponiamo che u ∈ C 1 ([a, b]) ∩ C 2 ((a, b)) allora un’applicazione della regola di integrazione per parti, dà: Z bh i d fu x, u(x), u′ (x) − fξ x, u(x),u′ (x) ϕ dx = 0 dx a per ogni ϕ ∈ Cc∞ ([a, b]). (3.26) Ciò implica che la funzione in parentesi quadre sia nulla per ogni x ∈ (a, b). Per dimostrare ciò supponiamo che se esista x tale che [. . .](x) > 0; allora dovrebbe essere [. . .](x) > 0 in tutto un intorno aperto I di x. Detta ϕ una funzione15 Cc∞ ([a, b]) che sia nulla su [a, b] \ I e strettamente positiva in I, l’integrale a primo membro in (3.26) sarebbe strettamente positivo, contro quanto assunto. Concludiamo pertanto con il seguente risultato: 15 si 64 ` ´ consideri un opportuno riscalamento della funzione che vale exp −1/(1 − x2 ) per |x| < 1 e zero altrimenti. Chapter 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE Proposizione 3.7.10 Se u ∈ C 1 ([a, b]) ∩ C 2 ((a, b)) risove il problema (P ), allora u soddisfa l’equazione di Eulero: d fξ (x, u, u′ ) = fu (x, u, u′ ) in (a, b). dx Definizione 3.7.11 Diciamo estremale del funzionale F ogni soluzione u ∈ C 1 ([a, b])∩C 2 ((a, b)) dell’equazione di Eulero. Osservazione 3.7.12 Se f non dipende esplicitamente da x allora la funzione f (u, u′ ) − u′ fu′ (u, u′ ) è un integrale primo del funzionale F , cioè è costante lungo ogni estremale (qui fu′ sta per fξ ). Infatti: d f (u,u′ ) − u′ fξ (u, u′ ) = dx fu u′ + fu′ u′′ − u′′ fu′ − u′ d fξ = fu u′ − u′ fu = 0. dx 65 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Appendice B: forme differenziali lineari Ricordiamo la definizione di differenziale. Sia f : Ω → Rk , con Ω aperto di Rn . Sia x0 un punto di Ω. Diciamo che la funzione f è differenziabile in x0 se esiste A : Rn → Rk lineare tale che lim h→0 f (x0 + h) − f (x0 ) − Ah = 0. |h| (3.27) L’applicazione A è detta differenziale di f in x0 e indicata con df (x0 ) oppure (df )x0 Se k = 1 il differenziale df (x0 ) è un elemento del duale (Rn )∗ di Rn . La (3.27) può anche essere riscritta come: f (x0 + h) = f (x0 ) + Ah + o(h) per h → 0, od anche f (x) = f (x0 ) + A(x − x0 ) + o(x − x0 ) per x → x0 . Pertanto: l’applicazione x 7→ f (x0 ) + hdf (x0 ), x − x0 i è la funzione affine che meglio approssima f nell’intorno del punto x0 . Si dimostra che hdf (x0 ), hi = Df (x0 ) · h con Df (x0 ) matrice jacobiana di f in x0 . Si visualizzino i casi n = k = 1 e n = 2, k = 1. È utile interpretare il differenziale anche in altra forma. Dato v ∈ Rn studiamo il modo in cui viene trasformato da f il moto di un punto mobile che passa per x0 con velocità v. Pertanto consideriamo una curva ϕ : (−1, 1) → Ω con ϕ(0) = x0 , ϕ′ (0) = v, e valutiamo la velocità del punto f (ϕ(t)) all’istante t = 0. Risulta: d f (ϕ(t)) = Df (ϕ(0)) · ϕ′ (0) = Df (x0 ) · v, dt t0 cioè pertanto d f (ϕ(t)) = hdf (x0 ), vi. dt t0 (3.28) il differenziale df dà la trasformazione dei vettori velocità tramite la funzione f . ∼·∼·∼·∼·∼·∼·∼ La (3.28) trova facile generalizzazione al caso in cui f sia una funzione fra “sottoinsiemi ddimensionali regolari in Rn ” (più precisamente “varietà differenziabili”), come ad esempio le curve e le superficie C 1 in R3 . Pertanto, consideriamo il caso di una funzione f : M → N , con M e N , per fissare le idee, superficie in R3 . Come svolto sopra per una funzione su un aperto di uno spazio euclideo, analizziamo come f trasforma il moto di un punto su M . Quest’ultimo viene dato 66 Chapter 3 - TECNICHE ELEMENTARI DI INTEGRAZIONE y y f hdf (x0 ),vi v x0 N M ϕ y −1 y 1 0 J x x Figure 3.4 - Trasformazione dei vettori velocità tramite f assegnando una curva ϕ : (−1, 1) → M sulla superficie M ; sia ϕ(0) = x0 e ϕ′ (0) = v. Osserviamo subito che la regolarità di M permette di dimostrare che l’insieme Tx0 M = {v ∈ R3 : ∃ϕ : (−1, 1) → M, ϕ(0) = x0 , ϕ′ (0) = v} è un sottospazio di R3 detto spazio tangente ad M in x0 . L’immagine tramite f della curva ϕ è data da f ◦ ϕ, che è una curva su N passante per f (x0 ). Allora risulta definita l’applicazione d ∈ Tf (x0 ) N v ∈ Tx0 M 7→ f (ϕ(t)) dt t=0 (e si dimostra non dipendere dalla particolare curva ϕ scelta a cui il vettore v è tangente). Questa applicazione è detta differenziale di f in x0 : df (x0 ) : Tx0 M → Tf (x0 ) N. Si verifica essere un’applicazione lineare. Se M e N sono aperti di Rn e Rk rispettivamente, allora (le definizioni sopra riportate continuano a valere e) risulta: Tf (x0 ) N = Rk ; T x 0 M = Rn , In questo caso si riottiene cosı̀ la definizione già vista. Osserviamo inoltre che se N = R allora df (x0 ) è un funzionale lineare su Tx0 M , cioè un elemento del suo duale algebrico: ∗ df (x0 ) ∈ Tx0 M . ∼·∼·∼·∼·∼·∼·∼ Un caso particolare è quello in cui f è la i-esima proiezione di Rn : πi : x 7→ xi : Rn → R. In tal caso il differenziale coincide con πi stessa: hdπi , vi = v i , se v = X v j ej . j Usualmente si utilizza il simbolo dxi anzichè dπi ; quindi: X v j ej . hdxi , vi = v i , se v = j 67 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE La sequenza dx1 , dx2 , . . . , dxn P forma una base del duale di R ; infatti se A ∈ (Rn )∗ e v = j v j ej , allora: X X X αj dxj , vi, αj hdxj , vi = h v j hA, ej i = hA, vi = n j j j dove si è posto αj = hA, ej i. Quindi A= X αj dxj . j In particolare, sia f : Ω → R un’applicazione differenziabile in x0 ; allora X ∂f hdf (x0 ), vi = vj , ∂x j j per cui ∂f ∂f ∂f dx1 + dx2 + . . . + dxn . ∂x1 ∂x2 ∂xn Definizione 3.7.13 Diciamo forma differenziale lineare (o 1-forma) di classe C 0 su un aperto Ω di Rn l’assegnazione continua in ogni punto di Ω di un elemento di (Rn )∗ . df (x0 ) = Quindi una forma ω su Ω può essere scritta come: ω(x) = n X ai (x)dxi , i=1 ai ∈ C 0 (Ω). Un caso particolare è chiaramente il differenziale di una funzione C 1 . Una forma ω su Ω si dice esatta se esiste H ∈ C 1 (Ω) tale che ω = dH. Dalle considerazioni svolte sopra si può cogliere come il concetto di forma differenziale lineare possa essere esteso al caso in cui anzichè un aperto Ω si abbia, ad esempio, una superficie. Pn Una forma differenziale ω(x) = i=1 ai (x)dxi su Ω si dice chiusa se ∂ai (x) ∂aj (x) = ∂xj ∂xi per ogni x ∈ Ω. Se i coefficienti ai sono di classe C 2 , allora il Teorema di Schwarz sull’inversione dell’ordine di derivazione implica che se ω è esatta allora è chiusa. Si può dimostrare che il viceversa vale se Ω è semplicemente connesso. In quest’ultimo caso la verifica dell’esattezza di una forma è immediata. ∼·∼·∼·∼·∼·∼·∼ Ricordiamo infine la nozione di pull-back di una forma differenziale. P Siano G ⊆ Rm e Ω ⊆ Rn aperti e φ : G → Ω di classe C 1 . Sia ω(x) = i ai (x)dxi una forma differenziale su Ω. Per ogni ξ ∈ G e v ∈ Rm poniamo h(φ∗ ω)(ξ), vi := hω(φ(ξ)), h(dφ)ξ , vii (la forma ω agisce nel punto immagine φ(ξ) sul vettore trasformato di v tramite l’applicazione differenziale dφ in ξ). In ogni punto ξ di G è quindi assegnata un’applicazione lineare su Rm , ottenendo pertanto una forma differenziale φ∗ ω su G, detta pull-back di ω tramite φ. La forma φ∗ ω è il modo più naturale di trasportare la forma ω da Ω su G tramite φ. Posto φ = (φi )i , poiché hdxi , (dφ)ξ (v)i = (dφi )ξ (v), possiamo scrivere φ∗ ω come φ∗ ω = n X i=1 (ai ◦ φ)dφi . Formalmente, questa si ottiene dall’espressione di ω(x) sostituendo la variabile x con φ(ξ). 68 Chapter 4 EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI Ci occupiamo ora di (sistemi di) equazioni differenziali lineari, cioè della forma x′ = A(t)x + b(t), (4.1) dove la funzione incognita x(·) è a valori in Rn , il coefficiente A è una matrice n × n a elementi reali continui in un intervallo I, mentre b è una funzione continua in I a valori in Rn : A ∈ C 0 (I; M n×n (R)), b ∈ C 0 (I; Rn ). Il prodotto A(t)x(t) è inteso come usuale prodotto fra una matrice n × n e un vettore (colonna) x(t).16 Un esempio di sistema del tipo (4.1) è stato incontrato nello studio dei circuiti accoppiati (vedi (1.19)). Sappiamo (per l’Osservazione 2.4.5) che ogni soluzione di (4.1) è prolungabile a tutto l’insieme I di continuità dei coefficienti, per cui assumiamo x : I → Rn . L’equazione x′ = A(t)x (4.2) verrà detta equazione omogenea associata all’equazione (4.1); in contrapposizione ci si riferisce a volte all’equazione (4.1), come all’equazione completa. Osserviamo inoltre che sono chiaramente soddisfatte le condizioni che assicurano l’unicità per i problemi di Cauchy (il secondo membro della (4.1) è lineare in x). Indicheremo la soluzione (unica) del problema ′ x = A(t)x + b(t) con x(·, t0 , x0 ). x(t0 ) = x0 Osservazione 4.0.14 Se le funzioni A e b nell’equazione (4.1) sono di classe C 1 , allora ogni soluzione x ha la derivata x′ di classe C 1 . Per induzione otteniamo A, b ∈ C k 16 Per ⇒ x ∈ C k+1 comodità, se il contesto è sufficientemente chiaro, scriveremo a volte in riga anche i vettori colonna. 69 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE per k = 0, 1, . . .. Se A e b sono di classe C ∞ anche le soluzioni sono pertanto di classe C ∞ . Analizziamo ora la struttura dell’insieme delle soluzioni, iniziando dal caso dell’equazione omogenea. 4.1 EQUAZIONE OMOGENEA. MATRICE RISOLVENTE Basilare è il seguente semplice risultato sulla struttura dell’insieme delle soluzioni di un’equazione omogenea. Teorema 4.1.1 (di struttura per l’equazione omogenea) L’insieme V delle soluzioni dell’equazione (4.2) è un sottospazio vettoriale di C 1 (I; Rn ). Per ogni t0 ∈ I l’applicazione φt0 : ξ 7→ x(·, t0 , ξ) : Rn → V è un isomorfismo di spazi vettoriali. Pertanto V ha dimensione n. Dimostrazione. Dati u1 , u2 ∈ V e α, β ∈ R, la funzione u = αu1 + βu2 è una soluzione di (4.2): u′ = αu′1 + βu′2 = αA(t)u1 + βA(t)u2 = A(t)(αu1 + βu2 ) = A(t)u. Quindi V è un sottospazio di C 1 (I; Rn ). Siano assegnati ξ1 , ξ2 ∈ Rn e α, β ∈ R e indichiamo con u1 e u2 le soluzioni con dati ξ1 e ξ2 per t = t0 , rispettivamente, cioè u1 = φt0 (ξ1 ) e u2 = φt0 (ξ2 ); la soluzione u = αu1 + βu2 assume in t0 il valore αξ1 + βξ2 , quindi è la soluzione φt0 (αξ1 + βξ2 ), cioè: αφt0 (ξ1 ) + βφt0 (ξ2 ) = αu1 + βu2 = φt0 (αξ1 + βξ2 ). Ciò dice che φt0 è un omomorfismo. Del resto se u = φt0 (ξ) ≡ 0 allora ξ = u(t0 ) = 0: φt0 è iniettivo. La suriettività è ovvia (ogni soluzione u è definita anche in t0 , per cui u = φt0 (ξ) con ξ = u(t0 )). Dall’essere φt0 un isomorfismo discende che la dimensione di V è n. Corollario 4.1.2 Siano u1 , u2 , . . . , un in V e t0 ∈ I. Allora u1 , u2 , . . . , un sono linearmente indipendenti ( in V ) se e solo se u1 (t0 ), u2 (t0 ), . . . , un (t0 ) sono linearmente indipendenti ( in Rn ). Dimostrazione. Discende immediatamente dal fatto che φt0 è un isomorfismo. Osservazione 4.1.3 Quanto detto sopra continua a sussistere ambientando, con ovvia estensione, lo studio in C (e considerando, più in generale, matrici a coefficienti complessi). Il passaggio al campo C, algebricamente chiuso, renderà più agevole lo studio dei sistemi a coefficienti costanti (vedi §§ 4.4 e 4.5). Da ciò segue che per verificare l’indipendenza di n soluzioni u1 , u2 , . . . , un è sufficiente verificare la lineare indipendenza di u1 (t), u2 (t), . . . , un (t) per un qualche t ∈ I, quindi valutare l’annullarsi o meno di: W (t) = det X(t) dove X(t) = (u1 (t) | u2 (t) | . . . | un (t)) 70 (4.3) Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI è la matrice che ha nelle colonne le soluzioni u1 , . . . , un . La matrice X(t) e il suo determinante W (t) sono detti, rispettivamente matrice wronskiana e determinante wronskiano delle n soluzioni u1 , . . . , un . Osservazione 4.1.4 Dare n soluzioni dell’equazione (4.2) equivale a dare una soluzione dell’equazione matriciale X ′ = A(t)X (le colonne di X(t) sono soluzioni di x′ = A(t)x). Esempio. Consideriamo un caso elementare per illustrare i concetti esposti: „ ′ x1 = ωx2 0 cioè x′ = Ax con A = ′ x2 = −ωx1 −ω « ω . 0 Sappiamo (vedi § 1.9) che questo sistema è equivalente all’equazione: 2 x′′ 2 + ω x2 = 0. Le soluzioni di sono fornite da (si ricordi la (1.14) del Cap. I): x2 (t) = K cos(ωt + ϕ), Inoltre x1 = −x′2 /ω, per cui: x(t) = „ x1 (t) x2 (t) « = „ K ≥ 0, ϕ ∈ R; « K sin(ωt + ϕ) . K cos(ωt + ϕ) In particolare, le soluzioni del problema di Cauchy x′ = Ax x(0) = ξ (4.4) con ξ = e1 e ξ = e2 si ottengono per K = 1 e ϕ = π/2 o ϕ = 0, rispettivamente: „ « „ « cos ωt sin ωt u1 = , u2 = . − sin ωt cos ωt Queste sono linearmente indipendenti, come si può ricavare osservando che la loro matrice wronskiana X(t) ha sempre determinante uguale a 1 (basterebbe osservare che, per come sono state definite u1 e u2 , risulta det X(0) = det I = 1, con I matrice identità). Dall’espressione esplicita sopra ricavata si deduce che la generica soluzione x(·) si esprime come combinazione lineare di u1 e u2 : „ « K sin ωt cos ϕ + K cos ωt sin ϕ x(t) = = K(sin ϕ)u1 + K(cos ϕ)u2 (4.5) K cos ωt cos ϕ − K sin ωt sin ϕ (al variare di K e ϕ le costanti K sin ϕ e K cos ϕ danno una qualunque coppia (c1 , c2 ) di costanti reali). Notiamo che K sin ϕ = x1 (0) e K cos ϕ = x2 (0); del resto è evidente che la soluzione del problema (4.4) per un arbitrario ξ è x(t) = X(t)ξ, poiché le soluzioni u1 e u2 sono state scelte con i valori e1 ed e2 , rispettivamente, in t = 0. Generalizziamo ora queste osservazioni. Dato τ ∈ I, sia ui (·, τ ) la soluzione di x′ = A(t)x x(τ ) = ξ (4.6) con ξ = ei , e si definisca R(·, τ ) = u1 (·, τ ) | u2 (·, τ ) | . . . | un (·, τ ) ; (4.7) la matrice le cui colonne sono date dalle funzioni ui (·, τ ); si tratta di soluzioni linearmente indipendenti poiché R(τ, τ ) = I (matrice identità). Definizione 4.1.5 La matrice R è detta matrice risolvente del sistema x′ = A(t)x. 71 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Proposizione 4.1.6 Comunque dati τ ∈ I e ξ ∈ Rn la soluzione del problema di Cauchy (4.6) si può esprimere nella forma: x(t) = R(t, τ )ξ. Infatti, R(·, τ ) è una soluzione del sistema x′ = A(t)x e all’istante t = τ assume il valore R(τ, τ )ξ = Iξ = ξ. Osservazione 4.1.7 La matrice R è univocamente individuata come soluzione dell’equazione: ∂R (t, τ ) = A(t)R(t, τ ) ∂t R(τ, τ ) = I. Osservazione 4.1.8 Se il sistema è autonomo (A costante) allora (si ricordi la (2.18) del Cap. II) R(t, τ ) = R(t − τ, 0). Nell’esempio precedente la matrice A è costante, per cui la soluzione del problema (4.6) per ξ = ei non è altro che t 7→ ui (t − τ ), dove ui è la soluzione determinata per τ = 0; quindi in questo caso „ « cos ω(t − τ ) sin ω(t − τ ) R(t, τ ) = . (4.8) − sin ω(t − τ ) cos ω(t − τ ) Se ui , . . . , un è una qualunque n-upla di soluzioni di (4.2), comunque preso τ ∈ I si ha ui (t) = R(t, τ )ui (τ ), o anche, indicando con X la matrice wronskiana di ui , . . . , un X(t) = R(t, τ )X(τ ). Se poi le ui , . . . , un sono linearmente indipendenti allora X è invertibile, per cui possiamo esprimere la matrice risolvente R tramite X: R(t, τ ) = X(t)X(τ )−1 . (4.9) Terminiamo il paragrafo con un’interessante relazione soddisfatta dalla matrice wronskiana di una n-upla di soluzioni dell’equazione omogenea (4.2). Teorema 4.1.9 (Liouville) Sia X una soluzione di X ′ = A(t)X (X ∈ C 1 (I; M n×n )). Allora il determinante wronskiano W (t) di X(t) è soluzione di z ′ = tr A(t) z. Quindi W (t) = W (t0 ) exp Z t t0 comunque presi t, t0 ∈ I. 72 (tr A(s) ds (4.10) Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI Dimostrazione. Abbiamo visto che se X ′ = AX allora X(t) = R(t, τ )X(τ ), per cui (teorema di Binet), comunque presi t, τ ∈ I, W (t) = det X(t) = det R(t, τ ) det X(τ ). Quindi ∂ detR(t, τ ) W (τ ). (4.11) ∂t Ricordiamo che la derivata di un determinante si ottiene come somma dei determinanti delle matrici ottenute derivando successivamente le singole colonne.17 Allora: W ′ (t) = n X ∂ det R(t, τ ) = det u1 (t, τ ) | . . . | u′j (t, τ ) | . . . | un (t, τ ) . ∂t j=1 Osserviamo che u′j (t, τ ) = A(t)uj (t, τ ) e poniamo t = τ : ricordando che ui (τ, τ ) = ei per ogni i, si ottiene: n X ∂ det e1 | . . . | A(τ )ej | . . . | en det R(t, τ ) = ∂t t=τ j=1 = n X ajj (τ ) = tr A(τ ). j=1 Di conseguenza la (4.11) per t = τ dà: W ′ (τ ) = tr A(τ )W (τ ). In base all’arbitrarietà di τ , questo conclude la dimostrazione. 4.2 EQUAZIONE COMPLETA. VARIAZIONE DELLE COSTANTI Teorema 4.2.1 (di struttura dell’equazione completa) Se x è una soluzione dell’equazione completa (4.1) allora tutte e sole le soluzioni dell’equazione completa stessa sono date da x = xo + x al variare di xo fra le soluzioni dell’equazione omogenea associata (4.2). 17 Il ` ´ determinante di una matrice A(t) = aij (t) si può esprimere come X det A(t) = (−1)σ aσ(1)1 (t)aσ(2)2 (t) . . . aσ(n)n (t), σ dove σ varia fra tutte le permutazioni dell’insieme {1, . . . , n} e (−1)σ indica il segno della permutazione σ. Allora l’usuale regola di derivazione del prodotto dà: n X X d det A(t) = (−1)σ aσ(1)1 (t) . . . a′σ(1)i (t) . . . aσ(n)n (t); dt i=1 σ P Ciascun addendo della somma i non è altro che il determinante della matrice ottenuta derivando soltanto la i-esima colonna Ai (t), quindi: n X ` ´ d det A(t) = det A1 (t) . . . A′i (t) . . . An (t) . dt i=1 73 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Dimostrazione. La dimostrazione ricalca quanto visto in merito alla Proposizione 3.2.1. Variazione delle costanti. Mostriamo come sia possibile individuare un integrale particolare xdell’equazione completa (4.1) una volta noto un insieme di n soluzioni linearmente indipendenti dell’equazione omogenea associata (4.2). Sia pertanto X una soluzione dell’equazione matriciale X ′ = A(t)X, con det X(t) 6= 0. Allora le soluzioni di (4.2) si esprimono come X(t)ξ al variare di ξ ∈ Rn . In analogia con quanto già svolto al § 3.2, cerchiamo x della forma x(t) = X(t)ξ(t), per un’opportuna funzione ξ. Questa deve alllora soddisfare X ′ ξ + Xξ ′ = AXξ + b, da cui, essendo X ′ = AX, ξ ′ (t) = X(t)−1 b(t). Come funzione ξ possiamo quindi scegliere una qualunque primitiva di X(t)−1 b(t): Z ξ(t) = X(t)−1 b(t) dt. Allora la famiglia delle soluzioni dell’equazione (4.2) diventa: Z x(t) = X(t) K + X(t)−1 b(t) dt (K ∈ Rn ), (X(t)K al variare di K ∈ Rn fornisce le soluzioni dell’equazione omogenea); la costante K può essere incorporata nell’integrale indefinito successivo. È significativo mettere in evidenza la matrice risolvente nell’espressione di x(t) ora determinata. Rt Fissato t0 ∈ I, sia ξ(t) = t0 X(s)−1 b(s) ds e x(t) = X(t) Z t X(s)−1 b(s) ds . t0 Ricordando la (4.9) abbiamo: x(t) = Z t R(t, s)b(s) ds. t0 Proposizione 4.2.2 La funzione x sopra definita è una soluzione del sistema lineare x′ = A(t)x+ b(t). t non nullo: Esempio Riprendiamo l’esempio precedente aggiungendo un termine b(t) = 0 x′1 = ωx2 + t . x′2 = −ωx1 Già abbiamo calcolato la matrice risolvente: si veda la (4.8). Scegliamo t0 = 0; otteniamo la soluzione Z t 1 (1 − cos ωt) Z t s cos ω(t − s) ds ω 2 . = 0 Z x(t) = R(t, s)b(s) ds = t 0 1 1 − s sin ω(t − s) ds − t − sin ωt 0 ω ω 74 Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI Se riprendiamo le soluzioni (4.5) del sistema omogeneo associato, concludiamo che le soluzioni del sistema proposto sono date da 1 x1 = c1 cos ωt + c2 sin ωt + 2 (1 − cos ωt) ω x = −c sin ωt + c cos ωt − 1 t − 1 sin ωt 2 1 2 ω ω al variare di c1 e c2 in R. 4.3 ESPONENZIALE DI UNA MATRICE Nel prossimo paragrafo vedremo come l’applicazione del metodo delle approssimanti successive per l’equazione omogenea x′ = Ax, con A matrice costante, porti alla considerazione della successione di funzioni: 1 1 (tA)m . t 7→ I + tA + (tA)2 + . . . + 2 m! Pertanto trattiamo preliminarmente il problema della convergenza di questo tipo di funzioni. Sia A ∈ M n×n (C) una matrice n × n ad elementi in C; questa induce in modo canonico un’applicazione lineare: x 7→ Ax : Cn → Cn . Definiamo kAk come la norma di tale operatore, cioè: kAk = max{|Ax| : |x| ≤ 1}. Le seguenti proprietà sono di verifica immediata. Proposizione 4.3.1 Siano A, B ∈ M n×n (C); allora a) |Ax| ≤ kAk |x|; b) kABk ≤ kAk kBk; c) kAm k ≤ kAkm . 2 Ricordiamo che in uno spazio finito-dimensionale (nel caso attuale M n×n (C) non è altro che Cn ) tutte le norme sono equivalenti. La nozione (topologica) di convergenza è pertanto indipendente dalla norma scelta. P∞ In particolare, data una successione (Ak ) in P M n×n (C), diciamo che k=0 Ak è convergente P∞ se m tale è la successione delle sue somme parziali Ak m . Diremo inoltre che la serie k=0 Ak k=0 P∞ converge assolutamente se è convergente la serie k=0 kAk k. Come per le serie numeriche, si dimostra che se una serie è assolutamente convergente allora è convergente (si utilizzi il criterio di Cauchy). Teorema 4.3.2 Data A ∈ M n×n (C), la serie ∞ X Ak k=0 k! converge assolutamente. Indichiamo la somma con eA . Risulta inoltre: keA k ≤ ekAk . 75 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Dimostrazione. La dimostrazione è immediata poiché Ak ≤ 1 kAkk k! k! e la serie di termine generale kAkk /k! converge a ekAk . Della funzione esponenziale reale la funzione ora introdotta conserva la proprietà fondamentale di trasformare la somma in prodotto. Più precisamente vale il seguente risultato. Teorema 4.3.3 Siano A, B ∈ M n×n (C). Se AB = BA allora eA+B = eA eB . Dimostrazione. Poiché A e B commutano possiamo utilizzare l’usuale sviluppo della potenza del binomio (A + B)k , per cui: e A+B = ∞ X (A + B)k k=0 k! ∞ k X 1 X k Aj B k−j = k! j=0 j k=0 ∞ X k X Aj B k−j = . j! (k − j)! j=0 k=0 Si ottiene la serie prodotto delle due serie assolutamente convergenti ∞ X Aj j=0 j! ∞ X Bh ; h! , h=0 come enunciato nel successivo lemma, la serie prodotto converge al prodotto delle due serie, e ciò conclude la dimostrazione. Lemma 4.3.4 Siano ∞ X ∞ X Aj , j=0 Bh h=0 due serie in M n×n (C) assolutamente convergenti. Allora la serie prodotto definita da: ∞ X k X Aj Bk−j k=0 j=0 è assolutamente convergente ed ha per somma il prodotto delle somme delle due serie fattore. Dimostrazione. Indichiamo con Ck il termine generale della serie prodotto. Chiaramente kCk k ≤ k X j=0 kAj kkBk−j k . P P Il secondo membro non è altro che il termine generale P della serie prodotto di kAj k e kBh k; P ne segue che kCk k è convergente, cioè che la serie Ck è assolutamente convergente, quindi 76 Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI h 2m j+h=k m (j,h) m 2m j Figure 4.1 - L’insieme degli indici (j, h) per i quali 0 ≤ j +h ≤ 2m si decompone in [0, m]2 e nei due triangoli rimanenti {m + 1 ≤ j ≤ 2m, 0 ≤ h ≤ 2m − j} e {m + 1 ≤ h ≤ 2m, 0 ≤ j ≤ 2m − h}. convergente. Pertanto è sufficente calcolare il limite delle somme parziali su una particolare successione. Fissato m ∈ N, se ripartiamo le coppie (j, h) di indici che compaiono in questa somma come indicato in Figura 4.1, abbiamo: 2m X Ck = k=0 2m X k X k=0 = Aj Bh j,h=0 j+h=k m X m X Aj Bh + R1m + R2m , j=0 h=0 dove 2m X R1m = 2m−j X R2m = Aj Bh , kR1m k ≤ Cosı̀ pure per R2m . Poiché 2m X j=m+1 kAj k Pm Pm 2m X k=0 j=0 h=0 Ck → ∞ X 2m−h X Aj Bh . h=m+1 j=0 j=m+1 h=0 Risulta: 2m X ∞ X h=0 kBh k → 0 per m → +∞. Pm Pm Aj Bh = ( j=0 Aj )( h=0 Bh ), concludiamo che Aj j=0 ∞ X Bh h=0 per m → +∞. Corollario 4.3.5 La matrice eA è invertibile e risulta (eA )−1 = e−A . Dimostrazione. I = e0 = eA−A = eA e−A . Notiamo infine che se P è una matrice invertibile, allora eP −1 AP = P −1 eA P. (4.12) Infatti (P −1 AP )k = P −1 Ak P per ogni k, per cui è sufficiente applicare la definizione. 77 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE 4.4 SISTEMI OMOGENEI AUTONOMI Consideriamo ora il caso di un sistema lineare omogeneo e autonomo: x′ = Ax. (4.13) Sappiamo che la matrice risolvente R(t, τ ) soddisfa alla condizione R(t, τ ) = R(t−τ, 0), per cui possiamo limitarci a calcolare R(t, 0), cioè (si ricordi l’Osservazione 4.1.7) la soluzione dell’equazione matriciale: ′ X = AX (4.14) X(0) = I. La formulazione integrale del problema diventa: X(t) = I + A Z t X(s) ds. 0 Applichiamo il metodo iterativo delle approssimanti successive (come utilizzato nel Teorema 2.1.3). Posto: Z t T : X 7→ I + A 0 X(s) ds : C 0 (I; M n×n ) → C 0 (I; M n×n ), consideriamo la successione: X0 (t) ≡ I X1 (t) = (T X0 )(t) = I + tA Z t 1 (I + sA) ds = I + tA + t2 A2 X2 (t) = (T X1 )(t) = I + A 2 0 ... 1 1 tm+1 Am+1 Xm+1 (t) = (T Xm )(t) = I + tA + t2 A2 + . . . + 2 (m + 1)! ... Per quanto visto nel paragrafo precedente la successione Xm (t) converge a P X(t) = etA . Inoltre la tA convergenza è uniforme sui compatti di R (se |t| ≤ M allora kXm(t)−e k ≤ k=m+1 (M kAk)k /k! → 0 per m → +∞). Pertanto dall’uguaglianza Xm+1 (t) = I + A Z t Xm (s) ds 0 ricaviamo che X è soluzione dell’equazione (4.14), quindi coincide con R(·, 0). Concludiamo che R(t, τ ) = e(t−τ )A . Riassumiamo quanto ottenuto nel seguente enunciato: Teorema 4.4.1 Comunque fissato τ ∈ R, la soluzione del problema di Cauchy ′ x = Ax x(τ ) = x0 è data da x(t) = e(t−τ )A x0 . 78 Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI Pertanto, la famiglia di tutte le soluzioni dell’equazione x′ = Ax è data dalle funzioni: x(t) = etA ξ al variare di ξ ∈ Rn . ∼·∼·∼·∼·∼·∼·∼ Come vedremo nel prossimo paragrafo, nel calcolo della matrice esponenziale sarà utile passare al calcolo dell’esponenziale di un’opportuna matrice simile, sfruttando quindi la relazione (4.12): se P è una matrice n × n invertibile, posto à = P −1 AP , abbiamo x(t) = etA ξ = P età P −1 ξ, cioè x(t) = P età C al variare di C ∈ Rn n (4.15) n (l’arbitrarietà di ξ in R si traduce nell’arbitrarietà di C ∈ R ). Possiamo anche interpretare questa relazione come il risultato di un cambiamento lineare di variabile nel sistema x′ = Ax; infatti, posto x = P x̃, il sistema diventa x̃′ = Ãx̃ con à = P −1 AP . Poiché x̃(t) = età C, ne scende ancora la (4.15). Sarà utile pensare alla matrice A come alla matrice associata a un operatore lineare T su uno spazio vettoriale di dimensione n rispetto a una data base B = (e1 , e2 , . . . , en ): ad esempio la base canonica su V = Cn e T = T A : x 7→ Ax : Cn → Cn . Ogni matrice à = P −1 AP viene di conseguenza interpretata come la matrice associata a T rispetto alla base B̃ = (ẽ1 , ẽ2 , . . . , ẽn ), dove P ẽj = i pij ei (si ricordi la relazione (4.46) in Appendice): se (e1 , e2 , . . . , en ) è la base canonica di Cn allora ẽj non è altro che la j-esima colonna della matrice P (vedi Osservazione 4.8.2 in Appendice). Esercizio. Dimostrare che se AB = BA allora AeB = eB A. Esercizio. a) Utilizzando la definizione di esponenziale dimostrare che ehA − I = A. h→0 h lim b) Mediante la definizione di derivata verificare che d tA e = etA A = AetA . dt Rimane cosı̀ verificato direttamente che etA x0 è soluzione dell’equazione x′ = Ax. 4.5 CALCOLO DELLA MATRICE ESPONENZIALE Data una matrice A ∈ M n×n (C), occupiamoci del calcolo di eA , o meglio di etA per t ∈ R. Si tratta quindi delle soluzioni del sistema x′ = Ax impostato, con ovvia estensione, in campo complesso. Porsi in C permette un’esposizione più nitida dei risultati, avendosi esattamente n autovalori (contati con la rispettiva molteplicità). In un secondo momento vedremo come sia possibile ottenere n 79 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE soluzioni reali linearmente indipendenti dell’equazione x′ = Ax nel caso in cui la matrice A sia a coefficienti reali. Vi sono due situazioni in cui la matrice eA può essere esprimibile facilmente in termini finiti. 1) A matrice diagonale In tal caso, per ogni k ∈ N k λ1 k .. A = . 0 Quindi A= 0 λkn , etA λ1 0 .. . 0 λn eA = per cui . ∞ X k k=0 tλ1 e = 0 0 .. . e tλn 2) A matrice nilpotente, cioè soddisfacente la proprietà A = k! eλ1 0 .. . eλn 0 . . (4.16) esiste s ∈ N tale che As = 0. In tal caso la serie che definisce eA si riduce ad una somma finita. Un esempio importante di questo tipo è il seguente (blocco nilpotente elementare): 0 1 0 ... 0 0 0 1 . . . 0 .. .. .. . . 0 (4.17) N = . . . . . . . . 1 0 0 0 ... 0 È facile vedere che N n = 0, mentre le potenze N k , con 2 ≤ k ≤ n − 1, sono date da: 0 0 0 ... ... 0 0 1 ... ... 0 0 0 0 0 0 0 0 ... 1 . . . 0 .. . . . . . .. .. ... .. . . 0 .. . n−1 2 = . N = . ... N .. .. .. .. .. .. . . . . 1 . . . . .. . . 0 .. .. 0 0 0 Allora la serie che definisce etN , si riduce a: 1 0 n−1 . X (tN )k etN = = .. . k! k=0 . . . .. 0 80 0 0 ... ... 0 t t2 2 1 t .. 0 . 0 ... ... t2 2 .. . .. . ... .. . .. . 1 ... ... 0 1 0 0 0 0 ... ... 0 tn−1 (n − 1)! .. . .. . . t2 2 t 1 (4.18) Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI ∼·∼·∼·∼·∼·∼·∼ Nel caso generale potremo ricondurci (essenzialmente) al calcolo di un’esponenziale che rientri in uno dei casi precedenti mediante il passaggio a un’opportuna matrice simile, utilizzando poi la relazione (4.12) (o meglio, ai fini della risoluzione del sistema differenziale, la (4.15)). Matrice diagonalizzabile La situazione più semplice è quello in cui la matrice A è diagonalizzabile (in C). In tal caso (si veda la Proposizione 4.8.8 e l’Osservazione 4.8.9 in Appendice), esiste una base di Cn formata da autovettori e la matrice P che ha nelle colonne gli elementi di tale base diagonaliza A, cioè P −1 AP è diagonale. Vediamo un esempio. Esempio. x′ (t) = Ax(t), Risulta: 1 −6 6 A = −3 4 −6 −3 6 −8 det(A − λI) = (1 − λ)(λ + 2)2 . Gli autovalori sono pertanto λ1 = 1, semplice, e λ2 = −2, di molteplicità algebrica 2. Determiniamo gli autospazi corrispondenti; si ha E(λ1 ) = hv1 i, v1 = (−1, 1, 1) E(λ2 ) = h{v2 , v3 }i, v2 = (2, 1, 0), v3 = (−2, 0, 1). Allora (vedi Proposizione 4.8.8) T : x 7→ Ax è diagonalizzabile, e nella base B̃ = (v1 , v2 , v3 ) la matrice associata è diagonale: 1 0 0 à = P −1 AP = 0 −2 0 , 0 0 −2 −1 2 −2 con P = (v1 | v2 | v3 ) = 1 1 0 1 0 1 (notiamo come non sia necessario il calcolo del prodotto P −1 AP ; si veda l’Osservazione 4.8.9). Posto x(t) = P y(t), risulta y ′ = Ãy, quindi y(t) = età C, Infine C ∈ C3 . et x(t) = P y(t) = (v1 | v2 | v3 ) 0 0 cioè 0 e−2t 0 x(t) = c1 et v1 + c2 e−2t v2 + c3 e−2t v3 , 0 c1 0 c2 . c3 e−2t c1 , c2 , c3 ∈ C. L’esempio ora esposto rientra nel seguente schema: 81 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Se la matrice A è diagonalizzabile (in C), detta B̃ = (v1 , v2 , . . . , vn ) una base di Cn formata da autovettori e P = (v1 | v2 | . . . | vn ) la matrice che ha nelle colonne gli elementi di B̃ (matrice che permette di passare dalla base canonica alla base B̃), si ha: λ1 0 , ... x(t) = P y(t), y(t) = età C, con à = C ∈ Cn . 0 λn Quindi: x(t) = c1 eλ1 t v1 + c2 eλ2 t v2 + . . . + cn eλn t vn , c1 , c2 , . . . , cn ∈ C. Notiamo come questo risultato possa essere verificato direttamente a posteriori osservando che ogni funzione eλk t vk è soluzione del sistema x′ = Ax poiché vk è un autovettore di A, e inoltre si tratta di soluzioni linearmente indipendenti in quanto la loro matrice wronskiana per t = 0 non è altro che la matrice P = (v1 | v2 | . . . | vn ). Osservazione 4.5.1 Se la matrice A è a elementi reali e le n funzioni che formano una base dello spazio vettoriale (su C) delle soluzioni dell’equazione omogenea x′ = Ax sono reali, allora le loro combinazioni lineari a coefficienti reali danno tutte e sole le soluzioni reali dell’equazione stessa (trattasi, infatti, di uno spazio di dimensione n su R). Caso generale Prima di affrontare la situazione generale consideriamo il caso in cui A ∈ M n×n (C) presenta il solo autovalore λ, con molteplicità algebrica n. Possiamo allora facilmente decomporre A nella somma di due matrici, che fra loro commutano e ricadono nei casi (1) e (2) sopra menzionati: A = λI + (A − λI). (4.19) Vale infatti il seguente risultato, che applichiamo all’operatore T : x 7→ Ax : Cn → Cn . Proposizione 4.5.2 Sia T : V → V un operatore lineare su uno spazio vettoriale V (su C) di dimensione n. Supponiamo vi sia soltanto l’autovalore λ (di molteplicità algebrica n). Allora esiste s ∈ N, con s ≤ n, tale che (T − λI)s = 0, cioè tale che V = ker(T − λI)s . Dimostrazione. Per il Lemma 4.8.10 (applicato a T − λI, che presenta 0 come unico autovalore), esiste s ≤ n per il quale Cn = ker(T − λI)s ⊕ Im(T − λI)s . Inoltre, T −λI non ha autovalori nulli su Im(T −λI)s : pertanto deve essere Im(T −λI)s = {0}. Pertanto la (4.19) decompone A in una parte diagonale e una nilpotente. Nel caso generale, indichiamo con λ1 , . . . , λq gli autovalori distinti di A con molteplicità m(λ1 ), . . . , m(λq ), rispettivamente. Il calcolo della matrice esponenziale sarebbe risolto nell’ipotesi di riuscire a decomporre Cn in somma diretta V1 ⊕ V2 ⊕ . . . ⊕ Vq mediante sottospazi T -invarianti in modo che T presenti un Vk solo autovalore λk (separazione degli autovalori): Cn = V1 ⊕ V2 ⊕ . . . ⊕ Vq , 82 T (Vk ) ⊆ Vk Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI T Vk Infatti: presenta solo l’autovalore λk . − rispetto a una base di Cn costruita come unione di basi dei singoli sottospazi Vk la matrice associata a T è diagonale a blocchi (vedi Proposizione 4.8.1); ogni blocco fornisce la matrice associata a T sul corrispondente sottospazio; − per ogni k è possibile applicare a T la decomposizione corrispondente alla (4.19) . Vk Notiamo che, in base alla Proposizione 4.5.2, s se tale decomposizione esiste deve necessariamente valere l’uguaglianza Vk = ker T − λk I per un qualche s ≤ dim Vk . Vk Si dimostra che una decomposizione con le proprietà dette esiste: si tratta della decomposizione in autospazi generalizzati (vedi Proposizione 4.8.12 e Teorema 4.8.13 nell’Appendice a questo capitolo). Lo schema è quindi il seguente: Detti λ1 , . . . , λq gli autovalori distinti, si indichi con B̃k una base dell’autospazio generalizzato E ′ (λk ) (per k = 1, . . . , q), la cui dimensione è pari alla molteplicità m(λk ). Allora nella base B̃ = B̃1 ∪ . . . ∪ B̃q la matrice associata all’operatore T è data da (vedi (4.53) in Appendice): à 1 Ã2 , (4.20) à = P −1 AP = Ã3 .. . Ãq dove P è la matrice le cui colonne sono formate, ordinatamente, dagli elementi della base B̃; la nella base B̃k . matrice Ãk risulta essere la matrice associata a T ′ E (λk ) La decomposizione Ãk = λk I + Nk , dove Nk = Ãk − λk I, esprime Ãk come somma di una matrice diagonale e una nilpotente (Nk è la matrice associata a (T − λk I) ′ nella base B̃k ). Pertanto risulta: E (λk ) h i 1 1 etÃk = eλk t I + tNk + (tNk )2 + . . . + (tNk )s−1 . 2 (s − 1)! (4.21) dove s ≤ m(λk ) è tale che Nks = 0. La matrice P permette poi di passare alla soluzione x(t) (vedi la (4.15)). Anche in questo contesto vale quanto affermato nell’Osservazione 4.5.1. Vediamo un esempio. Esempio (I parte) Risolvere il seguente sistema lineare: −4 1 3 x′ (t) = Ax(t), A = 2 −2 −2 −3 1 2 83 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Risulta: det(A − λI) = −(λ + 1)2 (λ + 2). Gli autovalori sono pertanto λ1 = −2, semplice, e λ2 amo gli autospazi corrispondenti; si ha −2 A − λ1 I = 2 −3 e il sistema (A − λ1 I)x = 0 dà: 1 3 0 −2 ; 1 4 nx = x 1 3 x2 = −x3 . Pertanto: E(λ1 ) = hv1 i, Passiamo a λ2 : = −1, di molteplicità algebrica 2. Consideri- 1 con v1 = −1 . 1 −3 1 3 A − λ2 I = 2 −1 −2 , −3 1 3 quindi il rango di A − λ1 I è 2 e dim E(λ2 ) = 3 − 2 = 1 < m(λ2 ). Allora (vedi Proposizione 4.8.8) T : x 7→ Ax non è diagonalizzabile. Utilizziamo allora la decomposizione di C3 mediante gli autospazi generalizzati (Teorema 4.8.13): C3 = E ′ (λ1 ) ⊕ E ′ (λ2 ). Risulta E ′ (λ1 ) = E(λ1 ) poiché dim E(λ1 ) = m(λ1 ) (molteplicità algebrica). Determiniamo l’autospazio generalizzato E ′ (λ2 ). Risulta: 2 −1 −2 2, (A − λ2 I)2 = −2 1 2 1 −2 Allora il rango di (A − λ2 I)2 è 1, e quindi dim ker(A − λ2 )2 = 2; se ricordiamo che dim E ′ (λ2 ) = m(λ2 ) = 2, concludiamo che E ′ (λ2 ) = ker(A − λ2 I)2 . (del resto (vedi Proposizione 4.8.12) E ′(λ2 ) = ker(A−λ2 I)s per un opportuno s ≤ dim E ′ (λ2 ) = 2, per cui deve essere s = 2). Il sistema (A − λ2 I)2 x = 0 si riduce all’equazione 2x1 − x2 − 2x3 = 0, per cui E ′ (λ2 ) = hv2 , v3 i, Posto P = (v1 | v2 | v3 ) si ottiene: 2 −1 −2 2 P −1 = −1 1 −2 1 3 84 1 0 con v2 = 2 e v3 = −2. 0 1 −2 0 0 e à = P −1 AP = 0 −2 1 0 −1 0 Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI (anziché mediante calcolo diretto la matrice à può essere ottenuta esprimendo le immagini dei vettori di base v1 , v2 , v3 come combinazione lineare della base stessa).18 Come ci si aspettava (vedi (4.20)), la matrice à è diagonale a blocchi. La matrice −2 1 Ã2 = −1 0 è la matrice associata a T ′ nella base (v2 , v3 ). Decomponiamo Ã2 come: E (λ2 ) Ã2 = λ2 I + (Ã2 − λ2 I) = −I + −1 1 =: −I + N. −1 1 La matrice N è nilpotente: come subito si verifica N 2 = 0. Allora: 1−t etÃ2 = e−tI etN = e−t I(I + tN ) = e−t −t t . 1+t Quindi: e tà = e−2t etÃ2 ! = e−2t e−t 1−t t −t 1+t Infine x(t) = P y(t)C al variare di C = (c1 , c2 , c3 ) ∈ R3 , cioè: ! x(t) = e−2t v1 | e−t [(1 − t)v2 − tv3 ] | e−t [tv2 + (1 + t)v3 ] C = c1 e−2t v1 + c2 e−t [v2 − (v2 + v3 )t] + c3 e−t [v3 + (v2 + v3 )t]. (4.22) Come si vede, secondo quanto indicato dal Teorema 4.5.4, si tratta delle combinazioni lineari di soluzioni della forma eλt p(t) con λ autovalore di A e p(t) polinomio a coefficienti in R3 . Esempio (II parte) Il calcolo della matrice Ã2 associata all’operatore T sullo spazio E ′ (λ2 ) può essere semplificato scegliendo opportunamente una base di E ′ (λ2 ). Sia w1 un autovettore relativo all’autovalore λ2 = −1: poiché ker(T − λ2 I) = {(t(1, 0, 1) : t ∈ R}, assumiamo 1 w1 = 0 . 1 Cerchiamo ora una controimmagine di w1 tramite T − λ2 I: chiaramente, se un tale w2 esiste, deve appartenere a ker(T − λ2 I)2 = E ′ (λ2 ). Risolvendo il sistema ( −3x1 + x2 + 3x3 = 1 2x1 − x2 − 2x3 = 0 −3x1 + x2 + 3x3 = 1 si ottiene x = {(t − 1, −2, t) : t ∈ R}. Sia −1 w2 = −2 . 0 18 Chiaramente risulta Av1 = −2v1 ; inoltre: 0 1 −2 Av2 = @−2A = −2v2 − v3 ; −1 Av2 = v2 . Pertanto le colonne di à sono (1 − 2, 0, 0)T , (0, −2, −1)T e (0, 1, 0)T . 85 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE È facile vedere che, rispetto alla base (w1 , w2 ), la matrice associata all’operatore (T − λ2 I) diventa N= 0 0 E ′ (λ2 ) 1 ; 0 infatti w1 e w2 hanno componenti (1, 0) e (0, 1), rispettivamente, e le componenti in (w1 , w2 ) delle loro immagini, cioè le colonne di Ã2 , devono essere (0, 0) e (0, 1), rispettivamente (poiché (T − λ2 I)w1 = 0 e (T − λ2 I)w2 = w1 ). Pertanto −1 1 λ2 1 = . Ã2 = 0 −1 0 λ2 Il calcolo dell’esponenziale di Ã2 = λ2 I + N è quindi particolarmente semplice (N 2 = 0): t λ2 t tN −t −t 1 tÃ2 . = e e = e (I + tN ) = e e 0 1 Posto P = (v1 | w1 | w2 ) e x = P y, risulta: ! c1 e−2t c2 = y(t) = etÃ2 c3 e−2t da cui: ! c1 c2 , −t 1 t e (0 1) c3 c1 x(t) = e−2t v1 | e−t w1 | e−t (tw1 + w2 ) c2 c3 = c1 e−2t v1 + c2 e−t w1 + c3 e−t (tw1 + w2 ). È facile vedere che si tratta della stessa famiglia di funzioni data dalla (4.22). Infatti quest’ultima può essere riscritta utilizzando, anziché le funzioni u1 = e−2t v1 , u2 = e−t [v2 − (v2 + v3 )t], u3 = e−t [v2 + (v2 + v3 )t], le seguenti: u1 , u2 , u2 + u3 . Se teniamo conto che v2 = −w1 , v3 = w1 + w2 , risulta u2 = (−w1 t − w2 )e−t , u2 + u3 = w1 e−t , da cui l’asserita uguaglianza delle due famiglie di funzioni. Osservazione 4.5.3 Il procedimento seguito nella seconda parte dell’esempio precedente per costruire una base dell’autospazio generalizzato ha portato a una matrice, relativamente a quell’autospazio, della forma λ 1 0 1 = λI + N, con N = . 0 λ 0 0 La struttura di N è quella del blocco nilpotente elementare introdotto nella (4.17). In generale. il procedimento descritto porta ad una matrice associata a T per la quale in corrispondenza ad ogni 86 Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI autospazio generalizzato E ′ (λ) compare uno o più blocchi della forma λ 1 0 λ 1 . . . . . . 0 = λI + N, à = . . . 1 0 λ (4.23) con N come in (4.17). Si tratta della cosiddetta forma canonica di Jordan della matrice (si veda l’Appendice a questo capitolo, in particolare l’Osservazione 4.8.17). Sfruttiamo ora i risultati ottenuti per dare un utile risultato di struttura per le soluzioni. La matrice etÃk nella (4.21) è espressa come polinomio in t i cui coefficienti sono matrici mk ×mk , dove mk = m(λk ) = dim E ′ (λk ). Estendiamo questi coefficienti a una matrice n × n completando opportunamente con righe e colonne nulle: in particolare, se indichiamo con i1 , . . . , imk gli indici delle colonne di à che contengono il blocco Ãk , in tale estensione sono nulle tutte le colonne di indice i con i 6= i1 , . . . , imk . La struttura a blocchi di à consente allora di esprimere età nel seguente modo: età = eλ1 t M1 (t) + eλ2 t M2 (t) + . . . + eλq t Mq (t), dove Mk (t): polinomio di grado al più m(λk ) − 1 a coefficienti in M n×n (C); ogni colonna di indice i 6= i1 , . . . , imk dei coefficienti di Mk (t) è nulla. In particolare, il fattore eλk t compare solo nelle colonne di indice i1 , . . . , imk nella matrice età . Questa proprietà di struttura si conserva passando alla matrice P età . Concludiamo pertanto con il seguente teorema. Teorema 4.5.4 Le soluzioni dell’equazione x′ = Ax sono tutte e sole le combinazioni lineari di n opportune soluzioni della forma eλt p(t), (4.24) dove λ è autovalore (in C) di A e p(t) è un polinomio in t a coefficienti in Cn di grado al più m(λ) − 1 (con m(λ) molteplicità algebrica di λ). Ne risulta confermato, in particolare, che le soluzioni sono di classe C ∞ . Quanto asserito nel Teorema 4.5.4 risulta particolarmente evidente utilizzando la forma (4.54) di Jordan della matrice. Consideriamo il semplice caso in cui vi sia un solo blocco, relativo all’autovalore λ, come nella (4.23). Utilizzando la decomposizione in parte diagonale e parte nilpotente abbiamo . . . Quindi: 1 1 età = eλt I + tN + (tN )2 + . . . + (tN )n−1 . 2 (n − 1)! Se (v1 , v2 , . . . , vn ) è la base rispetto a cui T (x) = Ax è rappresentato da Ã, allora le soluzioni dell’equazione x′ = Ax hanno la forma: x(t) = c1 eλt v1 + + c2 eλt (v1 t + v2 )+ 1 + c3 eλt ( t2 v1 t + tv2 + v3 )+ 2 ... 1 tn−1 v1 + . . . + tvn−1 + vn ), + cn−1 eλt ( (n − 1)! (4.25) 87 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE al variare di c1 , c2 , . . . , cn ∈ R. Soluzioni reali Nel caso in cui la matrice A del sistema, a elementi reali, abbia tutti gli autovalori reali, il procedimento sopra illustrato può essere svolto in campo reale ottenendo una base reale per lo spazio delle soluzioni. Supponiamo, invece, che gli autovalori non siano necessariamente tutti reali: λ1 , λ2 , . . . , λr ∈ R µ1 , . . . , µl , µ1 , . . . , µl ∈ C \ R (se l = 0 o r = 0 intenderemo che gli autovalori sono tutti in R o in C \ R, rispettivamente). La forma matriciale (4.20) può essere ottenuta in campo complesso utilizzando per ciascun autospazio E ′ (λk ) una base in generale complessa. Per ogni coppia µ, µ di autovalori non reali possiamo considerare basi di E ′ (µ) e E ′ (µ) fra loro coniugate. È facile vedere che in tal caso le soluzioni linearmente indipendenti della forma (4.24) ottenute in corrispondenza agli autovalori complessi µ e µ si presentano a coppie coniugate: u(t) = eµt p(t), u(t) = eµt p(t), con p(t) polinomio a coefficienti in Cn di grado al più m(µ) − 1. Osserviamo che anche le funzioni: ℜu(t) = 1 1 [u(t) + u(t)], ℑu(t) = [u(t) − u(t)], 2 2i (4.26) sono soluzioni di x′ = Ax; viene inoltre mantenuta l’indipendenza lineare, per cui otteniamo una base reale per lo spazio delle soluzioni. Posto r(t) = ℜp(t) e s(t) = ℑ(p(t), cioè p(t) = r(t) + is(t), risulta: ℜu(t) = (r(t) cos βt − s(t) sin βt)eαt , ℑu(t) = (r(t) sin βt + s(t) cos βt)eαt . Si ottiene quindi il seguente risultato (si noti che per β = 0 si recuperano gli elementi della base corrispondenti agli autovalori reali): Teorema 4.5.5 Le soluzioni dell’equazione x′ = Ax sono combinazioni lineari di funzioni della forma eαt p(t) cos βt, eαt q(t) sin βt, dove µ = α + iβ varia fra gli autovalori di A e p(t), q(t) sono polinomi in t a coefficienti in Rn di grado al più m(µ) − 1 (con m(µ) molteplicità algebrica di µ). Alternativamente, rispetto alla considerazione delle parti reale e immaginaria di cui alla (4.26), è possibile utilizzare direttamente una base reale di E ′ (µ) ⊕ E ′ (µ) considerando parte reale e parte immaginaria degli elementi di una base di E ′ (µ). Vediamo dapprima il tutto nel caso generale bidimensionale. Sia A ∈ M 2×2 (R) con autovalori µ = α + iβ, µ = α − iβ (β 6= 0). Sia w un autovettore relativo a µ (e quindi w autovettore relativo a µ). Nella base (w, w) di C2 (= E(µ) ⊕ E(µ)) la matrice associata a T : x 7→ Ax è diagonale: µ 0 S= . (4.27) 0 µ 88 Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI Pertanto si ottengono le seguenti soluzioni fra loro coniugate (sono le colonne della matrice P etS , dove P = (w | w)): u(t) = weµt , u(t) = weµt . Posto z = ℜw, quindi: ζ = ℑw, si ha: u(t) = eαt (cos βt)z − (sin βt)z + i (sin βt)z + (cos βt)ζ ; ℜu(t) = eαt (cos βt)z − (sin βt)ζ , ℑu(t) = eαt (sin βt)z + (cos βt)ζ . Le loro combinazioni lineari danno le soluzioni di x′ = Ax. Alternativamente, possiamo procedere utilizzando la base reale (z, ζ) per C2 . Poiché 1 z = (w + w) 2 ζ = 1 (w − w) 2i la matrice di passaggio dalla base (w, w) alla (z, ζ) è (si vedano la (4.46) e la (4.49)): Q= T 1/2 1/2 . 1/(2i) −1/(2i) Allora, nella base (z, ζ) la matrice associata a T è: Bµ := Q−1 SQ = β . α α −β (4.28) Pertanto, la posizione x = P y, con P = (z | ζ) dà il sistema equivalente nella forma canonica: y ′ = Bµ y, con Bµ = Calcoliamo la matrice esponenziale etBµ . Poiché α 0 0 Bµ = + 0 α −β α −β β . α β , 0 abbiamo e tBµ tn t2 = e (I + tH + H 2 + . . . + H n + . . .), con H = 2 n! αt 0 −β β . 0 Svolgendo i calcoli si ottiene: t2 t4 t3 t5 t− + + ... 1 − 2 + 4! − . . . 3! 5! cos βt sin βt etH = = . − sin βt cos βt t3 t5 t2 t4 −t + − + . . . −1 + − + . . . 3! 5! 2 4! 89 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Quindi: e “ ” α β t −β α = eαt cos βt sin βt . − sin βt cos βt (4.29) Da qui le soluzioni del sistema y ′ = Bµ y, e quindi, passando a x = (z | ζ)y, quelle del sistema x′ = Ax: si vede immediatamente che si ritrova l’espressione ottenuta sopra. ∼·∼·∼·∼·∼·∼·∼ Prima di svolgere alcuni esempi, vediamo come, nel caso generale, la considerazione di una base reale di E ′ (µ) ⊕ E ′ (µ), ottenuta passando alle parti reale e immaginaria degli elementi di una base di E ′ (µ), si riflette sul calcolo della matrice esponenziale. Sia (w1 , w2 , . . . , wm ) una base di E ′ (µ) e sia õ la matrice associata a T ′ in tale base; e sia E (µ) õ associata a T ′ rispetto alla base (w 1 , w 2 , . . . , wm ) di E ′ (µ) (si ottiene la matrice coniugata E (µ) è della precedente). Quindi la matrice associata a T ′ ′ E (µ)⊕E (µ) à = õ õ ! . Sappiamo che le matrici õ − µI e õ − µI sono nilpotenti. Allora tale è anche la matrice N = à − S, con S = µI µI . (4.30) Pertanto, la decomposizione à = S + N esprime à come somma di una parte diagonale e una nilpotente. Indichiamo ora con ÃE ′ (µ)⊕E ′ (µ) la matrice associata a T ′ rispetto alla base reale ′ E (µ)⊕E (µ) ℜw1 , ℑw1 , . . . , ℜwm , ℑwm . (4.31) Come nel caso bidimensionale studiato poco sopra (si veda il passaggio dalla (4.27) alla (4.28), non è difficile rendersi conto che in tale base la parte diagonale S della decomposizione (4.30) diventa: Bµ Bµ α β Dµ = , con B = (µ = α + iβ), µ .. −β α . Bµ cioè la matrice quadrata di ordine 2m che ha sulla diagonale il blocco Bµ ripetuto m volte. Pertanto: ÃE ′ (µ)⊕E ′ (µ) = Dµ + (ÃE ′ (µ)⊕E ′ (µ) − Dµ ) (4.32) decompone ÃE ′ (µ)⊕E ′ (µ) nella somma di una matrice diagonale a blocchi, di cui è immediato il calcolo dell’esponenziale (si ricordi la (4.29)), e una matrice nilpotente. Osservazione 4.5.6 Parallelamente a quanto accennato nell’Osservazione 4.5.3, scegliendo opportunamente la base (w1 , w2 , . . . , wm ) di ciascun E(µ), la matrice associata dà la cosiddetta forma canonica reale della matrice A (rimandiamo ulteriori dettagli all’Appendice di questo capitolo). 90 Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI Esempio. x′ (t) = Ax(t), Gli autovalori sono: 4 5 −10 −3 0 −1 6 0 . A= 0 0 2 0 15 15 −30 −8 λ1 = −1, λ2 = 2, µ = −2 + 3i, µ = −2 − 3i. Allora A è semisemplice (diagonalizzabile in C). Una base di autovettori di C4 , relativi a λ1 , λ2 , µ, µ, rispettivamente, è: v1 = (1, −1, 0, 0) v2 = (0, 2, 1, 0) w = (1, 0, 0, 2 − i) w = (1, 0, 0, 2 + i). Rispetto a questa base sappiamo che la matrice associata è: −1 0 0 0 0 2 0 0 à = . 0 0 −2 + 3i 0 0 0 0 −2 − 3i Si ottengono allora le quattro soluzioni linearmente indipendenti (si tratta delle colonne della matrice P età , dove P = (v1 | v2 | w | w)): v1 e−t , v2 e2t , we(−2+3i)t , we(−2−3i)t . Sostituiamo le ultime due con le funzioni: cos 3t 0 , ℜ(we(−2+3i)t ) = 0 2 cos 3t + sin 3t Allora: sin 3t 0 . ℑ(we(−2+3i)t ) = 0 − cos 3t + 2 sin 3t c1 e−t + [c3 cos 3t + c4 sin 3t]e−2t −c1 e−t + 2c2 e2t x(t) = c2 e2t [c3 (2 cos 3t + sin 3t) + c4 (2 sin 3t − cos 3t)]e−2t al variare di c1 , c2 , c3 , c4 ∈ R. In modo equivalente è possibile ottenere le soluzioni passando tramite la matrice associata a T nella base reale ottenuta considerando le parti reale e immaginaria di w (infatti (ℜw, ℑw) è una base reale di E(µ) ⊕ E(µ)); posto quindi P = (v1 | v2 | ℜw | ℑw), svolgendo i calcoli si ha: −1 0 −1 à = P AP = 0 0 0 2 0 0 0 0 −2 −3 0 0 . 3 −2 91 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Del resto, la matrice à è ottenibile anche senza eseguire esplicitamente il prodotto P −1 AP , in quanto ricade nel caso bidimensionale di cui alla matrice (4.28). Allora, il blocco relativo a T ′ ′ E (µ)⊕E (µ) tenendo conto della (4.29), Infine: e−t e2t età = e−2t . cos 3t sin 3t − sin 3t cos 3t c1 x(t) = P età c2 c3 = c1 e−t v1 + c2 e2t v2 + c3 e−2t [(cos 3t)ℜw − (sin 3t) Im w] + c4 e−2t [(sin 3t)ℜw + (cos 3t) Im w], che coincide con l’espressione precedentemente trovata per le soluzioni. Esempio. 0 1 1 0 −2 3 10 2 A= 1 −1 −2 0 . −2 1 0 −1 x′ (t) = Ax(t), Gli autovalori di A sono ±i con molteplicità algebrica 2. Come si verifica facilmente, il rango di A − iI è 3, per cui l’autospazio relativo a i (e quindi anche quello relativo a −i) ha dimensione 1: la matrice non è diagonalizzabile in C. Calcoliamo gli autospazi generalizzati; risulta: −2 2 − 2i 8 − 2i 2 4i −2 − 6i 8 − 20i 4 − 4i (A − iI)2 = −2i 2i −6 + 4i −2 4i −2i 8 2 + 2i e E ′ (i) = ker(A − iI)2 (infatti, per la Proposizione 4.8.12, E ′ (i) = ker(A − iI)s per un opportuno s ≤ dim E ′ (i) = 2, per cui deve essere s = 2). Le soluzioni del sistema (A − iI)2 x = 0 sono date da: x = (−2 + i)s − t 1 x2 = −(4 + 2i)s − (1 + i)t s, t ∈ C. x3 = s x4 = t ′ Allora una base di E (i) è: w1 = (−2 + i, −4 − 2i, 1, 0), w2 = (−1, −1 − i, 0, 1), mentre w1 , w2 formano una base per E ′(−i). Determiniamo la matrice di rappresentazione valutando l’immagine dei vettori di base; risulta: Aw1 = (−3 − 2i, 2 − 8i, 3i, −4i) = 3iw1 − 4iw2 Aw2 = (−1 − i, 1 − 3i, i, −i) = iw1 − iw2 . Allora 92 3i i −4i −i à = −3i −i 4i i . Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI Posto B= 3i i i = −4i −i 0 0 2i i + i −4i −2i il secondo addendo risulta nilpotente (a quadrato nullo), per cui: it tB it 1 + 2it e =e . −4it 1 − 2it Quindi: età 1 + 2it it it −4it 1 − 2it =e 1 − 2it −it 4it 1 + 2it Ne risultano le quattro soluzioni linearmente indipendenti . eit p(t), eit q(t), e−it p(t), e−it q(t), dove: p(t) = (1 + 2it)v1 − 4itv2 = v1 + 2i(v1 − 2v2 )t = (−2 + i − 2t, −4 − 2i − 4it, 1 + 2it, −4it), q(t) = itv1 + (1 − 2it)v2 = v2 + i(v1 − 2v2 )t = (−1 − t, −1 − i − 2it, it, 1 − 2it). Come indicato in (4.26), passando alle parti reali e immaginarie delle soluzioni cosı̀ trovate possiamo ottenere una base reale: cos t − 2(1 + t) sin t −2(1 + t) cos t − sin t −2(1 + 2t) cos t − 4 sin t −4 cos t + 2(1 + 2t) sin t , , u2 (t) = u1 (t) = 2t cos t + sin t cos t − 2t sin t −4t cos t 4t sin t −(1 + t) cos t −(1 + t) sin t − cos t + (1 + 2t) sin t − sin t − (1 + 2t) cos t , . u3 (t) = u4 (t) = −t sin t t cos t cos t + 2t sin t −2t cos t + sin t Come nell’esempio precedente calcoliamo le soluzioni anche passando tramite la matrice associata a T nella base reale ottenuta da una base di E ′ (i) prendendone le parti reale e immaginaria. Consideriamo i vettori w1 , w2 sopra determinati e, come base di E ′ (i) ⊕ E ′ (−i), ℜw1 , Im w1 , ℜw2 , Im w2 . Sia −2 1 −1 0 −4 −2 −1 −1 . P = (ℜw1 | Im w1 | ℜw2 | Im w2 ) = 1 0 0 0 0 0 1 0 La matrice associata a T è ÃE ′ (i)⊕E ′ (−i) 0 3 −3 0 −1 = P AP = 0 −4 4 0 0 1 −1 0 . 0 −1 1 0 93 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Posto 0 1 −1 0 D= 0 1 −1 0 , sappiamo che la matrice ÃE ′ (i)⊕E ′ (−i) − D è nilpotente (vedi la (4.32)): 0 2 0 1 −2 0 −1 0 M := AE ′ (i)⊕E ′ (−i) − D = 0 −4 0 −2 ; 4 0 2 0 risulta M 2 = 0. Inoltre (vedi la (4.29)) “ ” t 0 1 e −1 0 = cos t − sin t sin t . cos t Quindi: h i exp tÃE ′ (i)⊕E ′ (−i) = etD (I + tM ) cos t sin t − sin t cos t = 1 2t 0 t −2t 1 −t 0 ; 0 −4t 1 −2t cos t sin t − sin t cos t 4t 0 2t 1 h i Infine, una base dello spazio delle soluzioni è data dalle colonne della matrice P exp tÃE ′ (i)⊕E ′ (−i) : svolgendo i calcoli si ottengono le soluzioni u1 , u2 , u3 e u4 sopra menzionate. 4.6 EQUAZIONI SCALARI LINEARI DI ORDINE SUPERIORE Sia I un intervallo reale aperto e a0 , a1 , . . . , an e f funzioni continue in I. Sia L : C n (I) → C 0 (I) l’operatore differenziale definito da: (Lx)(t) = n X ak (t)x(k) (t) (4.33) k=0 (n) = an (t)x ′ (t) + . . . + a1 (t)x (t) + a0 (t)x(t). Consideriamo l’equazione Lx = f, (4.34) Lx = 0. (4.35) e l’equazione L’equazione (4.35) è detta equazione omogenea associata alla (4.34); di conseguenza ci si riferisce a volte alla (4.34) come all’equazione completa. Poiché L è lineare, sussiste il medesimo risultato di struttura enunciato nella Proposizione 3.2.1 per le equazioni lineari del primo ordine, cioè: Proposizione 4.6.1 L’insieme delle soluzioni dell’equazione omogenea (4.35) è un sottospazio vettoriale di C n (I) di dimensione n. L’insieme delle soluzioni dell’equazione (4.34) può essere rappresentato nella forma: x + V, 94 Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI dove x è una qualunque soluzione dell’equazione (4.34) stessa. Supporremo che il coefficiente an non si annulli mai in I, in modo che l’equazione sia effettivamente di ordine n. Come sappiamo, l’equazione (4.34) può essere trasformata in sistema equivalente ponendo: x0 = x, x1 = x′ , x2 = x′′ , . . . , xn−1 = x(n−1) . Si ottiene cioè ′ x0 = x1 x′ = x 2 1 x′ = x 3 2 . .. ′ xn−2 = xn−1 f 1 x′n−1 = − [an−1 xn−1 + an−2 xn−2 + . . . + a1 x1 + a0 x0 ] + an an (4.36) x′ = Ax + b con 0 0 .. . A= 0 a0 − an 1 0 0 1 .. . .. . 0 ... 1 an−1 − an 0 0 .. . b= . 0 f an (4.37) Se x1 , . . . , xn sono n soluzioni dell’equazione (4.35), la matrice wronskiana delle corrispondenti soluzioni del sistema (4.36), per f ≡ 0, cioè (n−1) (x1 , x′1 , . . . , x1 ), . . . (xn , x′n , . . . , xn(n−1) ), è detta matrice wronskiana, e il suo determinante è detto determinante wronskiano, delle soluzioni x1 , x2 , . . . , xn : x1 (t) ... xn (t) .. .. w(t) = det . . . (n−1) x1 (t) . . . xn(n−1) (t) Sappiamo che w(t) non si annulla mai in I o è ivi identicamente nullo. Il Teorema di Liouville assume ora la forma Z ta n−1 (s) w(t) = w(τ ) exp − ds , an (s) τ poiché tr A = −an−1 (s)/an (s). Proposizione 4.6.2 Siano x1 , . . . , xn elementi di V (cioè soluzioni di (4.35)) e sia t0 ∈ I. Allora x1 , x2 , . . . , xn sono l.i. in V se e solo se w(t0 ) 6= 0. 95 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Dimostrazione. Conviene dimostrare che x1 , x2 , . . . , xn sono l.d. (in V ) se e solo se w(t0 ) = 0. Siano x1 , x2 , . . . , xn l.d. (in V ): esistono α1 , α2 , . . . , αn valori reali non tutti nulli per i quali α1 x1 + . . . + αn xn ≡ 0 Per derivazione si ottiene in I. (k) α1 x1 + . . . + αn x(k) n ≡ 0 Allora le funzioni (n−1) ui = (xi , x′i , . . . , xi ), in I. (i = 1, . . . , n), che sono soluzioni di (4.36), sono l.d., per cui il loro determinante wronskiano, che è w(t), è identicamente nullo. Viceversa, se w(t0 ) = 0, allora sono l.d. (in Rn ) i vettori ui (t0 ) per i = 1, . . . , n (le ui sono definite come sopra). Il Corollario 4.1.2 assicura allora che u1 , . . . , un sono l.d.; in particolare lo sono x1 , . . . , xn . Parallelamente a quanto svolto per i sistemi del primo ordine, prima di passare alla determinazione di una n-upla di soluzioni linearmente indipendenti dell’equazione omogenea (per la quale considereremo essenzialmente solo il caso dei coefficienti costanti), vediamo come si traduce il metodo di variazione delle costanti illustrato nel § 4.2 per i sistemi. Siano x1 , . . . , xn soluzioni linearmente indipendenti dell’equazione (4.35). Sia X(t) la corrispondente matrice wronskiana, che è soluzione del sistema X ′ = A(t)X, con A come in (4.37). Sappiamo che la matrice risolvente del sistema x′ = A(t)x è R(t, s) = X(t)X(s)−1 e che una soluzione particolare di x′ = A(t)x + b(t) è data da Z t R(t, s)b(s) ds. x(t) = t0 La prima componente y di x sarà soluzionedell’equazione (4.34). Teniamo conto che b(s) = f (s)/an (s) en , per cui x(t) = Z t r(t, s)f (s) ds, (4.38) t0 con r(t, s) = 1 T e X(t)X(s)−1 en . an (s) 1 Indicata con (xij (·)) la matrice X(·) e ricordando l’espressione della matrice inversa X(s)−1 , risulta: r(t, s) = 1 1 x1i (t) αi (s), an (s) w(s) dove αi (s) è il complemento algebrico dell’elemento xni (s) della matrice X(s). È immediato verificare che (si sviluppi secondo l’ultima riga): x1 (s) ... xn (s) ′ x1 (s) ... x′n (s) 1 .. .. (4.39) r(t, s) = . . w(s)an (s) (n−2) (n−2) x (s) . . . xn (s) 1 x (t) ... xn (t) 1 96 Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI Riassumiamo quanto ottenuto: Proposizione 4.6.3 La funzione x definita in (4.38), con r(t, s) dato dalla (4.39), è una soluzione particolare dell’equazione completa (4.34). La funzione r(t, s) è detta nucleo risolvente dell’equazione (4.34). 4.7 EQUAZIONI A COEFFICIENTI COSTANTI Equazione omogenea. Occupiamoci di determinare n soluzioni linearmente indipendenti dell’equazione omogenea (4.35). Individuiamo gli autovalori della matrice A in (4.37). Consideriamo il determinante: −λ 1 0 ... 0 0 −λ 1 ... 0 0 0 −λ . . . 0 .. . det(A − λI) = 0 . . . 1 a − 0 − a1 . . . . . . − an−1 − λ an an an Sviluppando secondo l’ultima riga otteniamo: a0 a1 a2 + (−1)n+2 − (−λ) + (−1)n+3 − (−λ)2 an an an an−2 (−λ)n−2 + . . . + (−1)n+n−1 − an an−1 − λ (−λ)n−1 + (−1)n+n − an (−1)n = a0 + a1 λ + a2 λ2 + . . . + an−2 λn−2 + an−1 λn−1 + an λn . an det(A − λI) = (−1)n+1 − L’equazione P (λ) := an λn + an−1 λn−1 + an−2 λn−2 + . . . + a1 λ + a0 = 0 è detta equazione caratteristica dell’equazione (4.35); il polinomio a primo membro è detto polinomio caratteristico e le sue radici danno gli autovalori della matrice A, con le corrispondenti molteplicità. Indichiamo con λ1 , λ2 , . . . , λq le radici distinte di P (λ), con molteplicità m1 , . . . , mk , rispettivamente. Dalla teoria svolta per i sistemi lineari a coefficienti costanti deduciamo che le soluzioni dell’equazione (4.35), considerata in campo complesso, sono combinazioni lineari delle funzioni tj eλk t (k = 1, . . . , q, j = 0, . . . , mk − 1). (4.40) Notiamo come si tratti di un insieme di n funzioni: verifichiamo direttamente che si tratta di soluzioni di (4.35) e che sono linearmente indipendenti: Teorema 4.7.1 Le funzioni (4.40) sono n soluzioni linearmente indipendenti di (4.35). Alla dimostrazione premettiamo alcune considerazioni. 97 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Sia K[λ] l’anello dei polinomi nell’indeterminata λ a coefficienti in K (con K = R o K = C). Dato P ∈ K[λ], P (λ) = an λn + an−1 λn−1 + . . . + a0 , definiamo l’operatore lineare P (D) : C ∞ (I) → C ∞ (I) P (D)y = an Dn x + an−1 Dn−1 x + . . . + a0 x. L’applicazione P 7→ P (D) è tale che P + Q 7→ P (D) + Q(D) P · Q 7→ P (D) ◦ Q(D) (composizione). Si tratta quindi di un isomorfismo fra K[λ] e un sottoanello commutativo dell’anello degli operatori differenziali lineari su C ∞ (si tratta del sottoanello generato dagli operatori di moltiplicazione e da D). Se K = C allora il polinomio caratteristico di Lx = 0 si decompone nella forma: P (λ) = an (λ − λ1 )m1 · . . . · (λ − λq )mq , quindi P (D) = an (D − λ1 )m1 · . . . · (D − λq )mq . La verifica che le funzioni (4.40) sono soluzioni dell’equazione Ly = 0 è a questo punto una conseguenza immediata del seguente lemma (la cui dimostrazione è una facile verifica). Infatti: (D − λk )mk (tj eλk t ) = eλk t Dmk tj e il secondo membro è nullo se j < mk . Lemma 4.7.2 Dati λ ∈ C, u ∈ C ∞ (R) e m ∈ N risulta: (D − λ)m eλt u(t) = eλt Dm u(t). Per concludere la dimostrazione del Teorema 4.7.1 rimane da verificare l’indipendenza lineare delle funzioni (4.40). Consideriamo pertanto una loro combinazione lineare che dia la funzione nulla; in base all’espressione delle funzioni stesse ciò equivale a considerare q polinomi P1 , . . . , Pq , con Pk di grado non superiore a mk − 1, tali che P1 (t)eλ1 t + . . . + Pq (t)eλq t ≡ 0. (4.41) Mostriamo, per induzione su q, che questa condizione implica che tutti i polinomi sono nulli, e che quindi le funzioni (4.40) sono linearmente indipendenti. Chiaramente l’implicazione vale per q = 1. Valga per un valore q ∈ N e dimostriamo che vale per q + 1. Dividendo per eλq+1 t entrambi i membri dell’identità (4.41), scritta con q + 1 in luogo di q, si ottiene19 : P1 (t)e(λ1 −λq+1 )t + . . . + Pq (t)e(λq −λq+1 )t + Pq+1 (t) ≡ 0. 19 è facile verificare che se λ ∈ C \ {0} e P (t) è un polinomio, allora ˆ ˜ D P (t)eλt = Q(t)eλt dove Q(t) è un polinomio dello stesso grado di P (t). 98 Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI Derivando mq+1 volte otteniamo: Q1 (t)e(λ1 −λq+1 )t + . . . + Qq (t)e(λq −λq+1 )t ≡ 0, dove Qk è un polinomio dello stesso grado di Pk ; applicando l’ipotesi induttiva ogni Qk è nullo per cui anche ogni Pk deve essere nullo. Se consideriamo le parti reali e immaginarie delle funzioni (4.40) otteniamo una base reale per le soluzioni dell’equazione omogenea Ly = 0: Teorema 4.7.3 Le soluzioni dell’equazione omogenea (4.35) sono tutte e sole le combinazioni lineari delle funzioni tj eαt cos βt, tj eαt sin βt al variare di λ = α + iβ fra le radici del polinomio caratteristico. Equazione completa. Vi è un caso notevole in cui è possibile determinare in modo standard una soluzione y dell’equazione completa (4.34). Supponiamo che la funzione f a secondo membro sia della forma (conviene lavorare in campo complesso): f (t) = P (t)eλt , (4.42) con λ ∈ C e P (t) polinomio di grado m. Siano inoltre λ1 , . . . , λk le radici distinte del polinomio caratteristico di L, con molteplicità rispettive m1 , . . . , mk . In base al Lemma 4.7.2 risulta con M = (D − λ)m+1 M f (t) ≡ 0, Pertanto, se y è soluzione dell’equazione Ly = f allora (M ◦ L)y = 0.20 Distinguiamo ora due casi: − se λ non è radice del polinomio caratteristico di L allora il polinomio caratteristico di M ◦ L ha come radici λ1 , . . . , λk , con le rispettive molteplicità m1 , . . . , mk , e λ, con molteplicità m + 1. In base al Teorema 4.7.1 y(t) = yo (t) + Q(t)eλt dove yo , combinazione lineare di funzioni della forma tj eλi t , per i = 1, . . . , k, è una soluzione dell’equazione omogenea Ly = 0, mentre Q(t) è un opportuno polinomio di grado al più m. Chiaramente, la condizione Ly = f si riflette solamente sul polinomio Q, per cui possiamo scegliere yo = 0 e cercare y della forma y(t) = Q(t)eλt , con Q(t) polinomio di grado al più m. − sia invece λ radice del polinomio caratteristico di L con molteplicità µ: ad esempio λ = λk e µ = mk . Allora il polinomio caratteristico di M ◦ L presenta le radici λi (i 6= k) con le rispettive molteplicità mi , e λ, con molteplicità µ + m + 1. Quindi y(t) = k−1 X Pi (t)eλi t + Q̃(t)eλt , i=1 20 Per questo motivo il metodo ora descritto è anche detto degli annichilatori. 99 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE con P (t) di grado al più mi e Q̃(t) di grado al più µ + m. Si osservi ora che, posto Q̃(t) = P ij Pµ−1 j λt è soluzione dell’equazione omogenea, per cui possiamo j=0 cj t )e j cj t , la funzione ( scrivere y(t) = yo (t) + tµ Q(t)eλt , con Q(t) polinomio di grado al più m. Come nel caso precedente ricerchiamo y di questa forma, con xo ≡ 0. Riassumendo: se nell’equazione Ly = f il secondo membro è dato da (4.42), con P (t) di grado m, allora esiste una soluzione della forma y(t) = tµ Q(t)eλt , dove Q(t) è un polinomio di grado non superiore a m e µ è la molteplicità di λ come radice del polinomio caratteristico di L (quindi µ = 0 se non è radice). Il polinomio Q(t) viene individuato determinandone i coefficienti in modo che tµQ(t)eλt sia soluzione di Ly = f . Se lavoriamo in campo reale non è difficile verificare che: se f (t) = eαt [Ph (t) cos βt + Qk (t) sin βt], con Ph e Qk polinomi di gradi h e k, rispettivamente, allora è possibile determinare una soluzione x secondo la seguente regola: − se α ± iβ non è radice del polinomio caratteristico, allora esiste x della forma: x(t) = eαt [R(t) cos βt + S(t) sin βt]. con R e S polinomi di grado al più max{h, k}; − se α ± iβ è radice di molteplicità m del polinomio caratteristico, allora esiste x della forma: x(t) = tm eαt [R(t) cos βt + S(t) sin βt]. con R e S come sopra. La determinazione effettiva di x avviene determinando i coefficienti dei polinomi R e S in modo che la funzione x sia soluzione. Esempio Consideriamo l’equazione x′′ − 3x′ + 2x = f (t), con f (t) = (1 + 3t)e4t . Rientriamo nelle condizioni dell’osservazione precedente con α + iβ = 4; poichè questo valore non è radice del polinomio caratteristico, è possibile determinare una soluzione x della forma: x(t) = (a + bt)e4t , con a, b ∈ R da determinare. Se imponiamo che questa funzione sia soluzione otteniamo a = −1/4 e b = 1/2. Se invece avessimo f (t) = (1 + 3t)e2t , poiché α = 2 è radice (semplice) del polinomio caratteristico, cerchiamo x della forma: x(t) = t(a + bt)e2t , con a, b ∈ R da determinare. Svolgendo i calcoli risulta x(t) = ((3/2)t2 − 2t)e2t . 100 Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI 4.8 SISTEMI OMOGENEI AUTONOMI: IL CASO BIDIMENSIONALE Analizziamo più in dettaglio le soluzioni di un sistema differenziale lineare omogeneo e autonomo: ′ x1 = a11 x1 + a12 x2 x′2 = a21 x1 + a22 x2 con A = (aij ) matrice ad elementi reali. Abbiamo visto che mediante un opportuno cambiamento di variabile (x = P y) possiamo ricondurci al sistema: y ′ = Ãy, (à = P −1 AP ) dove à rientra in uno dei seguenti casi: λ 1 λ1 0 ; b) à = ; a) à = 0 λ 0 λ2 c) à = (4.43) α −β β (con β 6= 0). α Nel seguito supporremo che nessun autovalore sia nullo (se cosı̀ non fosse si vede facilmente che le traiettorie sarebbero rettilinee). Distinguiamo i seguenti casi: I) autovalori reali e distinti (siano essi λ1 < λ2 ); II) autovalori complessi coniugati α ± iβ con α 6= 0; caso diagonalizzabile III) autovalori reali e coincidenti caso non diagonalizzabile IV ) autovalori complessi con parte reale nulla (±iβ). Notiamo che i casi (III) e (IV ) possono essere visti come “casi limite” dei precedenti, e pertanto più suscettibili di cambiamenti di tipologia per “piccole perturbazioni”. In ciascuno dei casi è possibile determinare esplicitamente la forma delle soluzioni del sistema equivalente (4.43). Caso (I). Se λ1 < λ2 indicano gli autovalori (reali) distinti, allora: y1 = c1 eλ1 t . y2 = c2 eλ2 t (4.44) Individuiamo le traiettorie; se c1 = 0 allora si ha y1 = 0 (asse y2 ), altrimenti: y1 λ2 /λ1 λ2 /λ1 , = c2 y2 = c2 eλ1 t c1 quindi, per l’arbitrarietà di c1 e c2 : y2 = γ|y1 |λ2 /λ1 . (4.45) Si vedano le Figure 4.2 e 4.3: le frecce indicano l’orientamento corrispondente al parametro t crescente e può essere immediatamente desunto dalle equazioni (4.44). Caso (II). Autovalori complessi coniugati α ± iβ, con parte reale α non nulla: y1 = eαt (c1 cos βt + c2 sin βt) . y2 = eαt (−c1 sin βt + c2 cos βt) Nell’ipotesi in cui c1 e c2 non siano contemporaneamente nulli, se poniamo q cos ϕ = c1 /K, sin ϕ = c2 /K, K = c21 + c22 > 0, 101 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE λ1 <λ2 <0 λ1 <0<λ2 Figure 4.2 - Nodo stabile e punto di sella 0<λ1 <λ2 Figure 4.3 - Nodo instabile 102 Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI Figure 4.4 - Fuoco stabile (α < 0) e instabile (α > 0) possiamo esprimere le soluzioni come y1 = Keαt cos(ϕ − βt) . y2 = Keαt sin(ϕ − βt) Pertanto, in coordinate polari, le traiettorie hanno equazione parametriche ̺ = Keαt ϑ = ϕ − βt e quindi, eliminando t, ̺ = Ce−(α/β)ϑ , con C ≥ 0 costante arbitraria. Si tratta di spirali logaritmiche, che si avvolgono attorno all’origine al crescere o al decrescere di ϑ secondo che il rapporto α/β sia positivo o negativo, rispettivamente. In Figura 4.4 è rappresentata la situazione α/β > 0. Il verso delle frecce si deduce subito dalla relazione ̺ = Keαt . Caso (III). Autovalori reali e coincidenti λ1 = λ2 = λ. Se la matrice è diagonalizzabile, allora (come nel caso (I)): y1 = c1 eλt y2 = c2 eλt quindi le traiettorie sono semirette uscenti dall’origine. Se invece la matrice non è diagonalizzabile allora nelle coordinate y le soluzioni sono date da: y1 = (c1 + c2 t)eλt y2 = c2 eλt da cui l’equazione delle orbite (a parte l’asse y1 , corrispondente a c2 = 0): y1 = 1 y2 (log |y2 | + γ), λ γ ∈ R. In tal caso si parla di nodo improprio (Figura 4.5). Caso (IV ). Autovalori con parte reale nulla: ±iβ. 103 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Figure 4.5 - Nodo improprio stabile (λ < 0) Figure 4.6 - Centro (autovalori ±iβ); l’orientamento delle traiettorie dipende dal segno di β 104 Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI Le traiettorie nelle coordinate y sono circonferenze: y1 = K cos(ϕ − βt) y2 = K sin(ϕ − βt) (K ≥ 0). In tal caso l’origine è detto centro (vedi Figura 4.6). 105 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Appendice: operatori lineari Richiamiamo alcuni risultati di Algebra Lineare utilizzati in questo capitolo (per una trattazione più approfondita si può consultare un qualunque libro introduttivo sull’argomento). Sia V uno spazio vettoriale di dimensione n su un campo K (con K = R o K = C). Cambiamento di base. Siano B = (e1 , . . . , en ) e B̃ = (ẽ1 , . . . , ẽn ) due date basi di V e indichiamo con P = (pij ) la matrice di passaggio da B a B̃, cioè tale che: X pij ei . (4.46) ẽj = i Siano x = (x1 , . . . , xn ) e x̃ = (x̃1 , . . . , x̃n ) le n-uple delle componenti di un vettore v in B e B̃ rispettivamente, cioè: X X x̃j ẽj . xi ei = v= j i Allora: v= X j x̃j X pij ei = XX pij x̃j )ei ; ( i i j allora x = P x̃. (4.47) Matrice associata a un operatore lineare. Sia T : V → V un operatore lineare. Sia B una base di V . Le componenti in B di ogni vettore v ∈ V e del suo trasformato T v sono legate da una relazione lineare; esiste cioè una matrice A ∈ M n×n (K) con la proprietà che se x ∈ Kn è il vettore delle componenti di v in B, allora T v ha come componenti, sempre in B, il vettore y = Ax. La matrice A è detta matrice associata a T nella base B. Rilevante sarà il caso in cui V si decompone in somma diretta di sottospazi T -invarianti, cioè sottospazi tali che T Vk ⊆ Vk e per i quali V = V1 ⊕ V2 ⊕ . . . ⊕ Vq . È immediato vedere che vale il seguente risultato: Proposizione 4.8.1 Nelle ipotesi poste, se Bk è una base di Vk allora B1 ∪. . .∪Bq (o meglio, la base ottenuta prendendo ordinatamente gli elementi delle basi B1 , . . . , Bq ) è una base di V rispetto a cui la matrice associata a T è diagonale a blocchi: A1 A 2 , A= (4.48) A3 .. . Aq (ciascun blocco ha la diagonale principale sulla diagonale principale di A). La matrice Ak è di tipo mk × mk con mk = dim Vk . Inoltre Ak è la matrice associata a T in Bk . Vk 106 Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI Assegnate due basi B e B̃ di V , vediamo quale relazione sussiste fra le matrici A e à associate a T nelle due basi. Dato v ∈ V , siano x = (x1 , . . . , xn ) e x̃ = (x̃1 , . . . , x̃n ) le n-uple delle componenti di v in B e B̃, rispettivamente; allora le componenti di T v nelle due basi sono Ax e Ãx̃; secondo la (4.47) deve pertanto essere Ax = P Ãx̃, da cui, poiché x = P x̃, à = P −1 AP. (4.49) Quindi A e Ã, matrici associate a T nelle basi B e B̃ rispettivamente, sono tra loro simili. Osservazione 4.8.2 Se V = Kn e B è la base canonica, allora la matrice P ha come colonne gli elementi di B̃: P = (ẽ1 | ẽ2 | . . . | ẽn ). P Infatti, se consideriamo la componente h-ima dei due membri nella(4.46) abbiamo (ẽj )h = i pij δih = phj ). Autovalori e autospazi. Diagonalizzabilità. Sia T : V → V un operatore lineare. Fondamentale è la seguente definizione. Definizione 4.8.3 Un elemento λ ∈ K si dice autovalore di T se esiste v ∈ V \ {0} tale che T v = λv. (4.50) Tali vettori sono detti autovettori di T relativi a λ. Il sottospazio E(λ) = ker(T − λI) è detto autospazio di T relativo a λ. Ad ogni matrice A ∈ M n×n (K) rimane associato l’operatore lineare T = T A : Kn → Kn definito da T A (x) = Ax. Se la matrice è a coefficienti reali possiamo considerare sia l’operatore TRA : x 7→ Ax : Rn → Rn che l’operatore21 TCA : x 7→ Ax : Cn → Cn . Come autovalori di A intenderemo gli autovalori di TCA . L’equazione (4.50) diventa: Ax = λx. Proposizione 4.8.4 Data A ∈ M n×n (K), un elemento λ ∈ K è autovalore di A se e solo se λ è radice del seguente polinomio, detto polinomio caratteristico di A: p(z) = det(A − zI). Dimostrazione. L’esistenza di una soluzione x non nulla dell’equazione (A − λI)x = 0 equivale alla richiesta che det(A − λI) = 0. Se P è una matrice invertibile, un’applicazione del Teorema di Binet dà: det(P −1 AP − zI) = det P −1 (A − zI)P = det(A − zI), per cui matrici simili hanno lo stesso polinomio caratteristico. L’importanza di questa osservazione sta nel fatto che le matrici associate a un operatore lineare T : V → V sono legate dalla relazione di 21 L’analogo passaggio nel caso di un generico spazio vettoriale V su R è la complessificazione dell’operatore T (e dello spazio V ). 107 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE similitudine. Ciò permette di definire il polinomio caratteristico di un operatore T : V → V come polinomio caratteristico della matrice associata a T in una qualunque fissata base. Osservazione 4.8.5 Mettiamo in evidenza il vantaggio di studiare in K = C anche il caso delle matrici a elementi reali: infatti, poiché C è algebricamente chiuso, il polinomio caratteristico ha esattamente n soluzioni, contate con la dovuta molteplicità. Diciamo molteplicità algebrica di un autovalore λ la molteplicità m(λ) di λ come radice del polinomio caratteristico. Diciamo molteplicità geometrica di λ la dimensione ρ(λ) dell’autospazio E(λ). Se K = C e λ1 , . . . , λq sono gli autovalori distinti di T allora: m(λ1 ) + . . . + m(λq ) = n. (4.51) Proposizione 4.8.6 Siano λ1 , . . . , λq gli autovalori distinti di T . Allora i sottospazi E(λ1 ), . . . , E(λq ) sono in somma diretta. da fare Dimostrazione. Se v ∈ E(λ1 ) ∩ E(λ2 ) allora λ1 v = T v = λ2 v, da cui v = 0 poiché λ1 6= λ2 . Proposizione 4.8.7 Per ogni autovalore λ risulta ρ(λ) ≤ m(λ). Dimostrazione. Sia r = ̺(λ) e B una base di V i cui primi r elementi costituiscano una base di E(λ). Poiché T E(λ) = {0}, la matrice (aij ) associata a T in B ha nulli gli elementi aij con i > r e j ≤ r. Pertanto il polinomio caatteristico p(z) di T ha come fattore il polinomio caratteristico di T ; questo, a meno del segno, è dato da (z − λ)r , poiché non può avere radici diverse da λ in E(λ) base alla proposizione precedente. Allora p(z) presenta la radice λ almeno con molteplicità r. Proposizione 4.8.8 Le seguenti proprietà sono equivalenti: a) T è diagonalizzabile (cioè esiste una base di V rispetto a cui T è rappresentato da una matrice diagonale); b) esiste una base di V costituita da autovettori di T . c) detti λ1 , λ2 , . . . , λq gli autovalori distinti di T , risulta V = E(λ1 ) ⊕ E(λ2 ) ⊕ . . . ⊕ E(λq ). Inoltre, se K = C, equivalente a queste è la proprietà: d) per ogni autovalore la molteplicità algebrica coincide con quella geometrica. In tali condizioni, la matrice associata a T in una qualunque base formata da autovettori è diagonale. In particolare, se K = C e T ha tutti gli autovalori semplici allora è diagonalizzabile. 108 Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI Dimostrazione. L’equivalenza fra (a) e (b) è immediata poiché il fatto che T sia esprima in una base B = (v1 , . . . , vn ) mediante una matrice diagonale D = diag (λ1 , . . . , λn ) equivale ad affermare che le componenti di T vi nella base B sono date da Dei (con ei i-esimo elemento della base canonica di Cn ), cioè T v = λi vi : questa uguaglianza traduce il fatto che vi è un autovettore.22 In base alla Proposizione 4.8.6 possiamo considerare la somma diretta E(λ1 ) ⊕ E(λ2 ) ⊕ . . . ⊕ E(λq ), che risulta essere un sottospazio di dimensione ̺(λ1 ) + . . . + ̺(λq ). Poiché ̺(λi ) ≤ m(λi ) (Proposizione 4.8.7) e m(λ1 ) + . . . + m(λq ) = n = dimV , ne segue l’equivalenza di (c) e (d). Nell’ipotesi Se teniamo conto del teorema precedente, la proprietà (b) sussiste se e solo se Cn = E(λ1 ) ⊕ E(λ2 ) ⊕ . . . ⊕ E(λq ), e questo è vero se e solo se vale (c). Osservazione 4.8.9 È utile notare esplicitamente, ricordando l’Osservazione 4.8.2 e il risultato precedente, che se V = Cn e B = (v1 , v2 , . . . , vn ) è una base di Cn costituita da autovettori di A, allora la matrice P = (v1 | v2 | . . . | vn ) che ha come colonne tali autovettori diagonalizza A, cioè P −1 AP è diagonale. Autospazi generalizzati. Indichiamo con λ1 , . . . , λq gli autovalori distinti dell’operatore T : V → V , di molteplicità algebriche m(λ1 ), . . . , m(λq ), rispettivamente. Se T non è diagonalizzabile allora V non possiede una base di autovettori, per cui non può essere espresso come somma diretta dei suoi autospazi. Il ruolo di questi viene invece svolto dai cosiddetti autospazi generalizzati. Svolgiamo dapprima alcune osservazioni preliminari. Data un’applicazione lineare T : V → V , risulta ker T ⊆ ker T 2 ⊆ . . . ⊆ ker T k ⊆ ker T k+1 ⊆ . . . Im T ⊇ Im T 2 ⊇ . . . ⊇ Im T k ⊇ Im T k+1 ⊇ . . . È immediato verificare che sono tutti sottospazi T -invarianti, cioè sottospazi W per i quali T (W ) ⊆ W . Poiché la dimensione di V è finita, esiste s ≤ n per il quale ker T s = ker T s+1 . Sia ν = dim ker T s . Dal momento che dim Im T s = n − ν = dim Im T s+1 , ne segue che Im T s = Im T s+1 . Il valore s per il quale ker T s = ker T s+1 (e Im T s = Im T s+1 ) è unico, poiché se vale questa uguaglianza risulta anche ker T s+1 = ker T s+2 = ker T s+3 = . . .; infatti, se v ∈ ker T s+2 allora T v ∈ ker T s+1 = ker T s , quindi T s T v = 0, cioè v ∈ ker T s+1 . Quindi ker T s+1 = ker T s+2 (si procede per induzione). Osserviamo ora due fatti: − l’applicazione T : Im T s → Im T s è biunivoca; a tal fine è sufficiente verificare la suriettività (dominio e codominio hanno la stessa dimensione). Dato v ∈ Im T s = Im T s+1 , esiste v ′ per il quale v = T s+1 v ′ = T (T s v ′ ) = T v ′′ , con v ′′ = T s v ′ ∈ Im T s , da cui la suriettività. 22 Del resto, anche esprimendo la disgonalizzabilità direttamente come esistenza di una matrice P tale che P −1 AP = diag (λ1 , . . . , λn ), si ottiene AP = P diag (λ1 , . . . , λn ), cioè Avi = λi vi se vi è la i-ima colonna di A. 109 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE − la biunivocità di T : Im T s → Im T s dà anche la biunivocità di T s : Im T s → Im T s ; allora ker T s ∩ Im T s = {0}. Poiché dim ker T s + dim Im T s = n, concludiamo che V = ker T s ⊕ Im T s . Infine, osserviamo che, se ker T s non è banale, allora T ha, su ker T s , solo l’autovalore nullo, poiché la relazione T (v) = λv con v ∈ ker T s dà T 2 (v) = λT (v) = λ2 v, . . . , 0 = T s (v) = λs v, da cui λ = 0. Del resto, T non può presentare 0 come autovalore, perché ker(T − 0I) = ker T ⊆ ker T s , Im T s e quest’ultimo ha intersezione nulla con Im T s . Riassumiamo questi risultati nel seguente enunciato. Lemma 4.8.10 (Decomposizione di Fitting) Sia T : V → V un’applicazione lineare. Allora: a) esiste s ≤ n = dim V tale che ker T s = ker T s+1 , Im T s = Im T s+1 . (4.52) b) Se s soddisfa la (4.52), allora ker T s e Im T s sono sottospazi T -invarianti e V = ker T s ⊕ Im T s . Inoltre, T non può presentare l’autovalore nullo, mentre se ker T s è non banale, allora Im T s ha solo l’autovalore nullo T s ker T La decomposizione in somma diretta di cui al punto (b) del lemma precedente e la struttura diagonale a blocchi della matrice associata a T secondo la Proposizione di spezzare 4.8.1 permettono il polinomio caratteristico nel prodotto dei polinomi caratteristici di T e T . In particolare, s s se 0 è autovalore di T di molteplicità m, allora ker T Im T dim ker T s = m, quindi s ≤ m. Applichiamo ora questi risultati all’operatore T − λI, dove λ è un autovalore di T ; otteniamo una decomposizione Cn = Vλ ⊕ W tale che T ha solo l’autovalore λ su Vλ , e autovalori diversi da λ su W (separazione degli autovalori). Inoltre, Vλ e W sono T -invarianti (perché (T − λI)-invarianti). Il sottospazio Vλ = ker(T − λI)s è il cosiddetto autospazio generalizzato relativo a λ, indicato con E ′ (λ). Possiamo anche porre, equivalentemente: Definizione 4.8.11 Si dice autospazio generalizzato relativo all’autovalore λ il sottospazio [ E ′ (λ) = ker(T − λI)j . j∈N La proposizione seguente riassume le proprietà fondamentali di questi sottospazi ricavate sopra. Proposizione 4.8.12 Sia λ autovalore di T con molteplicità algebrica m. Allora: a) E ′ (λ) = ker(T − λI)s per un opportuno s ∈ N. Inoltre dim E ′ (λ) = m e risulta s ≤ m. b) T : E ′ (λ) → E ′ (λ) cioè T E ′ (λ) ⊆ E ′ (λ). c) λ è l’unico autovalore di T ′ . E (λ) 110 Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI A questo punto un’applicazione ripetuta della decomposizione di Fitting fornisce il seguente risultato. Teorema 4.8.13 Si supponga che tutti gli autovalori di T siano in K; indichiamo con λ1 , . . . , λq gli autovalori distinti. Allora: V = E ′ (λ1 ) ⊕ E ′ (λ2 ) ⊕ . . . ⊕ E ′ (λq ). Questa decomposizione di Cn in somma diretta dà luogo a una matrice A associata a T come indicato nella Proposizione 4.8.1, con Vk = E ′ (λk ): A1 A 2 , (4.53) A= A3 .. . Aq dove: Ak è la matrice associata a T E ′ (λk ) rispetto a Bk . Forma canonica di Jordan. Si può dimostrare che è possibile scegliere una base per ogni autospazio generalizzato E ′ (λk ) in modo che la matrice (4.53) associata a T sia di ‘forma speciale’. Poichè T trasforma ogni E ′ (λk ) in sé, il problema può chiaramente essere riformulato per un operatore T : V → V con un solo autovalore λ di molteplicità n (quindi E ′ (λ) = V ). Prima di enunciare il risultato premettiamo una definizione. Definizione 4.8.14 a) Si dice blocco di Jordan di ordine r, associato a λ, la matrice di ordine r: λ 1 λ 1 .. . B= 0 ordine r, o matrice elementare di Jordan di 0 .. . .. . 0 . 1 λ b) Si dice matrice di Jordan di ordine n una matrice di ordine n della forma: B1 B 2 , à = B3 . .. (4.54) Bs dove B1 , . . . , Bs sono blocchi di Jordan. 111 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Il blocco di ordine r = 1 relativo a λ è semplicemente la matrice (λ) di tipo 1 × 1. Teorema 4.8.15 Sia T : V → V un operatore lineare e sia λ ∈ C autovalore di molteplicità n = dim V . Allora esiste una base di V rispetto a cui la matrice di rappresentazione di T è una matrice di Jordan con blocchi associati a λ. Tale matrice è univocamente individuata da T a meno di una permutazione dei blocchi. Il caso diagonalizzabile corrisponde al situazione in cui tutti i blocchi sono di ordine 1. Il teorema precedente, applicato ad ogni blocco della rappresentazione (4.53) dà subito il seguente risultato. Teorema 4.8.16 (Forma canonica di Jordan) Sia T : V → V un operatore lineare. Allora esiste una base di V rispetto a cui la matrice associata a T è una matrice di Jordan formata da blocchi associati agli autovalori di T . Tale matrice è unica a meno di una permutazione dei blocchi. Osservazione 4.8.17 Mentre la determinazione della matrice (4.53) associata a T può essere ottenuta dalla scelta di una qualunque base per ciascun E ′ (λk ), il calcolo della forma di Jordan J richiede l’individuazione di una particolare base; una base in cui accanto ad ogni elemento vi siano tutte le controimmagini iterate tramite T − λI. Data una base dell’autospazio E(λ), a partire da ciascuno dei suoi elementi si costruiscono in tal modo i vettori di una base di E ′ (λ) corrispondenti ad un blocco di Jordan. Ad esempio, se E(λ) = hv, wi e (T − λI)v ′ = v, (T − λI)w′ = w, (T − λI)v ′′ = v ′ , w′ ∈ / Im(T − λI), v ′′ ∈ / Im(T − λI) allora, chiaramente, rispetto alla base (v, v ′ , v ′′ , w, w′ ) di C5 la matrice associata a T − λI è: λ 1 0 0 10 0 λ 1 0 0 1 0 0 0 , quindi la matrice di T è . 0 0 λ 0 1 λ 1 0 0 0 λ In generale il numero dei blocchi è pari alla molteplicità geometrica di λ. (Per i dettagli sulla struttura della forma di Jordan si veda, ad esempio, [6]). Matrici reali con autovalori complessi. Forma canonica reale. Consideriamo ora il caso di una matrice A ∈ M n×n (R) che non abbia necessariamente tutti gli autovalori reali. La matrice (4.53) associata a T può comunque essere ottenuta utilizzando una base complessa. Poiché la matrice è a elementi reali, se µ e µ sono due autovalori coniugati le basi per i corrispondenti autospazi possono essere scelte fra loro coniugate; pertanto, se w1 , w2 , . . . , wm è una base di E ′ (µ) allora w1 , w2 , . . . , wm , w 1 , w 2 , . . . , wm è una base di E ′ (µ) ⊕ E ′ (µ). A questa possiamo sostituire la base reale ottenuta prendendo la parte reale e immaginaria dei wj : z1 , ζ1 , z2 , ζ2 , . . . , zm , ζm , dove zj = wj − w j wj + w j , ζj = . 2 2i Se indichiamo con λ1 , . . . , λr autovalori reali µ1 , . . . , µl , µ, . . . , µl autovalori non reali 112 (4.55) Chapter 4 - EQUAZIONI E SISTEMI DIFFERENZIALI LINEARI allora la rappresentazione (4.53) diventa una matrice reale diagonale a blocchi della forma à 1 .. . Ãr à = , R Ã1 .. . R Ãl (4.56) dove Ãk : ÃR j : matrice associata a T ′ E (λk ) matrice associata a T ′ E (µj )⊕E ′ (µj ) . Se le basi (w1 , w2 , . . . , wm ) per gli autospazi generalizzati sono tali da dar luogo alla forma canonica di Jordan, non è difficile vedere che il passaggio alle parti reale e immaginaria degli elementi wj ilustrato sopra porta a una matrice nella forma canonica descritta dal seguente teorema (si ricordi il passaggio dalla matrice (4.27) alla (4.28)). Teorema 4.8.18 (Forma canonica reale) Esiste una base di V rispetto a cui T si rappresenta mediante la matrice ′ JR = J 0′′ , 0 J ′ dove J è la matrice di Jordan relativa a , T ′ ′ E (λ1 )⊕...⊕E (λr ) mentre J ′′ si ottiene dalla matrice di Jordan relativa a T ′ ′ E (µ1 )⊕...⊕E (µl ) , sostituendo: µj con 1 con αj βj Bµj = −βj αj 1 0 I2 = . 0 1 (µj = αj + iβj ) Esempio. Riprendiamo l’ultimo esempio considerato nel § 4.5. Risulta: −i 1 1 0 −2 3 − i 10 2 ; A − iI = 1 −1 −2 − i 0 −2 1 0 −1 − i un autovettore relativo all’autovalore i è, ad esempio, i −2 v1 = 1 . −2 113 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Seguendo quanto indicato nell’Osservazione 4.8.17 (vedi anche la seconda parte dell’esempio svolto a pag. 85), cerchiamo un vettore v2 soddisfacente la relazione (A − iI)v2 = v1 . Risulta, ad esempio, (1/2) + i −1 + 2i v2 = −i/2 . 0 Chiaramente, (A − iI)2 v2 = 0, per cui v2 ∈ ker(T − iI)2 = E ′ (i). Rispetto alla base (v1 , v2 ) la matrice associata all’operatore (T − iI) ′ è: E (i) 0 1 ; 0 0 Quindi la matrice associata a T nella base (v1 , v2 , v 1 , v 2 ) è in forma canonica di Jordan: i 1 0 i −i 1 0 −i Invece, rispetto alla base (ℜv1 , Im v1 , ℜv2 , Im v2 ), −1 la matrice associata a T è data da P AP , dove P è la matrice che ha nelle colonne gli elementi di tale base. Svolgendo i calcoli si ottiene 0 1 1 0 −1 0 0 1 P −1 AP = , 0 0 0 1 0 0 −1 0 coerentemente con quanto sopra affermato. 114 Chapter 5 COMPORTAMENTO ASINTOTICO. STABILITÀ Negli esempi lineari bidimensionali studiati nel § 4.8 abbiamo notato la relazione fra l’origine (punto di equilibrio), il comportamento asintotico delle soluzioni per t → ∞ e il segno degli autovalori della matrice dei coefficienti. Mettiamo ora in evidenza la validità generale di questa relazione, e come la si possa applicare localmente nel caso non lineare. Esponiamo infine il metodo di Liapunov per lo studio della stabilità dei sistemi non lineari. Nel primo paragrafo diamo le definizioni base dei concetti di stabilità nel caso generale dei sistemi autonomi non lineari. 5.1 STABILITÀ DEI PUNTI DI EQUILIBRIO Sia Ω un aperto di Rn e f : Ω → Rn una funzione localmente lipschitziana. Consideriamo l’equazione autonoma x′ = f (x). (5.1) Come visto nel paragrafo 2.6, la dinamica dell’equazione è individuata dal flusso ϕ, che per ogni punto x0 ∈ Ω dà la soluzione ϕ(·, x0 ) del problema di Cauchy ′ x = f (x) x(0) = x0 , intesa definita nel suo intervallo massimale di esistenza ω− (x0 ), ω+ (x0 ) . Nel caso in cui f (x) = Ax, con A matrice n × n a elementi reali, si ottiene un flusso lineare, dato da: ϕ(t, x) = etA x. Usualmente ci si riferisce con il termine di flusso anche alla funzione etA . Osservazione 5.1.1 Nozioni come quella di stabilità, che esporremo fra poco, coinvolgono soltanto il flusso ϕ sopra definito e possono essere utilmente estese ad ogni situazione in cui sia data una funzione ϕ soddisfacente le proprietà della Proposizione 2.6.2, indipendentemente dal fatto che questa sia definita a partire da un’equazione differenziale. Da qui lo studio generale dei sistemi dinamici. Sia x ∈ Ω un punto di equilibrio del flusso ϕ, cioè un punto per il quale f (x) = 0 (od anche, in termini del flusso, ϕ(·, x) = x). Nella definizione seguente prendiamo in considerazione il comportamento delle soluzioni per tempi t ≥ 0. 115 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Definizione 5.1.2 Nella ipotesi precedenti: a) il punto x è detto punto di equilibrio stabile (secondo Liapunov) se per ogni intorno U di x esiste un intorno V di x per il quale, comunque preso x ∈ V ∩ Ω, si ha ω+ (x) = +∞, e ϕ(t, x) ∈ U per ogni t ≥ 0. b) il punto x è detto attrattivo se esiste un intorno V di x tale che, per ogni x ∈ V ∩ Ω ω+ (x) = +∞, e lim ϕ(t, x) = x. t→+∞ c) Il punto x è detto asintoticamente stabile se è stabile e attrattivo. Il punto x si dice instabile se non è stabile. Osservazione 5.1.3 La richiesta ω+ (x) = +∞ può essere omessa in quanto, considerando un intorno U ⊂⊂ Ω, la condizione che ϕ(t, x) ∈ U per ogni t ∈ [0, ω+ (x)) assicura che ω+ (x) = +∞. 5.2 COMPORTAMENTO ASINTOTICO DEI SISTEMI LINEARI Consideriamo un sistema lineare omogeneo a coefficienti costanti: x′ = Ax. L’origine è chiaramente un punto di equilibrio. Introduciamo le seguenti definizioni23 : Definizione 5.2.1 Diremo che l’origine è un pozzo per l’equazione x′ = Ax se comunque presa una soluzione x(·) risulta; lim x(t) = 0. t→+∞ L’origine è invece detta sorgente se comunque presa una soluzione non nulla x(·) risulta; lim |x(t)| = +∞. t→+∞ Nel primo caso si dice anche che il corrispondente flusso lineare etA è una contrazione, mentre nel secondo caso si dice che è un’espansione. La natura dell’origine come punto di equilibrio dipende dal segno della parte reale degli autovalori di A: Teorema 5.2.2 L’origine è un pozzo (o una sorgente) per l’equazione x′ = Ax se e solo se la parte reale di ogni autovalore della matrice A è negativa (o, rispettivamente, positiva). Dimostrazione. Supponiamo che ℜλ < 0 per ogni autovalore λ. Se x = (x1 , . . . , xn ) è una soluzione, sappiamo che ogni xi è combinazione lineare di funzioni della forma tj eαt cos βt, tj eαt sin βt, (5.2) al variare di α + iβ fra gli autovalori di A. Allora x(t) → 0 per t → +∞ se ogni α è negativo. Invece, nell’ipotesi che ℜλ > 0 per ogni autovalore λ, si osservi che la matrice −A ha tutti gli autovalori con parte reale negativa, per cui lim |e−tA ξ| = 0 t→+∞ 23 il termine pozzo viene usualmente reso con sink in inglese 116 per ogni ξ ∈ Rn . Chapter 5 - COMPORTAMENTO ASINTOTICO. STABILITÀ L’arbitrarietà di ξ implica che ke−tA k → 0 per t → +∞ (infatti, se ξ è l’i-imo elemento della base canonica si ottiene l’annullarsi, al limite, della i-ima colonna della matrice etA ). Sia ora x(·) una soluzione non nulla di x′ = Ax; esiste allora x0 ∈ Rn \ {0} tale che x(t) = etA x0 . Quindi: |x0 | = |e−tA x(t)| ≤ ke−tA k|x(t)|. Poiché ke−tA k → 0 per t → +∞ e x0 6= 0, deve essere |x(t)| → +∞ per t → +∞. Per il viceversa, sia v un autovettore di A relativo ad un autovalore λ = α+iβ. Allora x(t) = eλt v è soluzione di x′ = Ax (in C). Poiché |x(t)| = eαt |v|, le soluzioni tendono a zero o all’infinito (in modulo) secondo che sia ℜλ < 0 o ℜλ > 0, rispettivamente. Il passo successivo è analizzare i cosiddetti flussi iperbolici. Definizione 5.2.3 Diciamo che il flusso etA è iperbolico se ogni autovalore di A ha parte reale non nulla. Indichiamo con λ1 , . . . , λq ∈ C gli autovalori distinti di A. Sappiamo che (vedi Teorema 4.8.13): Cn = E ′ (λ1 ) ⊕ . . . ⊕ E ′ (λq ). Se etA è iperbolico, suddividiamo gli autovalori distinguendoli rispetto al segno della parte reale: ℜλk < 0 ℜλk > 0 k = 1, . . . , r k = r + 1, . . . , q (intenderemo che ℜλ > 0 per ogni λ se r = 0 e che ℜλ < 0 per ogni λ se r = q). Quindi Cn = EsC ⊕ EuC , dove EsC = E ′ (λ1 ) ⊕ . . . ⊕ E ′ (λr ), EuC = E ′ (λr+1 ) ⊕ . . . ⊕ E ′ (λq ). Poiché la matrice A è a elementi reali, esiste una base reale di E ′ (µ) ⊕ E ′ (µ), per ogni autovalore µ ∈ C \ R; possiamo quindi decomporre Rn nella somma24 Rn = Es ⊕ Eu , con Es = EsC ∩ Rn e Eu = EuC ∩ Rn . Sappiamo che entrambi i sottospazi sono invarianti rispetto all’operatore T : x 7→ Ax (vedi tA Proposizione 4.8.12) e quindi anche rispetto al flusso e (basti ricordare la definizione di matrice esponenziale). Inoltre gli autovalori di T sono λ1 , . . . , λr e quelli di T sono λr+1 , . . . , λq . Pertanto: Es Eu Proposizione 5.2.4 Lo spazio Rn può essere decomposto nella forma: Rn = Es ⊕ Eu in modo che: 24 si noti che le combinazioni lineari reali degli elementi di una base reale di E ′ (µ) ⊕ E ′ (µ) è un sottospazio di Rn di dimensione 2dim E ′ (µ). 117 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE y2 x2 Es : x+ E − : x u = 2y 0 y= y1 0 x1 Figure 5.1 - Varietà stabile e instabile, nelle coordinate x e y • ciascuno dei due sottospazi sia invariante rispetto ad A e quindi rispetto al flusso etA ; • etA è una contrazione, mentre etA è un’espansione. Es Eu Si può dimostrare che questa decomposizione è unica. I sottospazi Es ed Eu sono anche detti varietà stabile e varietà instabile, rispettivamente.25 Notiamo che il cambiamento di variabile x = P y applicato nel § 4.4 per studiare la struttura delle soluzioni di un sistema lineare omogeneo e autonomo utilizzava una matrice P costruita mediante autovettori generalizzati. Sia Ẽs ⊕ Ẽu la decomposizione di Rn relativa al sistema y ′ = Ãy, con à = P −1 AP : poiché à è diagonale a blocchi e ogni blocco presenta un solo autovalore, Ẽs e Ẽu sono sottospazi coordinati. I sottospazi Es := P Ẽs e Eu := P Ẽu danno la parte stabile e instabile di Rn relativamente al sistema x′ = Ax. Esempi 1 4 1. x = Ax con A = . 2 −1 Gli autovalori sono ±3 e ′ Es = E(−3) = h(2, 1)i, Eu = E(3) = h(1, −1)i. 2 1 Se P = allora nelle coordinate y date da x = P y il sistema si scrive equivalentemente in 1 −1 forma diagonale; ′ y1 = 3y1 y2′ = −3y2 . Le traiettorie sono iperboli (vedi Figura 5.1). 3 2 −6 2. x′ = Ax con A = 3 −1 −4. 2 2 −5 La forma canonica reale è: 1 0 0 à = 0 −2 1 . 0 −1 −2 In Figura 5.2 sono riportate alcune traiettorie relative al sistema y ′ = Ãy. Prendiamo ora in considerazione il caso in cui la matrice A possa presentare autovalori con parte reale nulla. 25 Gli 118 indici s e u stanno per stable e unstable. Chapter 5 - COMPORTAMENTO ASINTOTICO. STABILITÀ Figure 5.2 - Un esempio tridimensionale con dim Es = 2 e dim Eu = 1 119 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Teorema 5.2.5 L’origine è stabile per l’equazione x′ = Ax se e solo se valgono le due condizioni seguenti: a) ℜλ ≤ 0 per ogni autovalore λ di A; b) ogni autovalore λ con parte reale nulla deve essere semisemplice, cioè avere la molteplicità geometrica coincidente con quella algebrica. In particolare, se esiste un autovalore con parte reale strettamente positiva, allora l’origine è instabile. Dimostrazione. Come abbiamo visto nel capitolo precedente,mediante un opportuno cambiamento di variabile (e quindi di base in Cn ) x = P y si ottiene un sistema equivalente y ′ = Ãy in cui la matrice à = P −1 AP è diagonale a blocchi, con ciascun blocco Ãk relativo alla rappresentazione della trasformazione x 7→ Ax ristretta all’autospazio generalizzato E ′ (λk ). Il calcolo della matrice risolvente età si riduce al calcolo di etÃk , in cui si sfrutta la decomposizione Ãk = λk I + (Ãk − λk I) in somma di una matrice diagonale e una matrice nilpotente. Quindi la parte polinomiale nella matrice risolvente è assente se e solo se la matrice Ãk − λk I è nulla, cioè Ãk è diagonale: ciò equivale a dire (Proposizione 4.8.8) che la molteplicità geometrica e algebrica di λk coincidono. Pertanto, nelle ipotesi (a) e (b) si ottiene la limitatezza di ket Ak su [0, +∞). Se teniamo conto che per ogni x0 ∈ Rn |etA x0 | ≤ ketA k|x0 |, è immediato dedurne la condizione di stabilità per l’origine. Viceversa, se viene meno la validità di (a) o di (b), esiste x0 per il quale la soluzione etA x0 è illimitata. Ciò rimane vero per etA (εx0 ) per ogni ε > 0, da cui l’instabilità della soluzione nulla. 5.3 STABILITÀ LINEARIZZATA Cerchiamo ora di applicare quanto visto nel caso lineare allo studio locale delle soluzioni di un’equazione non lineare x′ = f (x) (5.3) nell’intorno di un suo punto x di equilibrio. Sia pertanto Ω un aperto di Rn e f : Ω → Rn di classe C 1 e supponiamo che x = 0 (se cosı̀ non fosse basta eseguire un’opportuna traslazione). A motivo della natura locale dell’indagine, consideriamo la linearizzazione del campo f attorno all’origine: f (x) = Ax + o(|x|) per x → 0, con A = Df (0). Mostriamo che se tutti gli autovalori di A hanno parte reale negativa o tutti hanno parte reale positiva, allora il comportamento asintotico delle soluzioni attorno all’origine è come quello del sistema x′ = Ax. A tal fine è utile una stima che ‘quantifichi’ l’andamento lineare del termine Ax, o, come nel lemma che segue, l’andamento quadratico del termine hAx, xi. Data una base B di Rn , utilizzeremo la notazione h·, ·iB e | · |B per indicare il prodotto scalare e la norma indotte da B, quindi hx′ , x′′ iB = hy ′ , y ′′ i, |x|B = |y| se y, y ′ e y ′′ indicano le componenti di x, x′ e x′′ in B e h·, ·i e | · | l’usuale prodotto scalare e modulo in Rn . Indichiamo con P = (pij ) la matrice di passaggio dalla P base canonica a B (quindi, secondo la (4.46), se v1 , . . . , vn sono gli elementi di B, risulta vj = i pij ei ). Allora: hx′ , x′′ iB = hP −1 x′ , P −1 x′′ i, 120 |x|B = |P −1 x|. Chapter 5 - COMPORTAMENTO ASINTOTICO. STABILITÀ Lemma 5.3.1 Siano α, β ∈ R tali che α < ℜλ < β per ogni autovalore λ di A. Allora esiste una base B di Rn rispetto alla quale α|x|2B ≤ hAx, xiB ≤ β|x|2B per ogni x ∈ Rn . La dimostrazione si basa sull’osservazione che, data una base B e il corrispondente prodotto scalare definito come sopra, risulta: hAx, xiB = hP −1 Ax, P −1 xi = hP −1 AP y, yi = hÃy, yi, dove à = P −1 AP rappresenta x 7→ Ax nella base B; quest’ultima viene scelta in modo che à abbia un’opportuna forma canonica. Dimostrazione. Sappiamo che esiste una base B̃ di Rn rispetto a cui l’operatore T : x → Ax si rappresenta in forma canonica reale, cioè in forma diagonale a blocchi, con blocchi di una delle forme D I 0 λ 1 0 .. .. . . (λ ∈ R); b) a) , D I λ 1 D λ ℜλ ℑλ con D = −ℑλ ℜλ , nel caso di autovalore complesso. Ciascuno di questi blocchi rappresenta T ristretto a un opportuno sottospazio; possiamo cosı̀ trattare separatamente ciascuno di questi sottospazi e supporre pertanto che la forma canonica à presenti un unico blocco, del tipo (a) o (b) sopra specificato. Consideriamo il caso (a). Sia B̃ = (ẽj ) una base in cui T si rappresenti mediante la matrice à = λI + ÃN , con ÃN blocco nilpotente elementare. Dato ε > 0 poniamo vj = εj ẽj . La matrice P di passaggio dalla base B̃ a B è P = diag (ε, ε2 , . . . , εn ); e l’operatore T , nella base B, è rappresentato da P −1 ÃP = λI + P −1 ÃN P. Calcoliamo gli elementi della matrice N = P −1 ÃN P : (P −1 ÃN P )ij = (P −1 )ih (ÃN )hk Pkj = (P −1 )ii (ÃN )ij Pjj 0 se j 6= i + 1 = ε−i εj = ε se j = i + 1. Quindi: N = 0 ε .. . 0 0 ε 0 (λ ∈ R); 121 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Da ciò deduciamo che per ogni y ∈ Rn , |hN y, yi| ≤ ε|y|2 . Dato x ∈ Rn e indicato con y il vettore delle sue componenti in B, poiché in questa base T è rappresentato da λI + N , risulta: hAx, xiB = h(λI + N )y, yi = λ|y|2 + hN y, yi; possiamo concludere in base alla stima precedente e all’arbitrarietà di ε. Il caso (b) si tratta analogamente. Teorema 5.3.2 (Stabilità per linearizzazione) Se ogni autovalore di Df (0) ha parte reale strettamente negativa, allora l’origine è punto di equilibrio asintoticamente stabile per l’equazione (5.3). Più precisamente, se Λ > 0 è tale che ℜλ < −Λ per ogni autovalore λ di Df (0), allora esiste un intorno U dell’origine ed una base B di Rn tali che, comunque preso x ∈ U la funzione ϕ(·, x) è definita per ogni t ≥ 0 e |ϕ(t, x)|B ≤ |x|B e−Λt per ogni t ≥ 0. Dimostrazione. Applichiamo il lemma precedente alla linearizzazione di f attorno all’origine. Sia β ∈ R tale che ℜλ < β < −Λ per ogni autovalore λ di A := Df (0). Sia B la base di Rn fornita dal lemma precedente. Dato x0 ∈ Ω \ {0} sia x(·) = ϕ(·, x0 ). Per ogni t dell’intervallo di definizione di x(·) abbiamo d |x(t)|2B = 2hx(t), x′ (t)iB = 2hf (x(t)), x(t)iB = 2hAx(t), x(t)iB + o(|x(t)|2B ). dt Sia δ > 0 tale che: U := {x ∈ Rn : |x|B < δ} ⊂⊂ Ω, β|x|2B + o(|x|2B ) ≤ −Λ|x|2B per ogni x ∈ U . Sia x0 ∈ U e t ∈ [0, ω+ (x0 )) tale che x(t) ∈ U per ogni t ∈ [0, t]. Allora, applicando il lemma precedente e tenendo conto della scelta di δ, abbiamo: d |x(t)|2B ≤ −2Λ|x|2B dt per ogni t ∈ [0, t]. |x(t)|2B ≤ |x0 |2B e−2Λt per ogni t ∈ [0, t]. Ne deduciamo che: −Λt e quindi |x(t)|B ≤ |x0 |B e per ogni t ∈ [0, t]. Pertanto la soluzione x(·) non esce da U e pertanto ω+ (x0 ) = +∞ e la disuguaglianza precedente vale per ogni t ≥ 0. Come nel caso lineare la presenza di un autovalore con parte reale positiva implica l’instabilità (omettiamo la dimostrazione): Teorema 5.3.3 Se Df (0) ha un autovalore con parte reale strettamente positiva, allora l’origine è un punto di equilibrio instabile. 122 Chapter 5 - COMPORTAMENTO ASINTOTICO. STABILITÀ Esempio. (Pendolo smorzato) Ricordiamo l’equazione del pendolo semplice senza attrito (§ 1.6): mlϑ̈ = −mg sin ϑ; consideriamo il caso in cui sia presente una forza di attrito proporzionale alla velocità lϑ̇: mlϑ̈ = −mg sin ϑ − klϑ̇, (k > 0), o anche: ϑ̈ + ω 2 sin ϑ + 2aϑ̇ = 0. con ω 2 = g/l e 2a = k/m. Scritta come sistema di equazioni questa diventa: ϑ̇ = v v̇ = −ω 2 sin ϑ − 2av. I punti di equilibrio sono dati da (kπ, 0) al variare di k ∈ Z. Posto f (ϑ, v) = v, −ω 2 sin ϑ − 2av , risulta: 0 1 Df (kπ, 0) = . −ω 2 cos kπ −2a Gli autovalori sono: λ1,2 Pertanto: √ −a ± a2 − ω 2 p = −a ± a2 − ω 2 cos kπ = √ −a ± a2 + ω 2 se k è pari, se k è dispari. se k è pari ℜλ1,2 < 0 e i punti (kπ, 0) risultano asintoticamente stabili: ricordando che v è la velocità angolare ϑ̇, si tratta delle configurazioni corrispondenti al punto di minima quota e velocità nulla. se k è dispari vi è un autovalore negativo e uno positivo: i punti (kπ, 0) sono instabili. Le Figure 5.3 e 5.4 delineano il diagramma di fase nei due casi in cui il coefficiente di attrito a sia sopra o sotto il valore critico ω. Esempio. L’esempio precedente, per a = 0, dà il pendolo privo di attrito. La linearizzazione attorno ai punti (kπ, 0) con k dispari presenta i due autovalori ±ω: pertanto si tratta ancora di punti di equilibrio instabile (Figura 3.7). I diagrammi di fase attorno ai punti ((2k + 1)π, 0) nel caso del pendolo senza attrito (vedi Figura 3.7), o quelli attorno ai punti (2kπ, 0) per il pendolo con attrito (vedi Figure 5.3 e 5.4) hanno la stessa struttura dei corrispondenti diagrammi di fase relativi ai problemi linearizzati: nel primo caso il problema lineare presenta un punto di sella, nel secondo caso un fuoco o un nodo stabili a seconda che si tratti della situazione sottocritica o sovracritica. Questa equivalenza topologica locale è resa precisa dal seguente teorema. Teorema 5.3.4 (Grobman-Hartman) Se 0 è un punto di equilibrio per il sistema (5.3) e nessuno degli autovalori della matrice Df (0) ha parte reale nulla, allora il flusso relativo al sistema (5.3) e il flusso relativo al sistema linearizzato x′ = Df (0)x sono localmente isocronalmente equivalenti, cioè esistono U e V intorni dell’origine e un omemomorfismo h : U → V tali che h(ϕ(t, x)) = etDf (0) h(x) per ogni x ∈ U . 123 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE 8 6 4 2 0 −2 −4 −6 −8 −10 −8 −6 −4 −2 0 2 4 Figure 5.3 - a < ω (pendolo sottosmorzato) 124 6 8 10 Chapter 5 - COMPORTAMENTO ASINTOTICO. STABILITÀ 5 4 3 2 1 0 −1 −2 −3 −4 −5 −6 −4 −2 0 2 4 6 Figure 5.4 - a > ω (pendolo sovrasmorzato) 125 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE ∼·∼·∼·∼·∼·∼·∼ In presenza di autovalori di cui si sappia soltanto la non positività o la non negatività della parte reale, nulla possiamo concludere sulla stabilità dell’origine come punto di equilibrio sfruttando solamente lo studio del sistema linearizzato. Consideriamo, ad esempio, x′ = −y + x3 (5.4) y′ = x + y3. L’unico punto di equilibrio è l’origine, ma la linearizzazione nell’origine è data dalla matrice 0 −1 . 1 0 Quindi l’origine è un centro per l’equazione linearizzata; mostriamo che invece è instabile per l’equazione data. Sia x(·), y(·) = ϕ(·, (x0 , y0 )) una soluzione; posto ̺(t) = risulta: p x(t)2 + y(t)2 , d 2 ̺ (t) = 2[xx′ + yy ′ ] = 2[x(−y + x3 ) + y(x + y 3 )] = 2(x4 + y 4 ); dt poiché x4 + y 4 ≥ 12 ̺4 , otteniamo 2 d 2 ̺ (t) ≥ ̺2 , dt da cui ̺2 (t) → +∞ in tempo finito. Se invece nella (5.4) i termini x3 e y 3 vengono rimpiazzati da −x3 e −y 3 , rispettivamente, allora l’equazione linearizzata non cambia, ma nelle stesse notazioni precedenti: d 2 ̺ (t) = −2(x4 + y 4 ), dt da cui si ricava la decrescenza di ̺ e quindi l’esistenza globale della soluzione x(·), y(·) e la sua convergenza a zero per t → +∞: l’origine è asintoticamente stabile. Nel caso del pendolo senza attrito trattato poco sopra, i punti di equilibrio (kπ, 0) con k pari danno un problema linearizzato con autovalori con parte reale nulla: vedremo nel prossimo paragrafo un modo per dimostrare la stabilità di tali punti. 5.4 FUNZIONI DI LIAPUNOV Il metodo delle funzioni di Liapunov può essere visto come una generalizzazione del fatto fisico che i punti di equilibrio stabile corrispondono a punti di minimo dell’energia. Consideriamo l’equazione (5.1), con f di classe C 1 . Se V : U → R è una funzione differenziabile (U ⊆ Ω aperto), per ogni x ∈ U definiamo la derivata orbitale di V in x: d V̇ (x) = V ϕ(t, x) , dt t=0 dove ϕ indica il flusso associato all’equazione (5.1). Osserviamo che V̇ (x) = ∇V (x) · f (x), (5.5) quindi V̇ può essere calcolata senza conoscere ϕ, cioè senza risolvere l’equazione differenziale. 126 Chapter 5 - COMPORTAMENTO ASINTOTICO. STABILITÀ Notiamo anche che, fissato x ∈ U e t0 ∈ ω− (x), ω+ (x) , abbiamo: d V ϕ(t, x) = ∇V ϕ(t0 , x) · ϕ′ (t0 , x) dt t=t0 = ∇V ϕ(t0 , x) · f ϕ(t0 , x) = V̇ ϕ(t0 , x) . Quindi in ogni punto ϕ(t, x) il valore V̇ ϕ(t, x) rappresenta la derivata di V nel punto ϕ(t, x) lungo la soluzione ϕ(·, x). Ad esempio, se V̇ ≤ 0 allora V decresce lungo ogni soluzione. Teorema 5.4.1 Sia x un punto di equilibrio per l’equazione (5.1). Sia V : U → R una funzione continua definita in un intorno U ⊆ Ω di x, differenziabile in U \ {x} e tale che: a) V (x) = 0, V (x) > 0 se x 6= x; b) V̇ ≤ 0 in U \ {x}. Allora il punto x è stabile. Se inoltre c) V̇ < 0 in U \ {x}, allora il punto x è asintoticamente stabile. Una funzione V soddisfacente (a) e (b) è detta funzione di Liapunov per x; se vale anche la proprietà (c) si parla di funzione di Liapunov stretta. Dimostrazione. Sia δ > 0 tale che B δ (x) ⊆ U e α = min{V (x) : x ∈ ∂Bδ (x)} > 0. Sia U1 = {x ∈ Bδ (x) : V (x) < α}. Per ogni x ∈ U1 si ha d V ϕ(t, x) = V̇ ϕ(t, x) ≤ 0, dt finchè ϕ(t, x) ∈ U ; quindi V ϕ(·, x) è non crescente, per cui: ϕ(t, x) ∈ Bδ (x) per ogni t ∈ ω− (x), ω+ (x) . Ne segue che x è stabile. Notiamo che, in particolare, ω+ (x) = +∞ (si ricordi l’Osservazione 5.1.3). Supponiamo che valga anche la proprietà (c). Fissiamo x ∈ U1 e sia (tn )n una successione tendente a +∞. Poiché ϕ(tn , x) n è limitata ammette una sottosuccessione convergente (che per semplicità denotiamo sempre allo stesso modo): ϕ(tn , x) → z. Dimostriamo che z = x. Poiché V è strettamente decrescente lungo ϕ(·, x), risulta: V ϕ(t, x) > V (z) per ogni t ≥ 0 (5.6) (infatti V ϕ(tn , x) > V (z) e per ogni t > 0 esiste n tale che tn < t). Supponiamo che z 6= x. Allora V (z) > V ϕ(s, z) per ogni s ≥ 0. 127 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Fissiamo S > 0; per la dipendenza continua dai dati iniziali, per ogni ε > 0 è possibile determinare nε ∈ N tale che |ϕ S, ϕ(tnε , x) − ϕ(S, z)| < ε. Poiché V ϕ(S, z) < V (z) e V è continua (nel punto ϕ(S, z), per ε sufficientemente piccolo risulta: Osserviamo ora che: per cui V ϕ S, ϕ(tnε , x) < V (z). ϕ S, ϕ(tnε , x) = ϕ(tnε + S, x), V ϕ(tnε + S, x) < V (z); ciò è assurdo per (5.6). Per l’arbitrarietà della successione (tn ) concludiamo che ϕ(t, x) → x per t → +∞. Esempio. Consideriamo l’equazione del moto di un punto materiale di massa m in un campo di forze conservativo di potenziale −φ(x): mẍ = −∇φ(x). Equivalentemente possiamo scrivere: ( ẋ = v 1 v̇ = − ∇φ(x). m (5.7) Se x è punto di minimo per φ allora (x, 0) è punto di equilibrio per il sistema (5.7). Poniamo: V (x, v) = 1 m|v|2 + φ(x) − φ(x) 2 (si tratta dell’energia totale del sistema). Allora: − V̇ (x, v) = 0, come subito si verifica utilizzando la (5.5); − se x è punto di minimo stretto allora (x, 0) è di equilibrio, V (x, 0) = 0 e V (x, v) > 0 se (x, v) 6= (x, 0) è in un intorno di (x, 0). Pertanto la funzione V è di Liapunov per (x, 0), che quindi è stabile. Sistemi hamiltoniani. L’esempio precedente rientra nell’importante categoria dei sistemi hamiltoniani. Si tratta si sistemi di equazioni differenziali della forma q̇ = Hp (q, p) (5.8) ṗ = −Hq (q, p), dove H(p, q) è una funzione differenziabile in 2n variabili (p ∈ Rn , q ∈ Rn ). Come subito si verifica, H è un integrale primo del sistema (5.8), cioè è costante lungo le soluzioni; infatti: d H q(t), p(t) = Hq q(t), p(t) q̇(t) + Hp q(t), p(t) ṗ(t) ≡ 0. dt Ciò significa che la derivata orbitale di H è nulla. 128 Chapter 5 - COMPORTAMENTO ASINTOTICO. STABILITÀ Sia ora (q, p) un punto di minimo stretto per H; allora (q, p) è critico, quindi è un punto di equilibrio per il sistema (5.8); inoltre V (q, p) := H(q, p) − H(q, p) è una funzione di Liapunov per (q, p). Concludiamo che (q, p) è di equilibrio stabile. Notiamo che l’essere H costante lungo le soluzioni esclude l’asintotica stabilità. Il caso precedente si ottiene per H(x, v) = 1 2 1 |v| + φ(x) 2 m (la funzione V dell’esempio precedente è mH). Esempio. Lo studio del moto di un pendolo di lunghezza l senza attrito conduce all’equazione: ϑ̈ + ω 2 sin ϑ = 0 (ω 2 = g ), l cioè al sistema del primo ordine: ϑ̇ = v v̇ = −ω 2 sin ϑ (si veda il § 3.7 per lo studio delle orbite, in particolare la Figura 3.7). La funzione H(ϑ, v) = 1 2 |v| − ω 2 cos ϑ 2 è una funzione di Liapunov per i punti di equilibrio (kπ, 0), con k intero pari: pertanto si tratta di punti di equilibrio stabile. Come già sopra notato, non è possibile applicare il metodo di linearizzazione in quanto gli autovalori hanno parte reale nulla. Sistemi gradiente. Si tratta di sistemi della forma x′ = −∇V (x) (5.9) con V ∈ C 2 (Ω); quindi il campo di velocità è un campo gradiente. Sia x un punto di minimo stretto per V ; per semplicità supponiamo che V (x) = 0. Allora V >0 in un intorno di x. Inoltre V̇ (x) = −|∇V (x)|2 ≤ 0. Quindi V è una funzione di Liapunov per x, che pertanto è di equilibrio stabile. Se in più x è anche isolato come punto critico, allora V è una funzione di Liapunov stretta e x è asintoticamente stabile. Osservazione 5.4.2 Nello studio della stabilità degli equilibri per sistemi bidimensionali è utile tenere presente i metodi del § 3.7 per la determinazione delle traiettorie. ∼·∼·∼·∼·∼·∼·∼ Concludiamo con un risultato di asintotica stabilità che dà una stima del cosiddetto bacino di attrazione di un punto di equilibrio asintoticamente stabile x, cioè l’insieme dei punti x per i quali ϕ(t, x) → x per t → +∞. È conveniente premettere alcuni concetti (che si inquadrerebbero in modo naturale nel più vasto quadro dei sistemi dinamici). Definizione 5.4.3 Sia ϕ il flusso associato all’equazione (5.1). Sia x ∈ Ω. 129 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Poniamo: γ + (x) = {ϕ(t, x) : t ∈ [0, ω+ (x))} γ − (x) = {ϕ(t, x) : t ∈ (ω− (x), 0]} γ(x) = {ϕ(t, x) : t ∈ (ω− (x), ω+ (x)} semiorbita positiva di x semiorbita negativa di x orbita di x. Se ω+ (x) = +∞, si dice ω-limite di x l’insieme \ \ ω(x) = γ + ϕ(t, x) = {ϕ(s, x) : s ≥ t}. t>0 t>0 In modo analogo si definisce l’α-limite di x. Diremo poi che un insieme è positivamente [negativamente] invariante se contiene la semiorbita positiva [negativa] di ogni suo punto. Si parla invece di insieme invariante se è sia positivamente che negativamente invariante, cioè contiene l’orbita di ogni suo punto. Enunciamo senza dimostrazione la seguente proprietà: Proposizione 5.4.4 L’insieme ω(x) è invariante, cioè contiene l’orbita di ogni suo punto. Utilizzando questo risultato è facile dimostrare: Teorema 5.4.5 Sia x ∈ Ω un punto di equilibrio per l’equazione (5.1) e sia V : U → R una funzione di Liapunov per x. Sia A un intorno chiuso e limitato di x che sia positivamente invariante e tale che su nessuna orbita in A \ {x} la funzione V sia costante. Allora x è asintoticamente stabile e A è contenuto nel bacino d’attrazione di x. Dimostrazione. Sia x ∈ A; poiché A è positivamente invariante e chiuso ω(x) ⊆ γ + (x) ⊆ A. Poiché V decresce lungo le orbite, V ϕ(t, x) → α := inf{V ϕ(τ, x) : τ ≥ 0}. I punti di ω(x) sono limite di successioni ϕ(tk , x) k (con tk → +∞) e V è continua; quindi V = α su ω(x). Per ipotesi ω(x), in quanto sottoinsieme di A, non contiene orbite su cui V è costante, se non l’orbita {x}. Deve allora essere ω(x) = {x}, da cui si deduce che ϕ(t, x) → x per t → +∞. 130 Chapter 6 EQUAZIONI DELLA FISICA MATEMATICA: PROBLEMI AI LIMITI E FUNZIONI SPECIALI La modellizzazione dei fenomeni fisici mediante equazioni differenziali dà luogo sovente a equazioni del secondo ordine: si pensi, ad esempio, ai problemi incentrati sulla seconda legge della dinamica, nella quale il termine di accelerazione si esprime tramite le derivate seconde della funzione della posizione. Poichè la prima fase di approssimazione nel tradurre matematicamente un fenomeno passa in genere attraverso un’operazione di linearizzazione, le equazioni differenziali del secondo ordine e lineari, sia ordinarie che a derivate parziali, svolgono un ruolo rilevante in una molteplicità di modelli. Da essi scaturisce poi la maggior parte delle tipologie di problemi: ne sono esempio i problemi ai valori iniziali, come si incontrano nella determinazione della legge oraria di un moto nota la posizione e la velocità iniziale. Un’altra rilevante tipologia di problemi per un’equazione del secondo ordine è quella in cui la prescrizione del valore iniziale dell’incognita e della sua derivata vengono sostituiti dall’assegnazione del valore dell’incognita agli estremi di un fissato intervallo: si tratta dei cosiddetti problemi ai limiti, collegati all’importante questione della determinazione degli autovalori degli operatori differenziali e della ricerca delle corrispondenti autofunzioni. In questo capitolo accenniamo ad alcune di tali questioni connesse allo studio di equazioni fondamentali della Fisica Matematica. Il § 6.1 presenta un esempio standard di problema ai limiti come scaturisce dalla risoluzione dell’equazione di Laplace su un rettangolo mediante separazione di variabili. I §§ 6.2 e 6.3 trattano l’equazione di Hermite e l’equazione di Bessel (di ordine 0), come esempi di equazioni differenziali lineari del secondo ordine a coefficienti variabili, introducendo il metodo di risoluzione mediante sviluppi in serie di potenze. Infatti, ad eccezione di alcuni casi particolari, non è possibile esprimere le soluzioni delle equazioni a coefficienti variabili mediante combinazioni finite di funzioni elementari. Soluzioni particolari (usualmente espresse come sviluppi in serie) di equazioni come quelle di Hermite o di Bessel danno luogo a funzioni speciali della Fisica Matematica di ampio utilizzo nei problemi modellistici e quindi diffusamente studiate di per sè. Nei §§ 6.4 e 6.5 per ciascuna delle due equazioni introdotte illustriamo un problema in cui essa si presenta in modo naturale. I contesti scelti sono la modellizzazione dell’oscillatore armonico quantistico (già incontrato nel § 1.7) e dei modi normali di vibrazione di una membrana circolare elastica. Entrambi coinvolgono lo studio di problemi ai limiti e problemi agli autovalori per equazioni lineari del secondo ordine. 131 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE 6.1 EQUAZIONE DI LAPLACE SU DI UN RETTANGOLO Una delle equazioni a derivate parziali più note è l’equazione di Laplace: ∆u(x, y) = 0 ∆= ∂2 ∂2 + ∂x2 ∂y 2 (6.1) in un assegnato aperto Ω di R2 . Ad esempio, il potenziale u in una regione piana Ω, in assenza di carica elettrica interna, soddisfa l’equazione (6.1). Un problema che si presenta in modo naturale per la (6.1) è il seguente ∆u = 0 in Ω (6.2) u = u0 su ∂Ω Si tratta della ricerca di quelle particolari soluzioni di (6.1) che assumono l’assegnato valore u0 su ∂Ω: si pensi, ad esempio, all’interpretazione di u come potenziale. L’operatore ∆ è lineare (∆(αu + βv) = α∆u + β∆v), per cui l’insieme V delle soluzioni di (6.1) è uno spazio vettoriale rispetto alle usuali operazioni di somma e prodotto per scalari. È possibile individuare una base di V ? Non affronteremo qui il problema nella sua generalità; individueremo invece alcune soluzioni ‘elementari’ a partire dalle quale cercheremo di rappresentare la soluzione del problema (6.2) per domini Ω rettangolari. Sia pertanto Ω = (0, 1) × (0, 1) e riscriviamo il problema nella forma in Ω ∆u(x, y) = 0 u(x, 0) = u10 (x), u(1, y) = u20 (y) u(x, 1) = u30 (x) u(0, y) = u40 (y) (6.3) con ui0 restrizione, al corrispondente lato di Ω, della funzione (continua) u0 . Poichè ∆ è lineare, possiamo risolvere separatamente ciascuno dei problemi ottenuti ponendo uguali a zero i dati ui0 su tre dei quattro lati e sommare infine le quattro funzioni cosı̀ ottenute. Ad esempio, prendiamo in considerazione il problema in Ω ∆u(x, y) = 0 u(x, 0) = f (x), (6.4) u(1, y) = u(x, 1) = u(0, y) = 0 con f = u10 . Determiniamo innazitutto soluzioni della forma ‘a variabili separate’ u(x, y) = v(x)w(y) dell’equazione ∆u = 0 soddisfacenti le prescritte condizioni di annullamento sui tre lati. Deve essere v ′′ (x)w(y) + v(x)w′′ (y) = 0; questa è implicata da: w′′ (y) v ′′ (x) =− . v(x) w(y) Poiché i due membri dipendono da variabili differenti, devono essere costanti, diciamo −λ; da ciò e dalle condizioni di annullamento arriviamo ad imporre a v e w di risolvere26 ′′ ′′ v (x) + λv(x) = 0 w (y) − λw(y) = 0 (6.5) (6.6) v(0) = 0 = v(1) w(1) = 0 26 Se v ′′ (x) + λv(x) = 0 e w ′′ (y) − λw(y) = 0 allora v ′′ (x)w(y) + λv(x)w(y) = 0 e v(x)w ′′ (y) − λv(x)w(y) = 0, per cui, sommando membro a membro, si ha v′′ (x)w(y) + v(x)w ′′ (y) = 0. 132 Chapter 6 - EQUAZIONI DELLA FISICA MATEMATICA Il problema (6.5) è un problema ai limiti per l’equazione v ′′ + λv = 0. Sicuramente ammette la soluzione nulla, ma per gli scopi che ci siamo prefissati dobbiamo vedere se è possibile determinare λ in modo che esistano soluzioni non identicamente nulle. Dobbiamo distinguere tre casi: a) λ = −a2 < 0 (con a > 0) In tal caso le soluzioni sono date da: v(x) = c1 eax + c2 e−ax (c1 , c2 ∈ R). La condizione di annullamento agli estremi di (0, 1) dà c1 = c2 = 0, come si vede facilmente. b) λ = 0 Le soluzioni sono affini: v(x) = c1 + c2 x; chiaramente solo la funzione nulla assume valore zero nei punti x = 0 e x = 1. c) λ = a2 (con a > 0) Le soluzioni hanno la forma v(x) = c1 cos ax + c2 sin ax (c1 , c2 ∈ R). Se richiediamo che v si annulli negli estremi di (0, 1), allora c1 = 0 e c2 sin a = 0. Otteniamo allora soluzioni diverse da quella nulla in corrispondenza dei valori a = ±nπ per n ∈ N. Pertanto, esistono infiniti valori λn = n2 π 2 (n ∈ N) per i quali il problema (6.5) ha soluzioni non nulle, date, a meno di una costante moltiplicativa, da vn (x) = sin nπx. I valori λn sono detti autovalori del problema (6.5), e le funzioni vn sono le corrispondenti autofunzioni. Poniamo ora λ = λn nella (6.6); otteniamo: w(y) = c1 enπy + c2 e−nπy con la condizione c1 enπ + c2 e−nπ = 0, da cui si ricava facilmente che w differisce per una costante moltiplicativa dalla funzione wn = sinh nπ(1 − y). Riassumendo, le funzioni un (x, y) = vn (x)wn (y) = sin nπx sinh nπ(1 − y) (n ∈ N) risolvono l’equazione ∆u = 0 e soddisfano le condizioni u(1, y) = u(x, 1) = u(0, y) = 0. Cerchiamo ora di soddisfare anche la condizione u(x, 0) = f (x) mediante una combinazione lineare ‘infinita’ di funzioni un , cioè una serie u(x, y) = ∞ X n=1 cn sin nπx sinh nπ(1 − y). (6.7) 133 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Deve essere (y = 0) f (x) = ∞ X bn sin nπx n=1 con bn = cn sinh nπ. Allora la successione (bn ) deve coincidere con la successione dei coefficienti dello sviluppo di f in serie di Fourier di soli seni. Notiamo espressamente che si tratta dello sviluppo di f in serie di autofunzioni del problema (6.5). È possibile verificare che la funzione cosı̀ ottenuta, sommata a quelle ricavate a partire dai problemi analoghi a (6.4), risolve effettivamente il problema (6.3): la funzione è C 2 e verifica l’equazione ∆u = 0 in Ω = (0, 1) × (0, 1) ed è estendibile con continuità a ∂Ω in modo da assumere il valore u0 : ci limitiamo qui a verificare la prima di queste condizioni (mentre più delicato è dimostrare l’estendibilità continua sul bordo con valore u0 ). A tal fine è sufficiente considerare la u in (6.7). Dalla teoria delle serie di Fourier segue che Z 1 bn = f (x) sin nπx dx. 0 Nell’ipotesi di continuità, e quindi di limitatezza, di f la successione (bn ) è equilimitata; inoltre sinh nπ(1 − y) 1 − e−2nπ(1−y) = e−nπy sinh nπ 1 − e−2nπ 1 ≤ e−nπy . 1 − e−2π Pertanto esiste C > 0 per il quale il termine generale della serie (6.7) è maggiorato, in valore assoluto, da: C(e−πy )n . Ne segue che la serie (6.7) converge assolutamente in modo uniforme in ogni insieme [0, 1] × [y0 , 1] con y0 > 0. P Con ragionamento analogo si vede che le serie derivate, prime e seconde, sono dominate da n2 (e−πy )n , a meno di una costante positiva. Quindi le derivate di u uguagliano le corrispondenti serie derivate, da cui ∆u = 0. (Si veda, ad esempio, [9]). 6.2 EQUAZIONE DI HERMITE Come avremo modo di vedere nel successivo §6.4, lo studio dell’oscillatore armonico quantistico porta alla considerazione della seguente equazione, detta equazione di Hermite u′′ (x) − 2xu′ (x) + 2γu(x) = 0, (6.8) dove γ è una data costante reale. Cerchiamo di determinare le soluzioni che possono essere sviluppate in serie di potenze della forma: ∞ X u(x) = an xn n=0 con raggio di convergenza R > 0. Se |x| < R possiamo considerare le serie derivate: ′ u (x) = ∞ X n=1 134 n−1 nan x ′ , quindi xu (x) = ∞ X n=1 n nan x = ∞ X n=0 nan xn Chapter 6 - EQUAZIONI DELLA FISICA MATEMATICA e u′′ (x) = ∞ X n=2 n(n − 1)an xn−2 = ∞ X (n + 2)(n + 1)an+2 xn . n=0 La condizione che u risolva l’equazione si traduce pertanto nella seguente relazione fra i coefficienti an dello sviluppo: (n + 2)(n + 1)an+2 − 2nan + 2γan = 0, cioè an+2 = 2 n−γ an , (n + 2)(n + 1) per ogni n ≥ 0. (6.9) I valori a0 e a1 possono essere assegnati arbitrariamente, mentre i coefficienti successivi risultano determinati per ricorrenza dalla (6.9). La scelta a0 = 1 e a1 = 0 dà a2k+1 = 0 per ogni k, mentre a2(k+1) = 2 2k − γ a2k , (2k + 2)(2k + 1) da cui, per iterazione, a2(k+1) = 2k+1 (2k − γ)(2k − 2 − γ) . . . (−γ) . (2k + 2)! P Mediante il criterio del rapporto è immediato verificare che la serie k a2k x2k converge assolutamente per ogni x; pertanto definisce una funzione analitica u1 su tutto R la quale, in base a quanto svolto, risolve l’equazione (6.8). Analogamente, se poniamo a0 = 0 e a1 = 1 otteniamo a2k = 0 per ogni k, mentre a(2k+1)+2 = 2k+1 (2k + 1 − γ)(2k − 1 − γ) . . . (1 − γ) . (2k + 3)! La corrispondente serie è ancora assolutamente convergente su tutto R, per cui dà luogo ad una funzione analitica u1 che risolve (6.8) su tutto R. Osserviamo che il determinante wronskiano di u1 e u2 per t = 0 è u1 (0) u2 (0) 1 = w(0) = ′ u1 (0) u′2 (0) 0 0 = 1 6= 0. 1 Pertanto u1 e u2 sono soluzioni linearmente indipendenti e le soluzioni di (6.8) sono date da: u(t) = c1 u1 (t) + c2 u2 (t), al variare di c1 , c2 ∈ R. Osservazione 6.2.1 Nel caso in cui γ è un intero naturale pari, la serie che definisce u1 è in realtà una somma finita, quindi u1 è un polinomio, di grado γ. Cosı̀ pure, se γ è un intero naturale dispari, allora la funzione u2 è un polinomio, di grado γ. In tutti gli altri casi le funzioni u1 e u2 sono serie effettive, che definiscono una funzione pari e una funzione dispari, rispettivamente; quindi se γ ∈ / N nessuna delle soluzioni c1 u1 (t) + c2 u2 (t) è polinomiale. Vedremo l’importanza di questa osservazione nel § 6.4. 135 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE 6.3 EQUAZIONE DI BESSEL Analizziamo ora un’importante equazione differenziale del secondo ordine che nasce in connessione all’operatore di Laplace in coordinate polari nel piano (come vedremo, a titolo d’esempio, nel problema presentato nel prossimo paragrafo). Per t 6= 0 consideriamo l’equazione: 1 u′′ + u′ + u = 0, t (6.10) detta equazione di Bessel di ordine 0. Cerchiamo una soluzione in forma di serie di potenze: u(t) = ∞ X a n tn . n=0 con raggio di convergenza R positivo. Per ogni t interno al cerchio di convergenza abbiamo u′ (t) = ∞ X nan tn−1 , u′′ (t) = ∞ X n=2 n=1 n(n − 1)an tn−2 . Quindi ∞ X 1 u′′ (t) + u′ (t) + u(t) = (n + 2)(n + 1)an+2 tn t n=0 + ∞ ∞ X a1 X + (n + 2)an+2 tn + a n tn t n=0 n=0 ∞ = a1 X + [(n + 2)2 an+2 + an ]tn ; t n=0 ne segue che la condizione che u risolva (6.10) diventa: a1 = 0, an+2 = − 1 an . (n + 2)2 Tutti i termini di indice dispari sono pertanto nulli, mentre a2(k+1) = − 1 a2k , [2(k + 1)]2 per ogni k ≥ 0. Da ciò deduciamo che (−1)k a0 . 22k (k!)2 Se assumiamo a0 = 1 otteniamo come funzione u la cosiddetta funzione di Bessel (del primo tipo) di ordine 0: X (−1)k (t/2)2k t2 t4 J0 (t) := = 1 − 2 + 2 2 + ... 2 (k!) 2 2 4 a2k = k=0 Osserviamo che il raggio di convergenza è +∞ e la funzione è pari. Sappiamo che lo spazio vettoriale delle soluzioni dell’equazione (6.10) è bidimensionale; individuiamo una seconda soluzione che sia indipendente rispetto a J0 . Nello spirito del metodo di variazione delle costanti cerchiamo una soluzione della forma u(t) = v(t)J0 (t), 136 (t > 0) Chapter 6 - EQUAZIONI DELLA FISICA MATEMATICA 1 J0 (t) 0.5 0 2 4 6 8 10 12 14 16 t −0.5 Figure 6.1 - Funzione J0 di Bessel con v da determinare. Deve essere: 1 v ′′ J0 + 2v ′ J0′ + vJ0′′ + (v ′ J0 + vJ0′ ) + vJ0 = 0, t da cui, tenendo conto che J0 è soluzione dell’equazione, 1 ′ J′ v = 0, v ′′ + 2 0 + J0 t in ogni intervallo in cui J0 6= 0. Come equazione in v ′ questa dà subito v ′ (t) = c 1 tJ02 (t) (c costante), quindi: v(t) = c Z 1 tJ02 (t) dt. Si può verificare che, a meno di un addendo multiplo di J0 , risulta: Z 1 t2 J0 (t) dt = J (t) log t + 0 tJ02 (t) 22 t6 1 1 1 t4 + 2 2 2 1+ + − ... − 2 2 1+ 2 ·4 2 2 ·4 ·6 2 3 Si può dimostrare che la serie che segue il termine J0 (t) log t converge assolutamente per ogni t ∈ R. La funzione u0 a secondo membro costituisce pertanto un’estensione di v a tutto (0, +∞), quindi anche nei punti di annullamento di J0 . Concludiamo che le soluzioni dell’equazione (6.10) sono date da: u(t) = c1 J0 (t) + c2 u0 (t), al variare di c1 , c2 ∈ R. In realtà, per coerenza con definizioni alternative, si preferisce utilizzare anzichè u0 la funzione 2 2 Y0 (t) := − (log 2 − γ)J0 (t) + u0 , π π 137 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE 1 Y0 (t) 0.5 0 2 4 6 8 10 12 14 16 t −0.5 −1 −1.5 −2 Figure 6.2 - Funzione Y0 di Neumann-Bessel dove γ indica la costante di Eulero-Mascheroni: 1 1 1 γ := lim 1 + + + . . . + − log n ∼ 0.5772 . . . n→+∞ 2 3 n La funzione Y0 è detta funzione di Neumann-Bessel del secondo tipo, di ordine 0. Il grafico è indicato in Figura 6.2; notiamo che, dalla definizione stessa si ricava la singolarità di tipo logaritmico per t0 : Y0 (t)/ log t → 1 per t → 0+ . 6.4 OSCILLATORE ARMONICO QUANTISTICO Riprendiamo l’equazione di Schrödinger degli stati stazionari nel caso di potenziale armonico (vedi § 1.7): riscalando opportunamente la variabile spaziale otteniamo l’equazione (1.29), cioè v ′′ (x) + (2γ − x2 )v(x) = 0, (6.11) dove abbiamo nuovamente utilizzato la variabile x e, per comodità di notazione in vista delle successive trasformazioni, abbiamo indicato con 2γ + 1 la costante ε; risulta pertanto: r mK 1/2 E E m =2 . 2γ + 1 = 2 ~2 K ~ K Le soluzioni di interesse fisico (funzioni d’onda) devono soddisfare la condizione lim |x|→+∞ v(x) = 0. Considerazioni euristiche27 suggeriscono di operare il cambiamento di variabile v(x) = u(x)e−x 27 Per 2 . valori grandi di |x| possiamo trascurare il termine γ del coefficiente di u(x) nella (6.11), ottenendo v′′ (x) = x2 v(x). 138 /2 Chapter 6 - EQUAZIONI DELLA FISICA MATEMATICA L’equazione si trasforma cosı̀ nell’equazione di Hermite u′′ (x) − 2xu′ (x) + 2γu(x) = 0. Pertanto, cerchiamo soluzioni u(x) dell’equazione di Hermite per le quali lim |x|→+∞ u(x)e−x 2 /2 = 0. (6.12) Come visto nell’Osservazione 6.2.1, le uniche soluzioni polinomiali si ottengono se γ è un intero naturale. Queste soddisfano banalmente la condizione (6.12). Si può dimostrare che si tratta delle uniche soluzioni con tale proprietà. Per ogni n ∈ N si conviene di indicare con Hn (x) l’unico polinomio di grado n che risolve l’equazione (6.8) per γ = n e che ha il coefficiente del termine di grado massimo dato da 2n . Si tratta dei cosiddetti polinomi di Hermite. Risulta, ad esempio, H0 (x) = 1, H1 (x) = 2x, H2 (x) = −2 + 4x2 , H3 (x) = −12x + 8x3 , . . . Se ricordiamo il significato attribuito a γ, la condizione (6.12) di ammissibilità delle soluziioni dell’equazione di Hermite e quindi di ammissibilità per le corrispondenti soluzioni dell’equazione di Schrödinger, si traduce nel richiedere l’esistenza di un numero naturale n tale che r mK 1/2 E E m 2n + 1 = 2 =2 , ~2 K ~ K cioè r 1 K ~. E = n+ 2 m Ricordiamo l’equazione classica ẍ(t) + ω 2 x(t) = 0 (con ω 2 = K/m, se K è la costantepelastica e m indica la massa): le soluzioni x(t) = A cos(ωt + ϕ) hanno periodo T = 2π/ω = 2π m/K, o T = 1/ν, con r K 1 ν= . 2π m Utilizzando questa definizione di ν anche per il caso dell’oscillatore armonico quantistico, la formula precedente assume la forma 1 E = En = hν n + , 2 che esprime la ben nota quantizzazione dell’energia: i valori ammissibili dell’energia formano un insieme discreto. 6.5 MODI NORMALI DI VIBRAZIONE PER UNA MEMBRANA CIRCOLARE Consideriamo il problema delle vibrazioni trasversali di una membrana fissata al bordo della regione circolare D = {(x, y) ∈ R2 : x2 + y 2 < 1}. Una possibile modellizzazione è tradotta dal problema La funzione v(x) = e−x 2 /2 è una soluzione approssimata di tale equazione, nel senso che v (x) = (−1 + x2 )e−x ′′ 2 /2 ∼ x2 e−x 2 /2 = x2 v(x) per |x| grande. 2 È quindi ragionevole cercare soluzioni esatte della (6.11) nella forma u(x)e−x /2 (si pensi al metodo di variazione delle 2 2 costanti . . . ). Nel ragionamento svolto è anche possibile considerare, in luogo di e−x /2 , la funzione ex /2 , ma questa non soddisfa la condizione di annullamento all’infinito. 139 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE differenziale u (x, y; t) = c2 ∆x,y u(x, y; t) tt u(x, y; t) = 0 u(· ; 0) = u0 ut (· ; 0) = u1 , in D per (x, y) ∈ ∂D (6.13) dove u(x, y; t) rappresenta lo scostamento verticale dalla posizione di riposo nel punto (x, y) all’istante t di tempo, c > 0 è la velocità di propagazione delle onde elastiche nel mezzo, u0 indica il profilo iniziale della membrana e u1 la velocità iniziale in ogni punto. Cerchiamo innanzitutto soluzioni ‘elementari’ che soddisfino la condizione di annullamento al bordo di D. a) Come primo passo determiniamo soluzioni che presentino la variabile temporale t separata dalle variabili spaziali x, y, nella seguente forma: u(x, y; t) = T (t)v(x, y). Deve allora essere T ′′ (t)v(x, y) = c2 T (t)∆v(x, y), e quindi ∆v(x, y) T ′′ (t) = . c2 T (t) v(x, y) Entrambi i membri devono essere costanti, diciamo −λ, quindi T ′′ + c2 λT = 0 − ∆v = λv. (6.14) (6.15) La seconda equazione, con la condizione che u sia costantemente nulla sul bordo di D, dà: n −∆v = λv in D (Pλ ) v=0 su ∂D. I valori λ per i quali il problema (Pλ ) ha soluzioni non nulle sono detti autovalori di −∆ (sul dominio D); le corrispondenti soluzioni sono dette autofunzioni. Proposizione 6.5.1 Gli autovalori di −∆ su D sono strettamente positivi. Dimostrazione. Sia λ un autovalore di (Pλ ) e v un’autofunzione corrispondente. Utilizzando la formula di integrazione per parti in più variabili e tenendo conto che v = 0 su ∂D, abbiamo: Z Z Z Z Z ∂v dσ ∇v∇v dxdy = − v∆v dxdy + v ∂ν D ∂D Z ZD =λ v 2 dxdy. D Ne segue che λ deve essere positivo, strettamente poiché v non è identicamente nulla. b) Per individuare gli autovalori del problema (Pλ ) sfruttiamo la forma del dominio D, scrivendo il problema in coordinate polari (̺, ϑ). Indichiamo per semplicità con v(̺, ϑ) la funzione v(̺ cos ϑ, ̺ sin ϑ) e ricordiamo l’espressione del laplaciano in coordinate polari; abbiamo quindi − v̺̺ + 1 v̺ + 1 vϑϑ ) = λv 0 < ̺ < 1, ϑ ∈ R ̺ ̺2 (6.16) v(1, ϑ) = 0 140 Chapter 6 - EQUAZIONI DELLA FISICA MATEMATICA con l’ulteriore condizione che v sia 2π-periodica in ϑ e che esista finito lim v(̺, ϑ). ̺→0 Osserviamo che se i dati iniziali u0 e u1 sono indipendenti da ϑ, la simmetria del problema suggerisce che anche la soluzione u goda della medesima proprietà. Consideriamo quindi innanzitutto la situazione v = v(̺); in tal caso le condizioni su v sono: 1 0 < ̺ < 1, v ′′ + v ′ + λv = 0, ̺ v(1) = 0, esista finito lim v(̺). ̺→0 Assumiamo λ > 0 in base alla Proposizione 6.5.1. Se eseguiamo il cambiamento di variabile √ √ w(r) = v(r/ λ) r = λ̺, l’equazione diventa: 1 w′′ + w′ + w = 0, r che è l’equazione di Bessel di ordine 0 introdotta nel paragrafo precedente. Le soluzioni si esprimono dunque nella forma w(r) = c1 J0 (r) + c2 Y0 (r), cioè √ √ v(̺) = c1 J0 ( λ̺) + c2 Y0 ( λ̺). La condizione di regolarità in ̺ = 0 dà c2 = 0 (ricordiamo che Y0 è singolare in 0); del resto, la richiesta v(1) = 0 dà √ J0 ( λ) = 0. Come il comportamento qualitativo di J0 in Figura 6.1 lascia intuire, √ esiste una successione di zeri di J0 , quindi una successione di soluzioni λn per l’equazione J0 ( λ) = 0. In corrispondenza a questi la (6.14) diventa: T ′′ + c2 λn T = 0, da cui √ T (t) = A cos(c λn t − ϕ), al variare di A ≥ 0 e ϕ ∈ R. Concludiamo che le funzioni √ √ un (̺, t) = J0 ( λn ̺) cos(c λn t − ϕn ), con λn determinati come detto e ϕn arbitrari valori reali, risolvono utt (x, y; t) = c2 ∆x,y u(x, y; t) in D u(x, y; t) = 0 per (x, y) ∈ ∂D. Osservazione 6.5.2 Si parla di modi normali di vibrazione in relazione alle soluzioni un cosı̀ ottenute. √ Per ciascuno di essi l’ampiezza delle oscillazioni in ogni punto (̺, ϑ) è dato dal valore di J0 in λn ̺; pertanto sono presenti “linee nodali” lungo le quali lo spostamento rimane √ √ concentriche nullo: si tratta delle circonferenze di raggi ̺ = λk / λn per k < n. (Si veda, ad esempio, [2]). 141 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE Figure 6.3 - Linee nodali nei modi normali di vibrazione di una membrana circolare. Secondo lo stesso schema seguito per l’equazione di Laplace su un rettangolo, per risolvere il problema (6.13) si considera una serie delle funzioni elementari un : u(̺, t) = ∞ X cn un (̺, t). n=1 I coefficienti cn e ϕn vengono poi determinati mediante le condizioni iniziali. Al riguardo conviene scrivere le cn un nella forma √ √ √ un (̺, t) = J0 ( λn ̺)[an cos(c λn t) + bn sin(c λn t)], e utilizzare l’arbitrarietà di an e bn (anzichè di cn e ϕn ). Allora la condizione u(·, 0) = u0 diventa: u0 (̺) = ∞ X √ an J0 ( λn ̺) n=1 mentre la condizione ut (·, 0) = u1 dà luogo a: u1 (̺) = ∞ X √ √ bn c λn J0 ( λn ̺). n=1 Si tratta di uno sviluppo di Bessel-Fourier dei dati iniziali. 142 Bibliography 1. H. Amann. Ordinary differential equations. An introduction to nonlinear analysis, volume 13 of de Gruyter Studies in Mathematics. Walter de Gruyter & Co., Berlin, 1990. 2. F. Bowman. Introduction to Bessel functions. Dover Publications Inc., New York, 1958. 3. P. Ciarlet. Mathematical Elasticity. North Holland, Amsterdam, 1988. 4. Jack K. Hale. Ordinary differential equations. Robert E. Krieger Publishing Co., Huntington, N.Y., second edition, 1980. 5. Philip Hartman. Ordinary differential equations. John Wiley & Sons Inc., New York, 1964. 6. Morris W. Hirsch and Stephen Smale. Differential equations, dynamical systems, and linear algebra., volume 60 of Pure and Applied Mathematics. Academic Press [A subsidiary of Harcourt Brace Jovanovich, Publishers], New York-London, 1974. 7. Livio C. Piccinini, Guido Stampacchia, and Giovanni Vidossich. Equazioni differenziali ordinarie in Rn : (problemi e metodi). Serie di matematica e fisica; 5. Liguori, Napoli, 1978. 8. C. Renfrew. Il carbonio-14 e la preistoria d’europa. Le Scienze, gennaio, 1972. 9. H.F. Weinberger. A first course in Partial Differential Equations. Blaisdell Publishing Company, 1965. 143 Index α-limite, 130 ω-limite, 130 autofunzioni, 133, 140 autospazi generalizzati, 109, 110 autovalori di d2 /dx2 , 133 di −∆ su un cerchio, 140 bacino di attrazione, 129 brachistòcrona, 53 capacità di carico, 3 centro, 105 cicloide, 55 cinetica chimica, 4 circuiti elettrici, 8 confronto (teorema di), 36 decadimento radioattivo, 6 differenziale, 66 dinamica delle popolazioni, see modelli di crescita dipendenza continua dai dati, 39, 43 disuguaglianze differenziali, 36 equazione di Bessel, 136 di Laplace, 132 della crescita malthusiana, 2 delle elastiche piane, 17 di Hermite, 15, 134 di Schrödinger, 13 logistica, 3 equazione caratteristica, 97 equazione di Eulero di un funzionale, 63, 65 equazioni a fattore integrante, 60 a variabili separabili, 47 del tipo F (y, y ′ ) = 0 o F (x, y ′ ) = 0, 52 di Bernoulli, 49 di Clairaut, 56 di Riccati, 49 di tipo omogeneo, 51 di tipo omogeneo generalizzato, 51 e forme differenziali, 58 e forme differenziali, 57 lineari del primo ordine, 34, 48 di ordine superiore, 94 Lotka-Volterra, 12, 20 preda-predatore, 11 equazioni in forma normale, 17 esistenza globale, 32, 38, 39 esponenziale di una matrice, 75, 78, 79 estremale di un funzionale integrale, 65 fattore integrante, 60 flusso, 45 isocrona equivalenza, 123 iperbolico, 117 lineare, 115 forma canonica di Jordan, 111 reale, 113 forme differenziali, 68 cambiamento di variabile, 62 145 Enrico Vitali - LEZIONI INTRODUTTIVE SULLE EQUAZIONI DIFFERENZIALI ORDINARIE esatte, chiuse, 68 pull-back, 62, 68 funzioni di Bessel, 136, 138 fuoco, 103 per linearizzazione, 122 sviluppo in serie di Bessel-Fourier, 142 di Fourier, 134 Grobman-Hartman, teorema di, 123 Gronwall, lemma di, 34 tasso di variazione, 1 integrale primo, 65, 128 invariante, 130 Liapunov, funzione di, 127 Liouville, teorema di, 72, 95 lipschitzianità, 24 Lotka-Volterra, 37, 58, 60 Malthus, Thomas Robert, 2 massimale, intervallo, 29 modelli di crescita, 1 modi normali di vibrazione, 141 nilpotente, 80 nodo, 103 nucleo risolvente, 97 operatori lineari, rappresentazione, 106 orbita, 45, 130 caso bidimensionale, 57 riparametr. delle soluzioni, 46 oscillatore armonico, 7 quantistico, 138 Peano, teorema di, 28 pendolo semplice, 123, 129 libero, 12 piccole oscillazioni, 13 smorzato, 123 Picard-Lindelöf, teorema di, 25 polinomi di Hermite, 139 pozzo, 116 problema ai limiti, 17, 133 problema ai valori iniziali, 2, 8, 18, 23 prolungamento delle soluzioni, 29 punto di equilibrio, 115 radiocarbonio, datazione, 6 reazioni del primo ordine, 4 del secondo ordine, 4 risolvente, matrice, 71 separazione di variabili, 14, 132 sink, 116 sistemi autonomi, 44 sistemi dinamici, 45, 115, 129 sistemi gradiente, 129 sistemi hamiltoniani (stabilità), 128 sistemi lineari bidimensionali, 101 sorgente, 116 spazio degli stati o delle fasi, 45 spazio tangente, 67 stabilità, 43, 116 146 unicità, 25, 27, 35 esempio di non unicità, 28 valore regolare, 58 variazione ammissibile, 63 variazione delle costanti, 74 per eq. lineari del I ordine, 49 variazione prima di un funzionale, 63 varietà instabile, 118 varietà stabile, 118 Verhulst, Pierre François, 3 wronskiana, matrice, 71, 95