2 Algebra 2.1 L’algebra dei polinomi e i primi anni della teoria dei gruppi 2.1.1 Il teorema fondamentale dell’algebra Il teorema fondamentale dell’algebra afferma che ogni equazione polinomiale a coefficienti reali o complessi ha almeno una radice complessa. Ne segue che ogni equazione polinomiale di grado n ha esattamente n radici (non necessariamente distinte). Tralasciando le applicazioni all'algebra, durante il secolo 18° venne riconosciuta la sua utilità per l'integrazione. Per integrare una funzione razionale della forma P(x)/Q(x) è sufficiente fattorizzare il denominatore Q(x) nel prodotto di fattori lineari e quadratici, e quindi utilizzare il metodo delle frazioni parziali per scrivere l'espressione originale come somma di termini facilmente integrabilii. Una volta fattorizzato il denominatore, il processo di integrazione diventa completamente meccanico. L'esistenza di una fattorizzazione è equivalente al teorema fondamentale dell'algebra. La dimostrazione per un polinomio di grado dispari si basa su una proprietà dei numeri reali. Dopo aver ridotto, senza perdere di generalità, il polinomio alla forma xn+an-1xn-1+ …+a0, osserviamo che il valore del polinomio è grande e negativo quando x è grande e negativa e invece è grande e positivo quando x è grande e positivaii. Siccome il grafico è continuo, deve intersecare l'asse delle ascisse almeno una volta. In un punto dove interseca l'asse delle ascisse il polinomio si annulla, e questo dimostra l'asserto. Il polinomio x2-2, che non ha zeri razionali e il cui grafico interseca l'asse delle ascisse nei punti in cui x= ±√2, è un esempio semplice che chiarisce alcuni aspetti sottili e profondi del teorema fondamentale dell'algebra; esso riguarda la natura dei numeri reali e della nozione di continuità, e non ha nulla a che fare, in questo caso, con l'algebra. Molti matematici cominciarono a rendersene conto durante il 19° secolo, e il primo di questi fu forse Bolzano (v. analisi reale). Una conferma della natura analitica del problema è data dal fatto che ancor oggi non si conoscono dimostrazioni del seguente teorema che sia più semplice per i polinomi che per funzioni continue arbitrarie; il grafico di una funzione continua, negativaiii in qualche punto e positiva in qualche altro deve attraversare l'asse delle ascisseiv. La prima delle quattro dimostrazioni di Gauss del teorema fondamentale dell'algebra è uno dei documenti fondamentali della matematica del 19° secolo. In essa avanzò critiche taglienti nei confronti dei precedenti tentativi, operati, tra gli altri, da D'Alembert; ma anche il suo tentativo si basava su fatti non dimostrati (nel suo caso, sulla natura delle curve algebriche). Gauss osservava che ci sono quattro possibilità per le radici di un’equazione polinomiale: possono non esistere; possono esistere ma non obbedire alle usuali regole dell’aritmetica; possono obbedire alle usuali regole dell’aritmetica ma non essere numeri complessi; possono essere numeri complessi. Egli riteneva che la maggior parte delle dimostrazioni facevano solo vedere che la terza possibilità non si poteva presentare – se le radici ubbidivano alle usuali regole dell’aritmetica allora dovevano essere numeri complessi. Questo lasciava aperto il problema dell’esistenza (e del fatto che obbedissero alle leggi dell’aritmetica). In effetti il problema dell’esistenza venne riaperto intorno al 1800, e la natura dei numeri complessi divenne argomento di molte discussioni. Si potrebbe pensare che la definizione di numero complesso fosse stata definitivamente chiarita, se non da Bombelli nel 16° secolo, almeno nel corso dei due secoli successivi. In effetti, il periodo in cui il dibattito si fece più acceso fu quello a cavallo dell’inizio del 19° secolo. Si potrebbe supporre che tale dibattito fosse nato nelle menti più acute e fosse dominato dai principali matematici dell’epoca. Una tale supposizione è sostanzialmente inesatta, ma una volta osservati questi fatti, apparentemente sorprendenti, non è difficile trovarne una spiegazione. I matematici del 18° secolo consideravano generalmente il simbolo √−1 come un simbolo formale, il cui unico scopo era quello di separare le due metà di una coppia di quantità, come in x+y√−1, e che obbediva a regole ovvie tra cui (√−1)2=−1. Questa teoria formale è molto simile alla teoria moderna ed offre una base sufficiente per sviluppare l’intera teoria delle funzioni complesse. È diversa però dalla teoria moderna per quanto riguarda le assunzioni filosofiche su cui si basava, e questo è il punto fondamentale per cogliere il significato dei dibattiti del 19° secolo; le questioni sulla natura di √−1 sono filosofiche. In ogni periodo storico, matematica e filosofia della matematica dominante convivono in uno stato di perenne tensione. Le persone con competenze specifiche in entrambe le aree sono poche, e la matematica si sviluppa secondo linee che i filosofi possono non essere in grado di condividere. Un matematico, sotto pressione per la necessità di scrivere una prefazione o di attrarre qualche studente, può delineare una filosofia della matematica che non regge ad un’analisi critica, alla luce della sua stessa pratica. Un filosofo può sostenere una posizione secondo cui la matematica esistente, quella fatta dai matematici, non è valida. Questo è quanto è accaduto nel dibattito sui numeri complessi. Vale la pena osservare che lo stesso accadde per i numeri negativi. Nonostante la loro introduzione fosse accompagnata da alcune perplessità, come indica il nome ‘numera fictae’ che gli fu attribuito, vennero rapidamente accettati in algebra. Causarono brevemente alcuni problemi in corrispondenza dell’introduzione della geometria delle coordinate, ma da quel momento in poi i matematici, e anche i mercanti e i contabili, non incontrarono più problemi con i numeri negativi. Filosoficamente però non potevano trovar posto in un sistema di grandezze geometriche e di numeri pensati per contare. Due pecore in un campo hanno attributi determinati ( possono essere bagnate, arruffate, scalpitanti) ma la pecora che io devo a te, la pecora negativa che possiedo, non ha alcun attributo. Il negativo di uno non è un numero per contare. Perfino un matematico del calibro di d’Alambert ripudiò i numeri negativi, nel suo articolo per l’Encyclopédie, sulla base di queste considerazioni, e propose di pensarli come quantità positive, ma in un certo senso opposte. Una generazione più tardi, alcuni filosofi inglesi della matematica, tra cui Frend, insistevano ancora su questo punto, argomentando che i numeri negativi non esistevano, e che utilizzarli fosse una sciocchezza. Peacock nel suo Treatise on Algebra [1830] espose in modo contorto l’idea secondo cui parlare di numeri negativi fosse un modo improprio di parlare di numeri positivi. Il dibattito è istruttivo, anche se le posizioni di Frend sembrano eccessive. Una filosofia dei numeri che li considera come attributi di grandezze discrete o continue non è in grado di assimilare i numeri negativi; sono costruzioni ma non, a loro volta, grandezze. Eppure i matematici procedevano bene, nonostante la palude filosofica in cui si erano apparentemente impantanati, ma il problema doveva essere affrontato da chiunque ritenesse che la matematica fosse vera, in quanto sistema di deduzioni logiche (che preservano la verità) costruite a partire da affermazioni su oggetti percepiti con sufficiente chiarezza, come i numeri. Osserviamo anche che, come è ragionevole, ogni partito in questo dibattito prestava fede a ciò che conosceva meglio, anche quando partiti diversi erano riuniti nella stessa persona. Accadde lo stesso con i numeri complessi e con il problematico numero√−1. Vari autori (Wessel in Danimarca, Carnet, l’abate Buée e Français in Francia) suggerirono che il concetto appropriato fosse quello di segmento orientato nel piano. Secondo loro il segno –1 denotava un segmento di lunghezza 1 orientato da destra a sinistra e √−1 denotava un segmento di lunghezza 1diretto verso l’alto. In un opuscolo scritto nel 1806, Argand assunse una posizione più sottile, argomentando che √−1 si ottenesse ruotando il segmento unitario di un angolo retto in direzione antioraria. Questi punti di vista furono argomento di un dibattito negli Annales di Gergonne nel 1813-14: Gergonne, matematico anche lui, sosteneva che non bastava adornare con aggettivi il concetto di grandezza, e che tali tentativi eran incoerenti. Questi dibattiti procedevano senza il contributo dei matematici più importanti (a parte d’Alambert), a meno che non si tenga conto di un’influenza indiretta di Legendre su Français. Bisogna svolgere indagini specifiche per scoprire cosa pensassero e spesso non si scopre nulla. Il caso più eclatante, a causa dell’impegno profuso nel corso di tutta la vita per creare la teoria delle funzioni complesse, è quello di Cauchy. Per quasi tutta la vita condivise la vecchia interpretazione formale dei numeri complessi. Talvolta esponeva la teoria di Buée, ma professava la sua ignoranza in quella di Argand. Solo nel 1840 fece un tentativo per chiarire, per il proprio piacere, l’argomento (v. oltre). Questa è una chiara evidenza del fatto che il dibattito sui fondamenti e i problemi di ricerca nella teoria delle funzioni erano argomenti ben distinti. L’altro caso da considerare è quello di Gauss, ed è il più istruttivo. Fin dalle Disquisitiones Arithmeticae, 1801, Gauss aveva illustrato le sue scoperte nella teoria dei numeri con la rappresentazione dei numeri complessi con i punti del piano. Per esempio, nella costruzione con riga e compasso del poligono regolare con 17 lati, scrisse esplicitamente le coordinate dei 17 vertici in questa forma. Nel 1805, mentre studiava gli aspetti numerici delle equazioni polinomiali di terzo e quarto grado Gauss scrisse che quei teoremi “raggiungono la loro vera semplicità e naturale bellezza quando il campo dell’aritmetica viene ampliato in modo da contenere gli interi immaginari”. Quando, molto più tardi, pubblicò i suoi risultati, nel 1832, fu costretto a dare un’esposizione della teoria dei numeri complessi, che consisteva nella vecchia idea algebrica che fossero simboli della forma a+ib che si potevano rappresentare come punti del piano. Mentre l’utilità dei numeri complessi continuava a crescere, i matematici oscillavano tra la rappresentazione geometrica e la descrizione come coppia ordinata di numeri reali. Come succede quasi sempre con le dispute filosofiche, dimenticavano che le grandezze sono uno degli oggetti principali di cui si occupa la matematicav. In effetti, a partire dal 1843, con la pubblicazione dei quaternioni di Hamilton (il compimento di anni di lavoro di molti altri matematici) cominciarono a fiorire numerose proposte di nuove ‘algebre’: i quaternioni di Rodrigues, e così via fino a Pierce e oltre – (v. il saggio di Richards). Dimostrazioni del teorema fondamentale dell’algebra Un tentativo di dimostrazione, dovuto sostanzialmente a Lagrange, è sostanzialmente il seguente. È ovvio che un’equazione di grado uno ha una radice. È quasi ovvio che anche un’equazione di grado due ha una radice. Si applica la solita formula, e se i coefficienti sono complessi bisogna dimostrare che la quantità complessa b2-4ac ha (due) radici quadrate, come in effetti si può dimostrare. Storicamente questo dettaglio veniva spesso trascurato e quello che si dimostrava è che un polinomio di grado n a coefficienti reali ammette radici (eventualmente) complesse. D’altra parte è sufficiente considerare solo polinomi con coefficienti reali, perché se p (x) è un polinomio a coefficienti complessi e se p (x) è il polinomio i cui coefficienti sono i complessi coniugati dei coefficienti di p(x) , allora il prodotto p ( x) p ( x) ha coefficienti reali e ammette radici in C se e solo se le ha p(x) . Una volta capita la necessità, l’argomento richiede anche una certa raffinatezza nel trattare i numeri complessi,. Il risultato si dimostra con due induzioni sul grado del polinomio. È sufficiente dimostrare che un’equazione polinomiale ha almeno una radice, perché fattorizzandola ci possiamo ridurre ad un polinomio di grado più basso e possiamo assumere induttivamente che tutti i polinomi di quel grado abbiano esattamente tante radici quant’è il loro grado. Così è sufficiente dimostrare che un’equazione polinomiale ha almeno una radice complessa. Consideriamo un polinomio f(x) a coefficienti reali di grado d=2nq, dove q è dispari e il coefficiente direttore vale uno. Procediamo per induzione su n. Se n=0 il risultato è banale, per quanto già detto. Supponiamo n≥1, e fattorizziamo f(x) formalmente in qualche estensione di C, ottenuta aggiungendo d quantità x1,...,xd; quindi f(x)=(x-x1)...(x-xd). Si prenda un numero reale arbitrario c e si definiscano le quantità yij=xi+xj+cxixj, i≤j. Ci sono ½d(d+1) quantità siffatte, ovvero 2n-1q(d+1), dove q(d+1) è dispari. Così, per induzione, l’equazione polinomiale (x-y11)(xy12)...(x-ydd) ha una radice complessa, purché i suoi coefficienti siano reali, come di fatto si verifica. Sia zc questa radice complessa. Allora per qualche i e j (che dipendono eventualmente dal numero reale c) yij=xi+xj+cxixj=zc. Siccome il risultato vale per ogni scelta del numero reale c e di queste scelte ne sono possibili infinite, mentre sono solo finite le coppie (i,j), ne segue che per due valori distinti di c, diciamo c e c’, le coppie (i,j) devono coincidere. Se denotiamo (r,s) questa coppia (i,j), allora xr+xs+cxrxs=zc e xr+xs+c’xrxs=zc’ sono entrambi numeri complessi. Ne segue che sia xr+xs che xrxs sono numeri complessi e quindi anche xr e xs sono numeri complessi. Ma queste quantità sono le radici di f(x)=(x-x1) … (x-xd) e quindi si procede per induzione. Gauss diede la prima delle sue quattro dimostrazioni nel 1799, nella sua dissertazione dottorale. Considerava un polinomio f(x) a coefficienti reali in una variabile complessa x e studiava la parte reale e la parte immaginaria, ℜf(z) e ℑf(z). Uguagliate a zero, queste funzioni danno l’equazione di due curve, entrambe di grado n, che intersecano un cerchio di raggio R molto grande in 2n punti. L’equazione polinomiale ha una radice se e solo se le curve si intersecano, e questo può accadere, eventualmente, solo all’interno del cerchio perché i rami si comportano come quelli di zn quando |z|>R. Per la stessa ragione le curve intersecano il cerchio in un in un insieme di punti interlacciato, (percorrendo il cerchio si incontrano alternativamente punti su ℜf(z)=0 e punti su ℑf(z)=0). Ne segue che le curve devono intersecarsi in qualche punto interno al cerchio. La dimostrazione non è rigorosa secondo gli standard moderni. È necessario dimostrare, per esempio, che un ramo di una curva algebrica reale non può arrestarsi né arrotolarsi in una spirale sempre più stretta. Assumendo un comportamento ragionevole è però una dimostrazione convincente, e non presta il fianco alle obiezioni che Gauss sollevò nei confronti della dimostrazione di D’Alambert. In occasione delle celebrazioni per il 50° anniversario di questa dimostrazione, nel 1849, Gauss pubblicò una sua rivisitazione, che faceva uso esplicito dei numeri complessi, (prima usati solo implicitamente)). È importante osservare quanto fossero radicali nel loro approccio geometrico le dimostrazioni di Gauss, in confronto a quelle più algebriche dei suoi predecessori. Un’indicazione su quello che bisogna fare per renderle rigorose si può trovare nel saggio di Ostrowski in Gauss Werke, X.2 (v. anche Bottazzini [1981], traduzione inglese, [1986] 126-132). La seconda delle dimostrazioni di Gauss è simile a quella accennata in precedenza e attribuita a Lagrange, e non verrà discussa ulteriormente, mentre la terza utilizza pesantemente l’analisi complessa e quindi verrà discussa più avanti. Non sorprende che anche Cauchy fosse tra quelli che proposero delle dimostrazioni, perché fu l’artefice principale della teoria delle funzioni complesse nella prima metà del 19° secolo. La prima delle sue dimostrazioni fu pubblicata nel 1817, e sostanzialmente si sviluppa secondo le stesse linee di quella di Argand (pubblicata senza attribuzione esplicita nella rivista di Gergonne nel 1813). Probabilmente lo stesso Cauchy non la riteneva sufficientemente rigorosa, perché presentò una seconda dimostrazione nel 1821 nel Cours d’analyse. Questa dimostrazione ricorda la prima di quelle di Gauss per il fatto che spezza il polinomio nella parte reale e nella parte immaginaria, ma poi fa appello a fatti geometrici intuitivi di natura diversa. Dopo aver compiuto una serie di passi fondamentali nell’ambito della teoria dell’integrazione sui cammini, che culminarono nella sua teoria dei residui (v. Analisi complessa) nel 1830 Cauchy diede alcune dimostrazioni più eleganti basate sul teorema integrale (di Cauchy). Siccome in queste dimostrazioni bisogna integrare su un cerchio e il teorema conta il numero degli zeri e dei poli interni al cerchio, il metodo divenne noto come metodo della variazione dell’argomento. Finalmente nel 1855 egli dimostrò il teorema dell’indicatore logaritmico che afferma che l’espressione 1 f ' ( z) 1 d ( log f ( z )) dz dz = ∫ 2πi f ( z ) 2πi ∫ dz (*) valutata lungo il bordo di una regione è uguale al numero degli zeri meno il numero dei poli contenuti nella regione stessa, contati con la loro molteplicità. Da questo dedusse immediatamente una nuova dimostrazione del Torema Fondamentale dell’algebra, considerando il caso in cui f è un polinomio. In un articolo del 1836, Liouville e Sturm dimostrarono il Teorema Fondamentale dell’algebra utilizzando il metodo di Cauchy di contare le radici di un polinomio contenute in un cerchio. Liouville ritornò sul problema nel 1839, dopo averne letto il resoconto ingarbugliato di Mourey presentato da de Fourcy. Colse l’opportunità per darne una nuova dimostrazione, ispirata alla terza delle dimostrazioni di Gauss, che aveva letto proprio l’anno precedente. L’articolo fu ristampato senza modifiche tra le appendici dell’edizione del 1840 del Résumé des Leçons d’analyse di Navier e godette di grande stima in Francia. Stranamente, la dimostrazione migliore tra quelle di Liouville, non fu mai resa pubblica. Come ha mostrato Lützen (in Lützen [1990], p. 544) Liouville fu il primo ad utilizzare il teorema di Liouville per dimostrare il Teorema Fondamentale dell’algebra. Sostanzialmente il suo argomento si basa sul fatto che se f(x) non avesse radici, il suo reciproco sarebbe limitato e non diverrebbe mai infinito, e quindi si ridurrebbe ad una costante. Liouville non rese mai pubblica questa sua osservazione e non è chiaro chi fu il primo che lo fece. Una possibile risposta, forse non plausibile, è che fu Weierstrass nel 1874. Di certo avrebbe potuto farlo Riemann, che fece uso del teorema di Liouville per dimostrare che una funzione doppiamente periodica non può avere un solo zero all’interno del parallelogramma fondamentale; ma sembra che non abbia utilizzato lo stesso risultato per dimostrare il Teorema Fondamentale dell’algebra. Invece, durante un corso di lezioni tenuto nel 1861 (v. Gray [1997]) Riemann diede due altre dimostrazioni del Teorema Fondamentale dell’algebra. La prima era simile a quella di Cauchy e usava il teorema dell’indicatore logaritmico. Riemann osservò che un polinomio di ordine n ha un polo di ordine n in z= ∞, e per una funzione siffatta l’espressione (*) vale zero. Così il singolo polo di ordine n deve essere bilanciato da un totale di n zeri. Diede quindi una seconda dimostrazione valutando (*) per la f ( z) funzione n , e interpretando la risposta, 0vi. Questa, come osservò Riemann, è essenzialmente la z terza dimostrazione di Gauss del Teorema Fondamentale. 2.1.2 La teoria dei Galois e la soluzione algebrica delle equazioni algebriche La teoria di Galois risponde ad un’altra domanda: quando un’equazione polinomiale è risolubile per radicali? Per capire cosa questo significhi e perché è importante, si consideri una equazione quadratica, della forma ax2+bx+c=0. È risolubile utilizzando le radici quadrate: le − b ± b 2 − 4ac . Le soluzioni si esprimono in 2a funzione dei coefficienti del polinomio utilizzando le quattro operazioni fondamentali dell’aritmetica (addizione, sottrazione, moltiplicazione e divisione) e le radici, in questo caso una radice quadrata. La grande conquista dei matematici italiani dell’inizio del 16° secolo fu quella di scoprire una formula simile per le equazioni cubiche, che utilizzava sia radici cubiche che radici quadrate, e una formula molto più complicata per le equazioni di quarto grado (o quartica). Ancora agli inizi del 1800 nessuno era stato in grado di scoprire una formula per la risoluzione delle equazioni di 5° grado. Nel 1770 Lagrange cominciò a sviluppare una teoria che potesse spiegare questi insuccessi, cioè perché non sia possibile trovare una formula siffatta, ma non la portò a compimento. I suoi metodi furono utilizzati dall’italiano Paolo Ruffini (1765-1822) che giunse ad un passo dalla conclusione nel 1799, ma rimaneva ancora una lacuna nel suo argomento che i suoi contemporanei si rifiutarono di accettare (le generazioni successivi furono inclini a considerarla una lacuna reale ma modesta). Ruffini riprovò nuovamente nel 1806 e nel 1813. I suoi lavori guadagnarono una vaga approvazione da parte della Royal Society di Londra, e il cauto verdetto di Lagrange secondo cui, per quanto validi, non esaurivano completamente la dimostrazione. Invece, i metodi di Lagrange ebbero successo grazie al lavoro di Abel del 1820: non esiste una formula risolutiva per l’equazione generale di quinto grado che utilizzi solo le quattro operazioni e le estrazioni di radici. Il suo lavoro prosegue con l’osservazione che un’equazione quintica generale ha una certa vii forma , mentre una quintica risolubile per radicali ha una forma speciale. La natura di questa forma si ottiene analizzando come i coefficienti dei polinomi si possono esprimere in funzione delle radici, e in particolare quali proprietà di simmetria devono avere quando le radici vengono permutate. Il soluzioni sono date dalla formula ben nota x = problema è complicato dal fatto che ci si può immaginare di risolvere molte equazioni più semplici nel corso del procedimento.viii Questo sembrerebbe suggerire che un’equazione polinomiale è risolubile per radicali se e solo se ha grado minore o uguale a quattro. Però, come Abel ben sapeva, esistono equazioniix di grado elevato risolubili per radicali: per esempio questlaseguente equazione di grado 6: x7 −1 = x 6 + x 5 + … + 1 = 0 . Le sue soluzioni sono i sei numeri complessi, diversi dall’unità, che x −1 elevati alla settima potenza sono uguali a uno (le radici settime non banali dell’unità)x. Per determinarle algebricamente si può dividere l’equazione per x3 ottenendo x3+x2+x+1+x-1+x-2+x3 =0. Ponendo x+x-1=u si ottiene l’equazione u3+u2-2u-1=0, che è un’equazione cubica in u. Noto un valore per u, i corrispondenti valori di x si determinano risolvendo l’equazione quadratica x2ux+1=0, e quindi l’equazione originale di grado 6 è risolubile per radicali. Questo significa che la domanda; quali equazioni polinomiali sono risolubili per radicali, richiede una risposta sottile che non dipende solo dal grado del polinomio. In termini moderni, la teoria di Galois spiega la natura del problema, e permette di rispondere ad altre domande interessanti, per esempio; quando bastano le radici quadrate. Questo vecchio problema era stato riformulato da Gauss nelle Disquisitiones Arithmeticae con riferimento alla costruzione con riga e compasso di un poligono regolare con n lati. In termini algebrici, lo xn −1 formulò come problema sulle soluzioni dell’equazione = 0 xi che dimostrò essere risolubile x −1 con l’uso delle quattro operazioni e delle radici quadratexii se e solo se n è della forma 2k+1 per valori di k che sono potenze di 2. Altri esempi vengono da una branca della matematica più difficile ma più fondamentale della teoria delle costruzioni con riga e compasso, la teoria delle funzioni ellittiche. In quest’ambito Jacobi scoprì una classe di equazioni, (chiamate equazioni modulari) che risultarono inaspettatamente riducibili. Senza entrare nei dettagli, che ci condurrebbero troppo lontano, Jacobi trovò un’equazione polinomiale di grado 5 che si poteva ridurre con manipolazioni algebriche ad un’equazione di grado 4, una di grado 7 che si poteva ridurre a una di grado 6 e una di grado 11 che si poteva ridurre ad una di grado 10. Questo fu l’argomento che attrasse l’attenzione di Galois. Egli fu in grado di dimostrare che questa riduzione non poteva aver luogo per equazioni di grado superiore a 11, e diede una risposta completa alla domanda; quando un’equazione polinomiale è risolubile per radicali? Dati due numeri a e b, trovare la radice n-esima di a/b è la stessa cosa che risolvere l’equazione binomiale bxn-a=0, e quindi risolvere un’equazione per radicali è la stessa cosa che risolvere una successione di equazioni in forma binomiale. Quando si possono trovare equazioni binomiali opportune? Si comincia con i numeri razionali e con i coefficienti di tutte le equazioni che si hanno. Risolvendo equazioni in forma binomiale si ottengono nuovi numeri che si possono poi assumere come noti. Le domande sono: si possono formare opportune equazioni binomiali, e se si quali? Il ragionamento di Galois procede così (utilizzerò la terminologia moderna). Supponiamo data un’equazione polinomiale di grado n e assumiamo che le sue n radici siano distinte. Le permutazioni di queste radici formano un gruppo di ordine n!, e si possono scrivere polinomi di grado n il cui gruppo di permutazioni delle radicixiii è l’intero gruppo delle permutazioni di n lettere. Ma un’equazione della forma xn+b=0 ha come soluzioni la radice reale n-esima di –bxiv moltiplicata per le radici complesse n-esime dell’unità. Se è noto l’effetto della permutazione su una opportuna di queste allora è noto l’effetto su tutte le altre (che si ottengono come potenze di quella) e in questo caso le possibili permutazioni formano un sottogruppo ciclico di ordine n. L’intuizione di Galois fu che le equazioni risolubili per radicali sono quelle il cui gruppo si ottiene in un certo senso come successione di gruppi ciclici. Il lavoro di Galois era originale non solo perché fu uno dei primi in cui venne utilizzato il concetto di gruppo (tra l’altro, anche se l’uso moderno della parola deriva dal suo lavoro, la utilizzò in un senso leggermente diverso). I suoi argomenti evidenziarono anche l’importanza, mai considerata prima, di analizzare il modo in cui un gruppo può essere sottogruppo di un altro. Infatti il punto chiave dell’analisi di Galois consiste nella delucidazione del concetto di sottogruppo normale (v. oltre) che gioca un ruolo importante nello stabilire come un gruppo possa essere determinato da una successione di sottogruppi. Galois introdusse un linguaggio completamente nuovo per analizzare la questione della risolubilità per radicali. Da quel momento in poi fu possibile discutere il problema in funzione del gruppo di una data equazione, e della sua decomponibilità o meno in una successione di gruppi ciclici. Galois suggerì anche come bisognasse cercare una tale decomposizione: bisognava guardare ai sottogruppi normali. Il fatto che certe equazioni modulari si riducessero a equazioni di grado più basso si spiegava perché i gruppi associati coincidevano con i gruppi delle equazioni di grado più basso. Il fatto che le radici di un’equazione fossero costruibili con riga e compasso si spiegava perché il gruppo dell’equazione era composto da una successione di gruppi di ordine 2. Il fatto che l’equazione generale di quinto grado non fosse risolubile per radicali si spiegava perché il suo gruppo, il gruppo completo delle permutazioni di 5 lettere, non ammette una decomposizione in una successione di gruppi ciclici. Per essere più precisi e utilizzare la terminologia moderna, Galois introdusse il concetto di sottogruppo normale N di un gruppo G. Un sottogruppo N è normale se e solo se per ogni elemento n∈N e per ogni elemento g∈G, g-1ng∈N . Questo significa che le stesse classi laterali gN di N in G formano un gruppo, assumendo come moltiplicazione la regola g1Ng2N=g1g2N. Questo gruppo si dice gruppo quoziente di G modulo N e si indica con G/Nxv. Un gruppo si dice risolubile se e solo se ammette una catena di sottogruppi Gi, 1 ≤ i ≤k dove G1 è il gruppo costituito dal solo elemento unità di G, Gk=G, ogni Gi è normale in Gi+1 e ogni gruppo quoziente Gi+1/Gi è un gruppo ciclico. Galois applicò questo apparato alla teoria delle equazioni prendendo per G il gruppo delle permutazioni delle radici di un’equazione. Egli assumeva che i coefficienti dell’equazione fossero noti (in effetti, che fossero numeri razionali) e che l’equazione fosse risolubile per radicali se le soluzioni si potevano ottenere attraverso la progressiva aggiunta di espressioni che si ottengono a partire da quantità note con l’applicazione delle quattro operazioni aritmetiche e le estrazioni di radici. La progressiva decomposizione di G in una catena di sottogruppi normali aventi quozienti ciclici corrisponde alla progressiva aggiunta di tali radici. È difficile sottostimare la portata del cambiamento introdotto nella teoria delle equazioni polinomiali dalla proposta di Galois: le equazioni devono sparire e il loro posto deve essere preso da un oggetto molto più astratto - un gruppo – che deve quindi essere analizzato con i metodi della nuova teoria dei gruppi. Sarebbe stato notevole che questo punto di vista fosse stato proposto da un matematico maturo. È addirittura stupefacente che si tratti della creazione di un uomo che morì all’età di 20 anni, ferito mortalmente in un duello. La sua è più drammatica delle biografie dei matematici. Evariste Galois nacque il 25 ottobre 1811 in un sobborgo di Parigi, e fu educato al College Royal de Louis-le-Grand, dove il suo maestro H. J. Vernier lo introdusse seriamente alla matematica quando era quindicenne. Lesse “La risoluzione delle equazioni algebriche” di Lagrange, e nella classe superiore del College Royal de Louis-le-Grand ebbe come insegnante L. P. E. Richard, che riconobbe immediatamente il talento di Galois e lo incoraggiò a pubblicare il suo primo articolo (sulla teoria dei numeri) negli Annales de mathematiques (Aprile 1828). Il 25 Maggio e il 1 Giugno 1829 Galois presentò due articoli all’Accademia delle Scienze sulla risolubilità delle equazioni di primo grado. Questi sono i primi lavori sulla ‘Teoria di Galois’, e Cauchy venne invitato a riferire su di essi. Per ragioni che rimangono oscure, Galois fallì l’esame di ammissione alla École Polytechnique (in effetti si trattava del suo secondo tentativo), e quindi andò alla École Normale Supérieure nel Novembre 1829. In seguito Cauchy trascurò di riferire sul lavoro di Galois, forse perché pensava che Galois dovesse riscrivere i suoi lavori per partecipare al Grand Prize della matematica organizzato dall’Accademia (che scadeva il primo marzo 1830); di sicuro Galois presentò la sua candidatura in Febbraio. Ma in maggio il segretario permanente dell’Accademia e presidente della commissione giudicatrice, Fourier, morì e il lavoro di Galois andò smarrito. Galois denunciò l’esistenza di un complotto accademico contro di lui per motivi politici, e si schierò risolutamente tra le fila della sinistra rivoluzionaria. In Francia il 1830 fu un anno rivoluzionario, reso ancora più intenso dalle memorie non ancora sopite della rivoluzione francese, distante una sola generazione. In luglio, quando Carlo X fuggì dalla Francia dopo tre giorni di rivolte a Parigi, il regime borbonico collassò. Si insediò il re orleanista, Luigi Filippo e comicamente Cauchy seguì volontariamente Carlo X in esilio in settembre. Galois si schierò con i rivoluzionari Blanqui e Raspail, e prima della fine dell’anno fu espulso dalla École Normale. Per tutto il 1831 Galois fu assorbito dalla politica rivoluzionaria. Fu arrestato e processato il 15 Giugno per aver minacciato la vita del nuovo re, ma venne prosciolto. Nel giro di un mese venne nuovamente arrestato e questa volta venne condannato a sei mesi di reclusione nella prigione di Sainte-Pelagie. Nello stesso periodo l’Accademia rifiutò un altro manoscritto di Galois (Poisson disse del lavoro di Galois che “i suoi argomenti non sono sufficientemente chiari e non sono sufficientemente sviluppati perché si possa giudicare sulla loro correttezza”). Egli rispose rifiutando il giudizio dell’Accademiaxvi e fece in modo di far pubblicare i suoi lavori da un amico, il Saint-Simoniano Auguste Chevalier . Subito dopo aver lasciato la prigione scrisse alcune lettere agli amici in cui riassumeva i suoi risultati matematici, e la mattina successiva, il 30 maggio 1832 si recò sul luogo del duello fatale. Colpito all’addome morì in ospedale il giorno successivo. Il suo funerale fu l’occasione per una dimostrazione repubblicana che causò una settimana di disordini. Sono state avanzate molte proposte riguardo le ragioni per il duello, per lo più politiche, e sono stati versati fiumi di inchiostro per identificare l’antagonista. La risposta più plausibile e che si trattasse dell’adempimento di una profezia che lo stesso Galois fece in prigione, come ci viene raccontato da Raspail: “morirò in un duello a causa di una smorfiosa senza valore. Perché? Perché mi inviterà a vendicare il suo onore, che qualcun altro ha compromesso”. Dopo la morte e nonostante la pubblicazione da parte di Chevalier di alcuni dei lavori di Galois, la comunità matematica francese rispose con il silenzio. Solo con la pubblicazione dei suoi lavori nella rivista di Liouville, nel 1846, il vento cambiò direzione. È plausibile che Liouville venisse a sapere di quei lavori perché Richard aveva appena scoperto un altro studente brillante, il giovane Charles Hermite. Quindi, lentamente, altri matematici cominciarono ad interessarsi: Betti in Italia, Dedekind e Kronecker in Germania. Nel 1860 il matematico francese Camille Jordan mise in risalto il fatto che Galois ‘pose la teoria delle equazioni su fondamenta definitive’ per mezzo del concetto di ‘gruppo di sostituzioni’, e della distinzione cruciale tra gruppi semplici e composti. In quel momento Jordan stava creando una sofisticata teoria dei gruppi di permutazioni, così generale da poter essere posta a fondamento dell’intera teoria dei gruppi finiti. La transizione dalle equazioni polinomiali alla teoria dei gruppi venne così completata. 2.1.3 Origini della teoria dei gruppi finiti di permutazioni Nella sua approfondita analisi, Wüssing [1969] ha rintracciato diverse radici del concetto di gruppo. Una è la teoria dei gruppi di permutazioni, che ricevette un impulso definitivo dal lavoro di Galois, specialmente quando cominciò ad interessarsene Cauchy, che scrisse per la prima volta sui gruppi di permutazioni nel 1815. Il suo lavoro venne poi utilizzato da Abel nell’analisi delle equazioni di quinto grado, e questa è una delle ragioni per cui la trattazione di Abel è superiore a quella di Ruffini. Cauchy a quel tempo sapeva che il lavoro di Galois era stato ritrovato ed esistono indizi che lasciano supporre che questa fosse la ragione che lo indusse a riconsiderare l’argomento. Cauchy considerava una lista ordinata di oggetti numerati e i suoi possibili rimescolamenti, che chiamava permutazioni. Quindi una permutazione era un’azione, o una trasformazione. 1 2 3 per indicare che l’oggetto numero 1 viene spostato nella posizione numero 2, Scriveva 2 3 1 l’oggetto numero 2 nella posizione numero 3 e quello numero 3 nella posizione numero 1. Per indicare una permutazioni introdusse anche la cosiddetta forma ciclica, che, nell’esempio precedente, è (1,2,3). La ripetizione di questa permutazione genera la permutazione (1,3,2) e una ulteriore ripetizione lascia fissi gli oggetti numerati con 1, 2 e 3. In questo caso Cauchy diceva che la permutazione ha ordine 3. Inoltre, osservò che una permutazione che si può scrivere come un ciclo di lunghezza n ha ordine n. Prese in considerazione i prodotti di permutazioni (ottenuti applicando una permutazione al risultato di un’altra) e osservò che il risultato dipende dall’ordine di applicazione; in generale, se A e B sono permutazioni, AB≠BA. Cauchy denotava i prodotti della permutazione A con sé stessa con A2, A3, ecc., e chiamò la permutazione che annulla il rimescolamento prodotto da A, l’inversa di A, e la indicò con A-1. Notò che le permutazioni A e BAB-1 sono simili l’una all’altra, nel senso che sono la stessa permutazione se si consente di cambiare la numerazione degli oggetti. Elaborò una teoria elementare dei gruppi di permutazioni considerando le collezioni di permutazioni generate da tutti i possibili prodotti di una dato insieme – chiamò una tale collezione sistema delle permutazioni derivate dal dato insieme (la terminologia attuale è gruppo delle permutazioni generato dal dato insieme). Anche se le permutazioni permutano N oggetti, il gruppo generato da un insieme di permutazioni non coincide necessariamente con il gruppo di tutte le permutazioni di N oggetti. Cauchy dimostrò però che il numero degli elementi del gruppo deve necessariamente dividere il numero N! degli elementi del gruppo di tutte le permutazioni di N oggetti. Cauchy fece un’osservazione che si ricollega alle idee di Galois, senza che lui lo riconoscesse esplicitamente: notò che si può avere un ‘sistema’ (diciamo di Ai) e un altro (di Bj) tale che, AiBj=BjAi o, più in generale, AiBj=Bj’Ai’ per opportuni i’, j’ . Un sottogruppo normale nella terminologia di Galois è, nella terminologia di Cauchy, un sistema (di Ai) i cui elementi appartengono ad un gruppo più grande (di Bj) e che soddisfano a equazioni della forma BjAiBj-1=Ai’. Osservazioni di questo genere sollevano il problema di quanto Cauchy conoscesse del lavoro di Galois prima che questo fosse regolarmente pubblicato e suggeriscono che probabilmente sapeva soltanto che Galois aveva utilizzato le permutazioni per affrontare la questione della risolubilità per radicali. La successiva serie importante di risultati è dovuta a Serret e Jordan, che negli anni sessanta del 19° secolo svilupparono una teoria dei gruppi di permutazioni in cui viene ancora utilizzato il linguaggio dei gruppi di permutazione ma i cui concetti sono implicitamente più generali. Jordan in particolare ampliò enormemente le finalità della teoria. Come Serret, prese le idee di Cauchy sui gruppi di permutazioni e le utilizzò per chiarire il lavoro Galois. Chiamò il numero di elementi in un gruppo di permutazioni l’ordine del gruppo e dimostrò che se un gruppo H è contenuto in un altro gruppo G allora l’ordine di H divide l’ordine di G. Questo risultato generalizza alcuni risultati contenuti nei lavori di Lagrange, ed è noto come teorema di Lagrange. Jordan concludeva il suo ‘Commentaire sur Galois’ [1869] osservando che sarebbe stato utile classificare tutti i gruppi in funzione del modo in cui potevano essere decomposti in una successione di sottogruppi, ognuno normale nel successivo. Questo era un passo importante per trasportare le idee di Galois dal problema originale della risolubilità per radicali a quello più generale di analizzare i gruppi (finiti). Nel suo libro del 1870, il Traité des Substitutions et des Équations Algébriques, Jordan sviluppò concetti che gli permisero di scomporre un gruppo G in gruppi più piccoli e in particolare di analizzare quando è possibile scomporre G in una successione di sottogruppi normali con la proprietà che se Hi e Hj sono sottogruppi adiacenti e Hi è un sottogruppo normale di Hj allora l’ordine di Hj è un multiplo primo dell’ordine di Hi. Se G è il gruppo associato ad una equazione polinomiale, questa è la condizione necessaria e sufficiente perché l’equazione sia risolubile per radicali, ma qui il problema viene completamente inglobato in quella che Wüssing chiama la teoria dei gruppi di permutazioni, che si può applicare ad ogni gruppo, indipendentemente dal fatto che i suoi elementi siano scritti o pensati come permutazioni. Tipici tra i concetti introdotti da Jordan sono quelli di centralizzatore di un elemento A in un gruppo G (definito come l’insieme degli elementi B che commutano con A, ovvero tali che AB=BA) e di normalizzatore di un sottogruppo H (il più grande sottogruppo K di G tale che H è normale in K). Questi concetti hanno un dominio di applicazione più ampio rispetto a quello della teoria dei gruppi di permutazioni, e si applicano ad ogni collezione di oggetti che sia chiusa rispetto ad una legge di composizione. Lo stesso vale per il concetto di applicazione tra gruppi che preserva la composizione (se G e G’ sono i gruppi e φ è l’applicazione, si dice che essa preserva la composizione se φ(g1g2)=φ(g1)φ(g2)). Jordan discusse, secondo questo punto di vista, quando due gruppi erano da considerarsi sostanzialmente uguali e quando uno era immagine di un altro. Illustrò con dovizia di particolari il ruolo che la teoria dei gruppi poteva avere in altri ambiti della matematica, ovunque si potessero trovare simmetrie. Sebbene molte copie del libro venissero distrutte durante gli eventi della comune di Parigi, esso esercitò un grande influenza, e divenne possibile lo studio della teoria dei gruppi come disciplina indipendente. Uno dei primi che diede importanti contributi fu il matematico norvegese Ludwig Sylow. Nel 1872 dimostrò una proposizione che invertiva parzialmente il teorema di Lagrange: se un primo p divide l’ordine di un gruppo G allora esiste un sottogruppo H di G che ha ordine uguale alla più grande potenza di p che divide l’ordine di G (questo è falso se p non è primo; per esempio, esiste un gruppo di permutazioni di ordine 12 che non ammette sottogruppi di ordine 6). La dimostrazione originale di Sylow è una mistura interessante di concetti come quello di normalizzatore e di concetti più antichi che si devono a Cauchy o addirittura a Lagrange. In particolare si basava su un risultato di Cauchy secondo cui se un primo p divide l’ordine di un gruppo G allora esiste un sottogruppo H di G di ordine p. Le dimostrazioni successive del teorema di Sylow, che furono molte, culminarono in quella di Frobenius del 1887, in cui veniva deliberatamente evitato ogni accenno al linguaggio delle permutazioni; era nata la teoria astratta dei gruppi.. È interessante notare come le cose si svilupparono diversamente in Germania. Kronecker fu uno dei primi ad apprezzare il lavoro di Galois, ma non era particolarmente attratto dal linguaggio della teoria dei gruppi. Nonostante ciò sembra che Kronecker sia stato il primo a dare la definizione astratta di gruppo commutativo finito (un gruppo per cui AB=BA per ogni coppia di elementi A e B). Anche Dedekind sviluppò l’idea di gruppo astratto nel contesto della teoria di Galois. Come ha fatto vedere Purkert [1976], egli tenne cicli di lezioni sulla teoria di Galois a Göttingen tra il 1856 e il 1858, sebbene non pubblicasse nulla in merito fino al 1894, nel famoso undicesimo supplemento alle lezioni di Dirichlet sulla teoria dei numeri (quarta edizione). I manoscritti delle lezioni dimostrano però quanto fosse andato ben oltre le idee sui gruppi che nel frattempo aveva pubblicato. Spiegò come l’idea di gruppo di permutazioni si generalizzasse a quella di gruppo finito astratto, e introdusse i concetti di sottogruppo normale e di decomposizioni in classi laterali. (una classe laterale di un sottogruppo H di un gruppo G è un insieme di elementi della forma {hg: per tutti gli h in H}. Dedekind dimostrò che le classi laterali di un sottogruppo normale K formavano esse stesse un gruppo in cui K è l’unità. Kronecker e Dedekind mantennero il legame con le equazioni polinomiali più strettamente di quanto non l’avesse mantenuto Jordan, e di conseguenza i lavori tedeschi prestano maggiore attenzione ai campi di numeri che si ottenevano aggiungendo (ai numeri razionalixvii) le radici di un’equazione. Nel suo libro Wüssing ha anche mostrato come alcune delle radici della teoria dei gruppi si possano far risalire alle idee sulla geometria che circolavano intorno alla metà del 19° secolo. In particolare, nel 1872, in occasione della sua chiamata come professore ordinario all’Università di Erlangen (alla notevole età di soli 23 anni) Felix Klein distribuì un piccolo opuscolo che conteneva una rassegna comparativa delle idee fondamentali della geometria. Il programma di Erlangen, come venne chiamato quando fu meglio conosciuto, intorno agli anni 90 del 19° secolo, ruotava intorno all’idea che esistono diverse geometrie (proiettiva, affine, euclidea e anche non euclidea) ognuna delle quali è caratterizzata dall’esistenza di un gruppo di trasformazioni: le proprietà invarianti rispetto al gruppo sono le proprietà geometriche (le proprietà di quella geometria). In conseguenza delle relazioni che esistono tra questi gruppi (per esempio, il gruppo euclideo è un sottogruppo del gruppo affine, che a sua volta è un sottogruppo del gruppo proiettivo) esiste una gerarchia tra le corrispondenti geometrie (v. Geometria). Autori successivi andarono oltre. Il legame tra gruppi e geometrie fu, se possibile, ancora più forte nel lavoro di Poincaré, sia sul versante tecnico che su quello filosofico (v. Geometria) e fu spinto molto più in profondità dal lavoro del suo amico Sophus Lie, che classificò tutti i gruppi che agiscono su spazi di dimensioni 1, 2, 3 (v. oltre). 2.1.4 La teoria dei gruppi e la cristallografia Un’altra fonte per la teoria dei gruppi fu lo studio della cristallografia. Infatti, come dice Scholz [1989], i cristallografi definirono un cristallo più o meno come un oggetto simmetrico in un punto di un reticolo cristallino prima che l’idea venisse confermata da osservazioni ottiche, e sintetizzarono le osservazioni disponibili formulandole in termini di reticoli simmetrici, ad ogni vertice dei quali ci poteva essere un ‘solido’ con ulteriori simmetrie, ma senza attribuire significato fisico a queste costruzioni. Mentre i cristallografi dibattevano le ipotesi che avrebbero potuto spiegare le strutture matematiche che emergevano, contribuirono anche a raffinare la matematica che utilizzavano e si impegnarono e stabilire teoremi di classificazione per quelle strutture. Così facendo crearono una branca della geometria sufficientemente profonda e flessibile che risultò poi facile riformulare le loro idee nel linguaggio della teoria dei gruppi. Questo, come ha osservato Scholtz, è un aspetto caratteristico delle applicazioni di successo della matematica al mondo realexviii. Per facilitare la comprensione, consideriamo il caso bidimensionale. Un reticolo è un insieme di punti del piano della forma {m1e1+m2e2} dove e1 e e2 sono vettori indipendenti e m1 e m2 sono interi. Può essere d’aiuto immaginare il parallelogramma di vertici 0, e1, e2, e1+e2 come una mattonella, copie della quale ricoprono interamente il piano. Ciò che è importante è l’insieme delle simmetrie del reticolo. Può non esserci alcuna altra simmetria oltre a quelle che traslano di m1e1+m2e2 la mattonella, en bloc, che si chiamano traslazioni del reticolo. Ma se per esempio le mattonelle sono quadrate ci sono molte rotazioni e molte riflessioni del reticolo che lo trasformano in sé, e se la mezza mattonella 0, e1, e2, ha la forma di un triangolo equilatero, esistono ulteriori simmetrie. Di fatto, esistono 17 reticoli piani distinti da questo punto di vista, che corrispondono a 17 cristalli bidimensionali distinti, ovvero, come spesso si dice, a 17 tipi possibili di carte da parati. L’ingrediente principale della dimostrazione consiste nell’osservazione che il reticolo deve essere costituito da mattonelle e sottomattonelle che sono triangoli o rettangoli; i pentagoni non sono possibili (questa condizione viene detta talvolta restrizione cristallografica). Il problema di quando questo teorema di classificazione cominciò ad essere noto è una questione che suscita un certo interesse; sembra che, a patto di contare con giudizio i colori nei disegni, tutti i 17 tipi possibili di carte da parati si possono trovare nell’Alhambra vicino a Granada in Spagna. Non è chiaro però se i disegnatori e i costruttori islamici fossero a conoscenza di una dimostrazione del fatto che quelli esaurivano tutte le possibilità, o anche se si ponessero il problema in qualche forma (v. Montesinos, [1987]). Il cristallografo che più influenzò i matematici fu Augusts Bravais (1811-1863) che studiò all École Polytechnique e poi condusse una vita movimentata prima di farvi ritorno come professore di fisica, nel 1845. Nel 1849 scrisse un libro sulla cristallografia, cui fece seguito un lungo articolo nella rivista di Liouville nel 1850. Bravais operò una chiara distinzione tra simmetrie del reticolo e simmetrie che si manifestano quando tutti i vertici vengono identificati ad uno solo, scelto arbitrariamente. Nel linguaggio della teoria dei gruppi, questa seconda classe di simmetrie corrispondono al quoziente del gruppo completo delle simmetrie del reticolo modulo il sottogruppo delle traslazioni. Bravais scoprì che queste simmetrie possono avere solo certi ordini: 2, 3, 4, o 6, ma non, per esempio, 5 – la vera restrizione cristallografica. Utilizzò questa osservazione per classificare i reticoli in 7 tipi (o 14, secondo come li contava) Nel suo libro [1856], una riedizione di parecchi articoli già pubblicati sulle riviste, Bravais costruì una teoria della struttura dei cristalli basata sulla classificazione dei reticoli. In termini moderni trovò 71 dei 73 tipi di combinazioni che possono presentarsi, ma storicamente il libro è importante per aver guadagnato il rispetto non solo dei cristallografi ma anche, in pochi anni, quello dei matematici, o meglio, quello di Camille Jordan, e ciò bastava. Anche Jordan studiò alla École Polytechnique, ma fu nella seconda parte della sua carriera scolastica, alla École des Mines, che lesse per la prima volta la cristallografia di Bravais. Nel 1869 si pose l’obiettivo di scoprire tutti i gruppi che possono agire sullo spazio tridimensionale, sia in modo continuo che discontinuo. Riferì in modo esplicito il suo lavoro a quello del suo predecessore, che ammirava, ma i cui risultati dovevano essere ancora sviluppati in piena generalità. Alla fine trovò un totale complessivo di 174 tipi di gruppi, dei quali 50 erano quelli che chiamò continui, 5 erano finiti e 59 propriamente discontinui, ma spostavano una regione finita en bloc (una mattonella tridimensionale). I rimanenti erano gruppi per diverse ragioni irrilevanti. Per esempio, 16 tra questi trasformavano un piano in sé e quindi spostavano delle colonne infinite. Era più naturale pensarli come gruppi di simmetria del piano, ed infatti erano 16 dei 17 gruppi delle carte da parati. Come ci si poteva aspettare in tali lavori pionieristici, c’erano altre omissioni, che comprendevano 6 dei 65 gruppi dei moti propri della cristallografia, e alcune ripetizioni. Nondimeno fu un passo fondamentale verso il raggiungimento dell’obiettivo. Segnò anche un miglioramento rispetto al lavoro di Bravais, rendendo preciso ed esplicito ciò che era stato formulato in termini geometrici meno sistematici, e fornendo ragioni profonde, basate sulla teoria dei gruppi, per ignorare molti dei reticoli di Bravais. Ma i risultati non furono presentati in maniera conveniente, e bisognò attendere più di 20 anni prima che i cristallografi li facessero propri. Questo accadde per varie ragioni. Alcuni matematici vennero attratti dall’argomento, come Sohnke e Minnigerode. Il fisico Pierre Curie rielaborò i risultati di Bravais perché sapeva che erano incompleti. Il loro lavoro attrasse il lavoro di altri, tra cui il matematico Arthur Schonflies (studente di Klein) e il mineralogista e cristallografo Fedorov. Lavorando indipendentemente agli inizi degli anni 80 del 19° secolo, Schonflies scoprì 227 gruppi spaziali cristallografici prima del 1889, e Fedorov ne trovò 230. Schonflies accettò questo numero e scrisse un resoconto matematicamente soddisfacente della struttura dei cristalli basato su questo risultato. Un’indicazione dell’importanza che i matematici attribuirono a questo lavoro è la parte che ebbe nella formulazione del 18° problema di Hilbert, in cui si domanda se è vero che esiste solo un numero finito di gruppi cristallografici in uno spazio euclideo di dimensione qualsiasi. La questione venne risolta affermativamente da un altro studente di Klein, Ludwig Bieberbach, poco prima dell’inizio della prima guerra mondiale. 2.1.5 Capitoli ulteriori della teoria dei gruppi, inclusa la teoria delle rappresentazioni La teoria dei gruppi finiti attraversò due fasi importanti: la delucidazione del concetto di gruppo astratto – Dedekind, Cayley, ( e nel caso abeliano, Kronecker), e la nascita della teoria delle rappresentazioni. Teoria delle rappresentazioni Quando si consolidò il passaggio di interesse dai gruppi di permutazioni e di trasformazioni alla nozione di gruppo astratto, i principali artefici della teoria di gruppi iniziarono ad apprezzare i meriti della teoria delle rappresentazioni. Ciò di cui avevano bisogno era la possibilità di rappresentare un gruppo come gruppo di trasformazioni lineari, così da poter identificare ogni elemento del gruppo con una matrice; l’enfasi si spostava inoltre sull’insieme di tutte le possibili rappresentazioni piuttosto che su quelle che fanno la loro comparsa accidentale nel corso dello studio di un problema concreto. I problemi principali della teoria dei gruppi stavano per sollecitare lo sviluppo delle tecniche della teoria delle rappresentazioni, mentre continuavano a resistere ai metodi astratti. I pionieri della teoria delle rappresentazioni dei gruppi furono Frobenius e I. Schur in Germania e Burnside in Inghilterra. Una fonte importante per la nostra conoscenza del lavoro iniziale di Frobenius fu la sua corrispondenza con Dedeckind. Questa fu riscoperta solo nel 1972; venne analizzata da Hawkins [1974] ed è pronta per la pubblicazione, a cura di Haubrich (in corso di pubblicazione). Le lettere furono scritte in tre periodi: 1882-3, 1895-8 e 1901. Quelle scritte nel maggio 1986 risultano essere particolarmente importanti, perché mostrano lo sviluppo del pensiero di Frobenius durante l’elaborazione della teoria dei caratteri (che definiremo in seguito) e mostra, tra l’altro, come l’ordine della pubblicazione dei lavori risulti rovesciato rispetto all’ordine in cui furono scoperti i risultati, perché Frobenius evitò di far circolare le informazioni fino a quando fu in grado di dimostrare il risultato fondamentale. L’interesse di Frobenius nella teoria dei gruppi si sviluppò a partire da diversi filoni distinti del pensiero matematico. Da studente, a Berlino, aveva ricevuto una formazione nell’ambito della teoria di Weierstrass delle forme bilineari, ed aveva continuato a scrivere su questo argomento e su quello, ancora più complicato, delle funzioni theta (una classe di funzioni di più variabili legate tra loro da quello che Frobenius chiama, in modo appropriato, un labirinto di formule (citato in Hawkins [1974, 220])) In entrambi i casi, la considerazione delle simmetrie e l’utilizzo delle idee proprie della teoria dei gruppi doveva suggerire un modo per superare le difficoltà. L’uso che fece Frobenius delle matrici e della teoria dei determinanti, che è caratteristico del tempo, non verrà analizzato in questa sede, anche se si vuole ricordare al lettore che la possibilità di ridurre al minimo l’uso di queste tecniche si deve al lavoro di autori successivi . In effetti l’idea di carattere di un gruppo precede Frobenius di almeno una generazione e spiega il perché della sua corrispondenza con Dedekind. L’origine si trova nel lavoro di Gauss sulla teoria dei numeri (v.) Il lavoro di Gauss ebbe un’importanza straordinaria – trasformò definitivamente la teoria dei numeri in un branca centrale della matematica – ma era anche molto difficile da capire e fu oggetto di approfonditi commentari da parte di alcuni tra i migliori matematici della generazione successiva. Dirichlet tenne alcuni cicli di lezioni su quelle teorie, e l’edizione in forma di libro delle sue lezioni fu curata da Dedekind. Il libro ebbe grande successo e molte edizioni, non da ultimo perché Dedekind utilizzò queste edizioni per pubblicare come appendici molti dei suoi lavori più profondi sull’argomento. Tra queste aggiunte c’era l’idea di carattere di un gruppo nel caso di gruppi abeliani. Un carattere di un gruppo G è una funzione definita su G che preserva il prodotto e assume valori nel gruppo moltiplicativo dei numeri complessi non nulli. Dirichlet aveva utilizzato tali funzioni, pur senza pensarle come caratteri di un grupp , di cui a quel tempo non esisteva ancora la definizione generale, per dimostrare l’esistenza di infiniti numeri primi in ogni progressione geometrica. Kronecker aveva distillato il lavoro di Gauss mostrando come in esso fosse contenuta la dimostrazione, tra l’altro, del fatto che i gruppi abeliani sono costituiti da gruppi ciclici, in una maniera particolarmente semplice. Frobenius, in un lavoro congiunto con Stickelberger nel 1879 applicò questo punto di vista al gruppo dei resti modulo un numero compostoxix. Nella terza edizione delle lezioni di Dirichlet sulla teoria dei numeri, Dedekind spiegò nei dettagli per la prima volta il concetto astratto. Definì un carattere di un gruppo abeliano finito G come una funzione α da G al gruppo delle radici complesse dell’unità con la proprietà che φ(g1g2)=φ(g1)φ(g2) (che precedentemente abbiamo chiamato proprietà di preservare il prodotto). Questo procedere verso l’astrazione fu sostenuto da Heinrich Weber, che aveva seguito le lezioni di algebra superiore di Dedekind quando era studente a Göttingen, e aveva quindi collaborato con lui nel curare la prima edizione dei Riemann Werke. Nel 1882 Weber adattò la dimostrazione di Dirichlet dell’esistenza di infiniti numeri primi in una progressione aritmetica per dimostrare che una forma quadratica assume infiniti valori primi. In questo lavoro pose grande enfasi sulla teoria dei caratteri dei gruppi abeliani (analogamente a quanto fece nel secondo volume del Leherbuch der Algebra che incontrò un grande successo, [1894, 1898]). Il contributo importante di Frobenius fu la creazione della teoria dei caratteri dei gruppi non abeliani, un’estensione che precedentemente non era stata considerata. La definizione di Weber è sufficiente a definire i caratteri in questo contesto più generale, ma l’esistenza di caratteri non banali è tutt’altro che ovvia e, prima di Frobenius, non esistevano motivazioni per questa estensione. Secondo la visione di Frobenius la maggior parte della matematica, e in particolare buona parte della teoria dei numeri, era in essenza teoria dei gruppi e molti, se non la maggior parte, dei gruppi sono non abeliani. Nel 1880 stava lavorando tra l’altro su problemi di teoria algebrica dei numeri, argomento di cui Dirichlet era un esperto riconosciuto, e quindi fu naturale mettersi in contatto con lui. Le lettere che scrisse rendono chiara la difficoltà del suo percorso e il tentativo di trovare un modo per ridurne le difficoltà attraverso lo studio delle funzioni φ definite su un gruppo (o su sistemi più complicati) con la proprietà che φ(g1g2)=φ(g1)φ(g2). In particolare tali funzioni hanno la proprietà che φ(g1hg1-1)=φ(h), ovvero assumono lo stesso valore su elementi che appartengono alla stessa classe di coniugio (in un gruppo, gli elementi h e g1hg1-1 si dicono coniugati). Il riconoscimento dell’importanza delle classi di coniugio in un gruppo finito spinse Frobenius a riflettere sulla relazione tra il numero k delle classi di coniugio e un altro numero in cui era interessato, il numero l dei fattori distinti del determinante del gruppo, che Frobenius definiva in questo modo. Siano g1=e, g2,…,gn gli elementi di un gruppo G e si supponga di utilizzarli come indici per n variabili x g1 ,… , x g n xx. Si formi il polinomio in queste variabili costruito prendendo il determinante della matrice che ha sulla i-esima riga e j-esima colonna l’elemento x g g −1 . Ci i j porterebbe troppo lontano spiegare perché Frobenius era interessato ad un oggetto così complicato, anche perché le generazioni successive si diedero molto da fare per poterne fare a meno. È chiaro che Frobenius seguiva in questo la pratica a lui contemporanea di studiare un gruppo (o una qualsiasi situazione che presentasse una simmetria) costruendo dei polinomi opportuni. Frobenius congetturò rapidamente che i due numeri k e l fossero uguali, e nel giro di pochi giorni trovò una dimostrazione che inviò a Dedekind. Un passo fondamentale della dimostrazione fu quello di sostituire le variabili originarie con variabili di un nuovo sottoinsieme più piccolo, in corrispondenza biunivoca con le classi di coniugio del gruppo. Nelle nuove variabili, ogni fattore irriducibile del determinante del gruppo appare come un singolo fattore lineare, ripetuto un certo numero di volte (analogamente a come un fattore primo appare con una data potenza nella fattorizzazione di un numero intero). Ciò lo condusse ad intuire che il problema di analizzare il determinante di un gruppo conduceva in modo naturale a studiare le funzioni definite sulle classi di coniugio. Congetturò allora che altri due numeri e ed f (v. oltre), fossero uguali. “Sarebbe meraviglioso se e=f ”, scrisse a Dedekind il 26 Aprile 1896, ed era convinto che questo fosse vero, aggiungendo “Le convinzioni soggettive sono in effetti meglio delle dimostrazioni, ma al mondo crudele non bastano” (citato in Hawkins [1974,235]). Per tutta l’estate Frobenius non fu capace di dimostrare il risultato, finché improvvisamente i suoi sforzi furono coronati da successo il 6 settembre 1896, utilizzando metodi completamente diversi da quelli che aveva utilizzato fino a quel momento. Il fatto di non riuscire per cinque mesi a trovare una dimostrazione spiega perché gli articoli che pubblicò in quel periodo hanno il contenuto che conosciamo. I numeri e ed f furono tenuti nascosti, perché Frobenius sospettava di aver trovato un risultato centrale della nuova teoria, ma non era in grado di dimostrarlo. Non voleva che il risultato fondamentale di una teoria di sua creazione venisse dimostrato da qualcun altro. Una volta dimostrato questo risultato però, per Frobenius fu possibile pubblicare la teoria dei caratteri di un gruppo così come era arrivato a concepirla (gli articoli apparvero nel 1897). In un linguaggio moderno, la teoria chiarisce come la rappresentazione naturale del gruppo su sé stesso si decompone in sottorappresentazioni irriducibili. Per capire questo punto, si utilizzino gli elementi {g=e, g2, …,gn} di G come indici per n elementi e g1 , …, e g n xxi che costituiscono una base di uno spazio vettoriale n-dimensionale Vn. L’applicazione del gruppo in sé moltiplica a destra ogni elemento del gruppo, diciamo gi per un elemento fissato, diciamo gj-1, e quindi trasforma gi in gigj-1. Tale rappresentazione induce un’applicazione lineare di Vn in sé che manda e g i in e g g −1 xxii, e ad essa i j quindi è associata una matrice. In questo modo ogni elemento del gruppo viene rappresentato in modo naturale con una matrice. Questa rappresentazione si chiama rappresentazione regolare (destra). Naturalmente la matrice sarà diversa se gli elementi della base vengono presentati in ordine diverso, ma intorno al 1890 si erano già sviluppate teorie che permettevano di cogliere le caratteristiche principali delle applicazioni lineari al di là di queste differenze superficiali. Queste erano la teoria dei divisori elementari di Weierstrass, molto familiare a Frobenius, e la teoria di Jordan delle forme canoniche. Era ben noto che cambiando la base di uno spazio vettoriale V la matrice A di una trasformazione lineare di V in V si trasforma nella matrice B-1AB, e quindi, secondo questo approccio, le caratteristiche fondamentali di una matrice A sono quelle che ha in comune con le matrici della forma B-1AB, in breve con le matrici simili. Tra queste ci sono il determinante di A e la traccia (un nome appropriato), che è definita come la somma degli elementi diagonali. In linguaggio moderno Frobenius aveva scoperto la teoria dei caratteri di un gruppo, ovvero le tracce delle rappresentazioni. La rappresentazione regolare di un gruppo di ordine n permette di pensare gli elementi del gruppo come trasformazioni lineari che agiscono di uno spazio vettoriale di dimensione n, ma può succedere che il gruppo agisca come gruppo di trasformazioni lineari di uno spazio di dimensione più piccola e che la rappresentazione regolare possa venire decomposta. Questo è il punto dove fa la sua comparsa la congettura di Frobenius secondo cui e=f. Ci si può domandare qual è la dimensione di uno spazio vettoriale su cui è definita una rappresentazione di G come gruppo di trasformazioni lineari; questa dimensione si chiama grado della rappresentazione e si indica con il numero e. Ci si può anche domandare quale sia il numero di volte in cui questa rappresentazione si presenta nella rappresentazione regolare; questo è il numero f. Per spiegare questo concetto si osservi che se un gruppo ammette una rappresentazione come gruppo di trasformazioni lineari di uno spazio vettoriale V e un’altra rappresentazione in uno spazio vettoriale W esiste ovviamente una terza rappresentazione, chiamata somma, nella quale il gruppo agisce contemporaneamente su V e W senza mescolare i due spazi. Viceversa, una rappresentazione si può presentare come somma, e i sottospazi invarianti che contiene possono avere la stessa dimensione, oppure no. La teoria relativa a questa decomposizione è governata dal lemma di Schur, un contributo del 1904. Il teorema secondo cui e=f significa che le sottorappresentazioni irriducibili della rappresentazione regolare appaiono in numero uguale al loro grado. Siano ei i gradi delle rappresentazioni irriducibili, allora n è somma di quadrati, n = ∑ ei2 . Questo fatto riassume una i quantità straordinaria di informazioni. Si consideri per esempio il gruppo non abeliano S3 di ordine 6 che consta di tutte le permutazioni di tre oggetti. Possiamo scrivere 6 come somma di quadrati in due modi: 6=12+12+22 che è interessante e 6=1+1+1+1+1+1, che è priva di interesse. La prima decomposizione ci dice che esistono due rappresentazioni uno-dimensionali e una bi-dimensionale. Le rappresentazioni uno-dimensionali sono quella banale (gv=v per ogni g in G) e la rappresentazione gv=Segno(g)v, in cui G agisce sullo spazio vettoriale uno-dimensionale generato dal vettore v e il segno di una permutazione g vale +1 se l’elemento g agisce come una rotazione di V e –1 se agisce come una riflessione. La rappresentazione bidimensionale corrisponde all’azione usuale di S3 su un triangolo del piano. La rappresentazione associata alla decomposizione 6=1+1+1+1+1+1 di fatto non si presenta. Questo perché il numero di rappresentazioni irriducibili è uguale al numero di classi di coniugio del gruppo, che in questo caso è 3 (l’identità, le tre permutazioni di ordine 2 e le due permutazioni di ordine 3). Così, non solo il grado della rappresentazione regolare deve uguagliare una somma di quadrati, ma il numero dei quadrati deve uguagliare il numero delle classi di coniugio del gruppo. La tessera mancante del rompicapo fu il risultato, pubblicato da Frobenius e Schur nel 1904, che afferma che due rappresentazioni sono distinte se e solo se hanno caratteri distinti (in breve, i caratteri caratterizzano). Frobenius non fu il solo a scoprire questa teoria. Un altro fu il matematico inglese William Burnside, uno di quei matematici dotati che avevano bisogno di un argomento adatto per far fiorire il loro talento. Nessuno dubitava della sua abilità, e si allontanò da Cambridge (dove era appassionato vogatore) per accettare un prestigioso incarico di insegnamento presso il Royal Navy College di Dulwich, sul Tamigi, a valle di Londra. Fu eletto membro della Royal Society nel 1893, ma la sua ricerca fu senz’altro di secondo piano finché, per ragioni che restano oscure, scoprì la teoria dei gruppi. Da quel momento, nei primi anni novanta del 19° secolo, fino alla prima guerra mondiale la profondità e il numero delle sue pubblicazioni crebbero prepotentemente. Gli interessi di Burnside erano focalizzati sulla teoria dei gruppi in modo più preciso di quanto non lo fossero quelli di Frobenius. Aveva familiarità con i lavori tedeschi e con quelli di Lie, e il problema che si era posto consisteva nel determinare le classi di coniugio dei gruppi. Le idee di Lie lo allontanarono dai gruppi finiti, ma alcune informazioni su quello che Frobenius stava facendo lo fecero tornare sui suoi passi, e scoprì la teoria della decomposizione delle rappresentazioni che abbiamo appena descritto. Egli ribadì sempre l’indipendenza dei suoi risultati da quelli di Frobenius per quanto riguarda la teoria dei caratteri, e ciò è giustificato dalle differenze di metodo e di approccio che esistono tra i due. Tuttavia, Frobenius arrivò prima, e Burnside aveva letto la maggior parte dei suoi lavori importanti prima di pubblicare i propri. D’altro canto Burnside sfruttò la potenza della teoria delle rappresentazioni più di quanto fece Frobenius. Nel 1897 pubblicò la prima edizione del suo libro Theory of Groups, in cui non faceva alcuna menzione della teoria delle rappresentazioni, ma dopo il 1898 quando fu in grado di apprezzare quello che Frobenius aveva fatto, la utilizzò per dimostrare risultati del tipo: ogni gruppo di ordine paqb è risolubile. Il fatto che questo risultato non si può dimostrare con metodi più elementari è una testimonianza eloquente della potenza dei nuovi metodi. Sophus Lie Una delle branche principali della matematica nel 20° secolo, ricca di intime connessioni con la fisica, è senza dubbio la teoria dei gruppi di Lie e delle algebre di Lie, chiamate così in ricordo del matematico del 19° secolo Sophus Lie (1842-1899). Lie fu un buon amico di Felix Klein, il cui programma di Erlangen del 1872 è uno dei lavori responsabili dell’introduzione della teoria dei gruppi nella geometria. Siccome Lie stesso continuò a scrivere a lungo su quelli che chiamava gruppi di trasformazioni, sembrerebbe ovvio che lui e il suo lavoro debbano figurare in ogni resoconto della teoria dei gruppi nel 19° secolo. Che questo non accada non è solo colpa degli storici (con la notevole eccezione di T. Hawkins, che ha lavorato per più di 20 anni esclusivamente alla stesura di un tale resoconto). È anche vero che le idee di Lie non trovano posto facilmente in una rassegna di questo periodo storico. Infatti, buona parte del lavoro di eminenti matematici del 20° secolo, quali Élie Cartan e Hermann Weyl si può interpretare come un tentativo differito di trasformare il lavoro di Lie in quella sorta di teoria profonda e ben integrata con il resto della matematica moderna che oggi porta il suo nome. Lie cominciò con la teoria delle equazioni differenziali, che rimase sempre un punto di riferimento nel suo lavoro. La sua prima ambizione, chiamata da Hawkins [1991] la sua idée fixe, era quella di creare una teoria di Galois delle equazioni differenziali. Ciò che intendeva e le ragioni per cui questo problema era il motore dello sviluppo della sua teoria, dimostra quanto profondamente egli fosse un uomo del suo tempo. Il suo interesse iniziale riguardava sistemi di equazioni differenziali parziali lineari, analoghi a quelli studiati da Jacobi nella dinamica. Non era facile che questi ammettessero un insieme completo di soluzioni, e la complessità del formalismo era capace di intimidire chiunque. Lie scoprì che era possibile sfruttare certe simmetrie del problema, e ciò lo condusse a considerare gli operatori differenziali del primo ordine della forma ∂ in n variabili x1 , … x n . Seguendo una precedente idea di Poisson definì un ∂x j j prodotto tra operatori ponendo [ Pi,Pj ]=PiPj-PjPi. Questo è ancora un operatore del primo ordine, ∂2 perché i termini della forma si cancellano. Lie si pose il problema di quando esiste una base ∂xi ∂x j finita di operatori, diciamo {P1, …,Pn}, tale che ogni operatore in una certa famiglia , ed ogni prodotto di coppie di operatori, si possa scrivere come somma degli elementi della base nella famiglia. Se [ Pi,Pi’ ]=P allora la condizione che Lie cercava di imporre al prodotto si può scrivere come condizioni sulle aij sulle ai’j e sulle loro derivate. Non ci interessa seguire Lie in questi intricati argomenti, ma solo osservare come insisteva sulla legge di composizione, richiedendo soltanto che fosse chiusa. Questo era in accordo con l’atteggiamento di Klein verso i gruppi di trasformazioni geometriche, ma dimostra anche quanto Lie fosse lontano da qualcosa che assomigliasse alla definizione moderna di gruppo. Un altro argomento che agitava Lie era le teoria molto sviluppata, delle equazioni differenziali ordinarie. Esisteva un certo numero di tecniche con cui di solito si riduceva l’equazione ad una semplice integrazione. Lie intendeva dare a questa collezione di trucchi apparentemente ad hoc una spiegazione più sistematica, sempre nei termini di operatori di simmetria (v. Lie [1891] e Ince [1921]). Dopo aver preso fiducia affrontando questi argomenti focalizzò il suo interesse sul problema di classificare i ‘gruppi’ on un numero piccolo di variabili. Il punto chiave del lavoro di Lie è il passaggio dalle trasformazioni infinitesime alle cosiddette trasformazioni finite che esse generano. Consideriamo per esempio le rotazioni del piano attorno all’origine. Ogni rotazione può essere rappresentata da una matrice; la matrice cos ϑ − sin ϑ descrive una rotazione antioraria di un angolo θ. Poiché questa muove ogni punto sin ϑ cos ϑ eccetto l’origine, di uno spostamento finito, è un esempio di quella che abbiamo precedentemente chiamato trasformazione finita. Al variare di α, ogni punto (x0,y0) viene trasformato nel punto cos ϑ − sin ϑ x 0 . Ha senso quindi interrogarsi sulla direzione istantanea del moto del punto sin ϑ cos ϑ y 0 Pi = ∑ aij ( x1 , … x n ) (x0,y0), e considerare la corrispondente trasformazione infinitesima. In questo caso poiché le tangenti al cerchio sono perpendicolari al raggio, la direzione istantanea in cui si muove il punto (x0,y0) deve essere (-y0,x0). Si può dimostrare questo fatto utilizzando i metodi standard per determinare le tangenti alle curve definite da un parametro: differenziare rispetto al parametro e quindi calcolare per l’opportuno valore. In questo caso il valore è zero, perché il punto cos ϑ − sin ϑ x 0 è in (x0,y0) precisamente quando θ=0xxiii. Allora la tangente si ottiene sin ϑ cos ϑ y 0 − sin ϑ − cos ϑ x 0 0 − 1 x0 − y 0 , come richiesto. per θ=0, ovvero = valutando cos ϑ − sin ϑ y 0 1 0 y 0 x0 Lie generalizzò questa situazione familiare in due direzioni. Considerò un numero qualsiasi, diciamo n, di variabili, e trasformazioni che dipendono da k parametri. Scriviamo le variabili x1,…,xn come x e i parametri a1, …,an come a, e le trasformazioni finite nella forma x’=f(x,a). Considerò quindi le trasformazioni infinitesime associate a queste trasformazioni finite, che si ottengono derivando le funzioni f rispetto ai parametri. Tipicamente, Lie scriveva le trasformazioni nella forma di serie di potenze in ai+δai e considerava i coefficienti delle δai (per la teoria delle serie di Taylor queste corrispondono alle derivate prime). Questo lo portava a considerare equazioni ∂f della forma xi ' = xi + ∑ i da j o, ponendo xi’-xi=dxi, j ∂a j dxi = ∑ j Se scriviamo ∂f i da j ∂a j ∂f i = u (ji ) ( x1 , … , x n ) riconosciamo la presenza, in questa formula, dell’operatore ∂a j ∂ . Questo operatore, applicato ad una funzione delle coordinate ∂xi i x1,…,xn,, diciamo F(x1,…,xn), produce l’incremento infinitesimo di F corrispondente all’incremento infinitesimo di x F ( x1 + dx1 , … , x n + dx n ) = F ( x1 , … x n ) + X k F ( x1 , … x n )dt k Lie allora si domandò quando queste trasformazioni infinitesime formano quello che chiamava un gruppo. Come prima, questo accade se e solo se [X i , X i ' ] = ∑ cii ' j X j . differenziale X k = ∑ u k( i ) j Nel 1873 Lie cominciò a investigare il significato di quest’ultima equazione per valori piccoli di n. Per n=1 trovò facilmente che c’erano soluzioni uniche per k=2 e k=3 e nessuna soluzione per k ≥4 (k rappresenta il numero dei parametri). Il problema per n=2 era molto più difficile, e Lie pubblicò la soluzione nel 1876 in una rivista norvegese di cui era uno degli editori. Ma la rivista aveva una diffusione limitata, e quindi la pubblicò nuovamente nei Mathematische Annalen nel 1880. In quell’anno aveva risolto il problema anche per n=3 ma la soluzione era così complicata che la tenne nel cassetto. Anche la soluzione per n=2 si basava sulla sua precedente analisi delle equazioni differenziali e delle famiglie di curve lasciate fisse da certi gruppi. Di fronte ai problemi intrattabili i matematici cercano naturalmente delle semplificazioni. In analogia con la teoria di Galois, i concetti naturali che bisognava introdurre erano quelli di invariante, di sottogruppo normale e di gruppo semplice. Siccome i 'gruppi' che Lie studiava contengono elementi che si possono sommare oltre che moltiplicare (e quindi costituiscono quella che oggi chiamiamo un'algebra) la versione appropriata di 'normale' è ideale. Un insieme di elementi forma un ideale J se è chiuso rispetto all'addizione e se [A,X] è in J per tutti gli A nell'algebra e tutti gli X nell'ideale. Si verifica che l’insieme dei prodotti [Xi,Xi'] generano un ideale. Lie trovò anche degli esempi espliciti, per esempio il 'gruppo' delle trasformazioni dello spazio proiettivo n-dmensionale, psl(n+1,C). Inoltre trovò numerosi esempi tra i gruppi di matrici e tra i 'gruppi' che preservano alcune semplici forme differenziali. In particolare trovò esempi per ognuna delle famiglie infinite di cui più tardi Cartan dimostrò l’esistenza, nel lavoro sulla classificazione delle 'algebre di Lie'. Era particolarmente interessato ai 'gruppi' che potevano agire su varietà di dimensione bassa, che per lui era un spazio (euclideo, affine o proiettivo) in un numero qualsiasi di variabili. Li classificò per n=1, 2 e 3 variabili , e quindi ne dedusse i corrispondenti ‘gruppi’ di trasformazioni. In effetti il passaggio dagli operatori alle matrici fu cruciale, perché aprì la strada allo studio delle algebre di Lie come esempi di algebre di matrici. Intorno ai primi anni 80 del 19° secolo Lie divenne pessimista sulle prospettive della sua ricerca. Il lavoro era oneroso, e anche quando lo aveva pubblicato in una rivista tedesca di eccellenza, i Mathematische Annalen, non aveva suscitato molto interesse. Dopo un periodo di completamento della sua formazione in Germania e in Francia, aveva fatto ritorno intorno al 1870 alla nativa Norvegia, dove aveva ottenuto un posto come docente a Christiania (oggi Oslo). Manteneva contatti epistolari con Mayer (di cui fu collega per un breve periodo, quando ricoprì l’incarico che fu di Klein a Lipsia), Klein e quasi nessun altro. Non si era mai trovato bene in Germania, e non parlava fluentemente il tedesco, ma in Norvegia si sentiva completamente isolato. Cominciò a prendere in considerazione l'idea di riscrivere le sue idee partendo da zero per dimostrare come avrebbero potuto trasformare la teoria delle equazioni differenziali. Per aiutarlo, Klein e Mayer si diedero da fare per mandargli Friedrich Engel, per scrivere la sua Habilitationsschrift e contemporaneamente aiutare Lie a riscrivere le proprie idee. Il disegno ebbe successo. Engel conseguì l'abilitazione come Privatdozent nel 1885 e Lie pubblicò un lungo articolo nei Mathematische Annalen. In quel periodo un altro giovane matematico, educato alla scuola di Berlino, cominciò a chiedere informazioni. Aveva scoperto, con un certo ritardo, che il lavoro di Lie si sovrapponeva al suo. Questi era Wilhelm Killing. In quel tempo era un insegnante privo di contatti scientifici presso il liceo di Braunsberg nella Prussia orientale, e autore di un Programschrift in cui si proponeva di classificare tutte le 'algebre di Lie' facendo uso della teoria di Weierstrass delle radici caratteristiche. La lettera di Killing a Lie non ebbe risposta e quindi scrisse ad Engels, cominciando così una lunga corrispondenza, che lo aiutò a mantenere viva la sua creatività. Killing capì che la sovrapposizione con il lavoro di Lie era notevole, e si sentì incoraggiato nell'apprendere che il compito che si era posto, di scoprire tutte le 'algebre di Lie' semplici, era ritenuto degno di interesse da Engel. Engel si rese conto che per quanto scrivesse da un oscuro indirizzo, Killing padroneggiava bene una teoria così oscura che lui (Engel) era stato mandato in Norvegia per impararla dal maestro. Nell'estate del 1886 si liberò a Lipsia uno dei rari posti di professore ordinario, quando Klein lasciò l’incarico per andare a Göttingen, e l’incarico fu assegnato a Lie. Engel lo seguì, e Killing si organizzò per incontrarli per due giorni. Lie restò impressionato da alcune delle idee di Killing, ma notò che altre erano troppo imprecise. Così ricominciò un lento scambio di lettere, in cui Engel incoraggiava Killing a scrivere i suoi risultati. Assicurava a Killing che Klein avrebbe fatto in modo che il suo lavoro fosse pubblicato nei Mathematische Annalen, e questo lo avrebbe introdotto nella cerchia di Klein a Göttingen. Fino a quel momento aveva pubblicato solamente nel Journal für Mathematick, una rivista locale di area berlinese. A partire dal 1888, Killing inviò a Klein un lavoro in quattro parti in cui venivano classificate le algebre di Lie semplici, complesse, finito dimensionali. I lavori erano incompleti, molti calcoli laboriosi erano stati omessi, e alcuni casi non erano stati considerati. Per completezza si sarebbero dovuti trattare tutti i casi in cui si presentavano radici ripetute, ma gli impegni non lasciavano molto tempo all'insegnante di scuola. Fece la scelta etica di pubblicare le sue profonde scoperte senza nascondere le loro imperfezioni. Klein non era il solo a ritenere che il solitario genio norvegese conoscesse molto di più di quanto aveva scritto. Anche Gaston Darboux, con cui aveva avuto rapporti ai tempi di Parigi (1870-1871), continuava a mantenere i contatti, e quando Lie visitò nuovamente Parigi intorno al 1880 Poincaré e Picard furono in grado di afferrare prontamente quello che aveva da dire. Nel 1888 Darboux organizzò la visita di due giovani matematici francesi a Lie a Lipsia, de Tannenberg e Vessiot. Prima di allora Picard aveva utilizzato il lavoro di Lie per costruire una teoria di Galois delle equazioni differenziali lineri ordinarie, e il suo lavoro fu esteso da Vessiot dopo il suo ritorno dalla Germania (v. Gray [1988] per un resoconto parziale). Darboux e altri, alla Ecole Normale valorizzarono il contatto, e un certo numero di giovani matematici francesi ne approfittarono negli anni a seguire. Uno di questi, Arthur Tresse, fece conoscere al suo amico Élie Cartan il lavoro di Killing e Cartan proseguì il lavoro fino a concluderlo completamente. Nella tesi di Cartan è contenuta la prima classificazione esauriente delle algebre di Lie complesse semisemplici. Essa giustificò le intuizioni di Killing, chiarì i suoi argomenti, corresse i suoi errori e le sue omissioni. Rimaneva solo che il resto del mondo matematico si mettesse in pari, ma questo avrebbe richiesto ancora molti anni. 2.1.6 La teoria dell’eliminazione; la soluzione delle equazioni polinomiali in più di una variabile Nel 18° secolo il metodo preferito per formulare e risolvere molti problemi di matematica pura e applicata era quello di formulare il problema in termini algebrici e di risolverlo con metodi algebrici. Ciò conduceva spesso al problema di risolvere simultaneamente molte equazioni polinomiali di più variabili, per le quali l'approccio ovvio era basato sulla speranza di eliminare le variabili una per una. Ma ciò doveva rivelarsi difficile, se non impossibile, come viene illustrato dal semplice esempio di eliminare la variabile y dalle equazioni x3+y3=3xy e x2+y2=1. Si sviluppò quindi un'intera branca dell'algebra per trattare questo genere di problemi, chiamata teoria dell'eliminazione. Una buona indicazione della sua importanza è questo invito dell'Académie des Marines francese, l'istituzione scientifica aggregata alla marina francese nel 1770. L'eliminazione delle variabili è una delle parti principali [della matematica] che deve essere perfezionata, sia perché l'estrema lunghezza dei metodi ordinari la rendono così ripugnante, sia perché la risoluzione generale delle equazioni dipende da essa. (Citato in Rider, [1982], 168) Durante il 18° secolo venne compiuto uno sforzo considerevole per stabilire che due curve, una di grado m e l'altra di grado n hanno nxm punti di intersezione. Questo risultato, associato al nome di Etienne Bezout, che diede importanti contributi al problema, richiede un numero significativo di cambiamenti dei propri punti di vista prima di poter essere accettato, per non dire dimostrato. Richiede che sia permesso che due rette parallele si incontrino 'all'infinito', che curve con un numero insufficiente di punti reali in comune si intersechino in punti complessi e che un punto in cui si intersecano due curve con una tangente in comune contribuisca al computo delle intersezioni con molteplicità maggiore di uno. Quest'ultimo aspetto era anche il più difficile; perfino Eulero perse la speranza di trattarlo in modo soddisfacente. Anche quando il teorema di Bezout venne dimostrato, restò il problema di determinare esplicitamente le radici, e questo trascendeva le possibilità dell'algebra. Per esempio, due curve definite da un'equazione quadratica e da un'equazione cubica si intersecano in sei punti, le cui ascisse sono le radici di un'equazione polinomiale di grado 6, e può non esistere alcuna formula algebrica per calcolarle. La teoria dell'eliminazione ricevette un impulso decisivo nel 1840 ad opera matematico inglese J.J. Sylvester, noto anche per essere stato il primo ebreo che ebbe successo nell'ambito della comunità matematica inglese. Egli osservò che se due curve, definite dalle equazioni polinomiali f(x,y)=0 e g(x,y)=0 hanno punti in comune, allora questi sono comuni anche alle curve xkf(x,y)=0 e xlg(x,y)=0, per ogni valore di k e l. Se f è di grado m in y e g è di grado n e se supponiamo, senza perdere di generalità, che m ≥ n, allora al variare di k tra 0 e n-1 e di l tra 0 e m-1 si ottiene un sistema di m+n equazioni per i punti di intersezioni. Queste equazioni sono lineari in y, y2, ecc. e i coefficienti sono monomi in x. I coefficienti sono solo m+n e quindi esisteranno soluzioni se e solo se il determinante dei coefficienti si annulla. Questa regola è completamente algoritmica, e costituì una delle prime affermazione della potenza dei determinanti; Cauchy dimostrò rapidamente che questo punto di vista era in accordo con i metodi precedenti. Il successivo passo in avanti sostanziale fu il teorema di Noether (Noether, [1873]) un punto centrale del lavoro con Brill, mirato a sviluppare una teoria essenzialmente algebrica delle superfici di Riemann (v. Geometria). Il teorema si propone di correggere la seguente affermazione, che a prima vista si potrebbe credere vera: date due curve di equazioni f=0 e g=0 e una curva h=0 che passa r+s-1 volte per ogni punto in cui f ha molteplicità r e g ha molteplicità s, ci sono polinomi A e B tali che h=Af+Bg. L’affermazione è falsa, come dimostra questo esempio: f(x,y)=y, g(x,y)=y-x2; la curva di equazione x+y=0 non è della forma Af+Bg=0. La correzione di Noether focalizzò l'attenzione sul fatto che i punti singolari hanno la loro importanza. Nell'esempio appena visto, è necessaria una formulazione che tenga in considerazione il fatto che la curva h=0 passa per l'origine e ha in quel punto una tangente comune con le curve f e g. Nel linguaggio del 19º secolo, bisogna tenere in considerazione i punti infinitamente vicini. La questione si rivelò molto sottile, e dovette trascorrere molto tempo prima che venissero forniti enunciati accurati e dimostrazioni rigorose (v. Brill e Noether [1894, pp. 367-402] e Bliss [1923]). Un nuovo livello di profondità in questa branca dell'algebra venne raggiunto nel 1880 da Kronecker, come descritto da Gray [1997]. Per tutta la vita Leopold Kronecker pensò a come risolvere i problemi matematici utilizzando l'algebra. La teoria dell'eliminazione era la tecnica fondamentale della sua analisi ad ampio spettro su quello che poteva essere fatto nello studio dei polinomi in più variabili e, tra l'altro, considerò anche il caso in cui i coefficienti numerici fossero interi algebrici arbitrari. La sua pubblicazione definitiva sull'argomento fu il 'Grundzüge', pubblicato nel 1882 come parte delle celebrazioni del 50º anniversario del dottorato del suo mentore, Kummer (queste erano le priorità dei professori tedeschi del 19º secolo). Il lavoro è senz’altro difficile (v. Edwards [1999] per una guida) e può darsi che Kronecker ottenesse un successo maggiore con le sue lezioni a Berlino e con le relazioni, generalmente buone, che manteneva con i suoi pochi studenti. L’articolo e le lezioni (pubblicate postume nel 1901) presentano argomenti quali la fattorizzazione di polinomi (Kronecker diceva di conoscere un metodo generale, che però non descrisse mai esplicitamente) e la possibilità di sviluppare un polinomio su una data base finita. Egli utilizzò la terminologia impiegata da Gauss per l'aritmetica modulare: se un polinomio f è divisibile per un polinomio g diceva che f è congruo a 0 mod g. Così se f si può scrivere nella forma a1g1+…+amgm dove i coefficienti ai sono ancora polinomi, Kronecker diceva che f è congruo a 0 mod g1,…,gn e si riferiva alle funzioni che sono congrue a 0 mod g1,…,gn come alle funzioni che appartengono al sistema modulare definito dai polinomi g. Costruì quindi una teoria dei divisori e dei multipli dei sistemi modulari, che includeva anche il concetto di divisore primo. Le difficoltà insite dell'approccio di Kronecker corrispondono strettamente ai problemi geometrici relativi alle curve definite tramite polinomi, ma Kronecker tendeva ad evitare questo linguaggio. Inevitabilmente queste difficoltà crescevano al crescere del numero delle variabili. Possiamo farci un'idea di queste difficoltà considerando come i suoi successori cercarono di superarle. Jules Molk studente di Kronecker a Berlino negli anni 1882-4 pubblicò un lungo articolo sull'argomento in Acta Mathematica (Molk [1884]). Alcuni anni dopo, come curatore della Encyclopédie des Sciences Mathématiques pures et appliqués, Molk organizzò una estesa rielaborazione dell'articolo di Landsberg sulla teoria dei divisori, che era apparso nella Encyclopädie der Matematischen Wissenschaften; Gli autori dell’articolo furono Kürschák e Hadamard. Nel frattempo il matematico ungherese Gyula König scrisse il primo libro di testo sull'argomento. (in ungherese nel 1903 e quindi in tedesco [1904]). Il processo culminò con un articolo e un libro scritti dal matematico inglese F.S. Macaulay. Molk non fece avanzare la teoria molto oltre il punto in cui l'aveva lasciata Kronecker, osservando che le tecniche disponibili coprivano a stento il caso dei polinomi in 2 variabili. Il libro di König, anche se aveva lo scopo modesto di essere il primo libro di testo sull'argomento, andò oltre. È il primo libro in cui i concetti moderni di campo e di anello commutativo sono chiaramente distinti e utilizzati, anche se i termini introdotti da König non sono sopravvissuti. Egli utilizzava il termine dominio ortoidexxiv per indicare quello che oggi chiamiamo campo e il termine dominio oloidexxv per indicare un anello commutativo con unità tale che nessuna somma del tipo 1+1+…+1 si annulla (il saggio di Hadamard e Kürschák presentava un interessante elenco di concetti di questo genere, stilato immediatamente prima che l'articolo di Steinitz fondasse la teoria moderna dei campi). König distinse anche tra il concetto di campo e quello di 'Rationalitätsbereich' o dominio di razionalità. Un 'Rationalitätsbereich' è un'estensione finita del campo dei razionali. (esistono anche estensioni infinite; König diede l'esempio del campo di tutti i numeri algebrici) Il punto di maggiore interesse del libro di König è una generalizzazione di uno dei teoremi di Noether relativi alla teoria dell'eliminazione al caso di n equazioni polinomiali in n variabili. Questa generalizzazione risponde alla domanda: quando un polinomio in n variabili appartiene al sistema modulare definito da n polinomi dati? Noether aveva sollevato e risolto il problema nel 1873 per 2 polinomi in 2 variabili (cioè curve) ed era stato il primo ad affrontare in modo corretto le difficoltà causate dai problemi relativi alla tangenza. Invece di passare in rassegna le difficoltà affrontate da König, si osservi che il teorema è falso in maniera irrecuperabile per due polinomi in tre variabili. La teoria dei sistemi modulari non è poi così diversa dalla teoria degli ideali, i cui pionieri furono Dedekind e Weber nel loro articolo del 1882. È più esplicita e algoritmica nei suoi scopi, secondo un approccio che affonda le sue origini nel lavoro di Kronecker e venne poi esemplificato da Macaulay. Siccome le pubblicazioni di quest'ultimo su questo argomento si estendono attraverso un arco di tempo che va dal 1913 al 1916, le importanti novità che introdusse non possono essere descritte in questa sede, ma rappresentano il percorso attraverso cui le idee di Kronecker penetrarono nella moderna teoria degli anelli. i L’originale è sbagliato. La traduzione dell’originale è: “… termini della forma a/(a'+b'x) (il cui integrale è un logaritmo) e (c+dx)/Q1(x), dove Q1(x), è quadratico in xi. Questi danno luogo ai termini logaritmici e trigonometrici etc….” Ma possono presentarsi altri termini, per esempio quelli del tipo a/(a'+b'x)n e altri ancora che l’autore non ha considerato. L’enunciato preciso è complicato e mi sembra inutile in un articolo di questo genere. Suggerisco quindi questa semplificazione. ii Sta assumendo implicitamente che i coefficienti siano reali. iii Errore nell’originale. iv Questo enunciato non è strettamente corretto. Un possibile enunciato corretto è: ogni funzione continua su un intervallo, positiva ad un estremo e negativa all’altro deve annullarsi in un punto interno all’intervallo. Si può assumere che l’autore ritenga inutile aggiungere l’ipotesi che le funzioni siano definite per ogni valore reali; per funzioni siffatte quello che afferma è vero, ma la restrizione che pone è molto pesante e inutile. Io l’avrei scritto in tutt’altra maniera. v Frase di significato oscuro. vi Credo che n sia un errore. vii Contraddizione viii Questa frase e la precedente non mi sono chiare dal punto di vista matematico ix Aggiungerei: irriducibili, altrimenti è ovvio. x L’originale è sbagliato. xi Nell’originale c’e’ un errore nell’esponente. xii Non Euclidean mi sembra inappropriato. Inoltre il teorema non è enunciato bene. xiii Aggiunta che mi sembra necessaria xiv Se n è dispari ovvero n pari e –b maggiore di zero. xv L’aggiunta mi sembra necessario perché poi utilizza il concetto di gruppo quoziente che non è definito altrove. xvi Mia aggiunta xvii Mia aggiunta xviii La frase è completamente rimaneggiata xix Non primo xx C’è un indice sbagliato nell’originale xxi C’è un indice sbagliato nell’originale xxii C’è un errore in uno degli indici xxiii Errore nel testo xxiv Non ho trovato una traduzione xxv Non ho trovato una traduzione