2
Algebra
2.1 L’algebra dei polinomi e i primi anni della teoria dei gruppi
2.1.1 Il teorema fondamentale dell’algebra
Il teorema fondamentale dell’algebra afferma che ogni equazione polinomiale a coefficienti
reali o complessi ha almeno una radice complessa. Ne segue che ogni equazione polinomiale di
grado n ha esattamente n radici (non necessariamente distinte). Tralasciando le applicazioni
all'algebra, durante il secolo 18° venne riconosciuta la sua utilità per l'integrazione. Per integrare
una funzione razionale della forma P(x)/Q(x) è sufficiente fattorizzare il denominatore Q(x) nel
prodotto di fattori lineari e quadratici, e quindi utilizzare il metodo delle frazioni parziali per
scrivere l'espressione originale come somma di termini facilmente integrabilii. Una volta
fattorizzato il denominatore, il processo di integrazione diventa completamente meccanico.
L'esistenza di una fattorizzazione è equivalente al teorema fondamentale dell'algebra.
La dimostrazione per un polinomio di grado dispari si basa su una proprietà dei numeri reali.
Dopo aver ridotto, senza perdere di generalità, il polinomio alla forma xn+an-1xn-1+ …+a0,
osserviamo che il valore del polinomio è grande e negativo quando x è grande e negativa e invece è
grande e positivo quando x è grande e positivaii. Siccome il grafico è continuo, deve intersecare
l'asse delle ascisse almeno una volta. In un punto dove interseca l'asse delle ascisse il polinomio si
annulla, e questo dimostra l'asserto. Il polinomio x2-2, che non ha zeri razionali e il cui grafico
interseca l'asse delle ascisse nei punti in cui x= ±√2, è un esempio semplice che chiarisce alcuni
aspetti sottili e profondi del teorema fondamentale dell'algebra; esso riguarda la natura dei numeri
reali e della nozione di continuità, e non ha nulla a che fare, in questo caso, con l'algebra. Molti
matematici cominciarono a rendersene conto durante il 19° secolo, e il primo di questi fu forse
Bolzano (v. analisi reale). Una conferma della natura analitica del problema è data dal fatto che
ancor oggi non si conoscono dimostrazioni del seguente teorema che sia più semplice per i polinomi
che per funzioni continue arbitrarie; il grafico di una funzione continua, negativaiii in qualche punto
e positiva in qualche altro deve attraversare l'asse delle ascisseiv.
La prima delle quattro dimostrazioni di Gauss del teorema fondamentale dell'algebra è uno
dei documenti fondamentali della matematica del 19° secolo. In essa avanzò critiche taglienti nei
confronti dei precedenti tentativi, operati, tra gli altri, da D'Alembert; ma anche il suo tentativo si
basava su fatti non dimostrati (nel suo caso, sulla natura delle curve algebriche). Gauss osservava
che ci sono quattro possibilità per le radici di un’equazione polinomiale: possono non esistere;
possono esistere ma non obbedire alle usuali regole dell’aritmetica; possono obbedire alle usuali
regole dell’aritmetica ma non essere numeri complessi; possono essere numeri complessi. Egli
riteneva che la maggior parte delle dimostrazioni facevano solo vedere che la terza possibilità non si
poteva presentare – se le radici ubbidivano alle usuali regole dell’aritmetica allora dovevano essere
numeri complessi. Questo lasciava aperto il problema dell’esistenza (e del fatto che obbedissero alle
leggi dell’aritmetica).
In effetti il problema dell’esistenza venne riaperto intorno al 1800, e la natura dei numeri
complessi divenne argomento di molte discussioni. Si potrebbe pensare che la definizione di
numero complesso fosse stata definitivamente chiarita, se non da Bombelli nel 16° secolo, almeno
nel corso dei due secoli successivi. In effetti, il periodo in cui il dibattito si fece più acceso fu quello
a cavallo dell’inizio del 19° secolo. Si potrebbe supporre che tale dibattito fosse nato nelle menti più
acute e fosse dominato dai principali matematici dell’epoca. Una tale supposizione è
sostanzialmente inesatta, ma una volta osservati questi fatti, apparentemente sorprendenti, non è
difficile trovarne una spiegazione.
I matematici del 18° secolo consideravano generalmente il simbolo √−1 come un simbolo
formale, il cui unico scopo era quello di separare le due metà di una coppia di quantità, come in
x+y√−1, e che obbediva a regole ovvie tra cui (√−1)2=−1. Questa teoria formale è molto simile alla
teoria moderna ed offre una base sufficiente per sviluppare l’intera teoria delle funzioni complesse.
È diversa però dalla teoria moderna per quanto riguarda le assunzioni filosofiche su cui si basava, e
questo è il punto fondamentale per cogliere il significato dei dibattiti del 19° secolo; le questioni
sulla natura di √−1 sono filosofiche.
In ogni periodo storico, matematica e filosofia della matematica dominante convivono in
uno stato di perenne tensione. Le persone con competenze specifiche in entrambe le aree sono
poche, e la matematica si sviluppa secondo linee che i filosofi possono non essere in grado di
condividere. Un matematico, sotto pressione per la necessità di scrivere una prefazione o di attrarre
qualche studente, può delineare una filosofia della matematica che non regge ad un’analisi critica,
alla luce della sua stessa pratica. Un filosofo può sostenere una posizione secondo cui la matematica
esistente, quella fatta dai matematici, non è valida. Questo è quanto è accaduto nel dibattito sui
numeri complessi.
Vale la pena osservare che lo stesso accadde per i numeri negativi. Nonostante la loro
introduzione fosse accompagnata da alcune perplessità, come indica il nome ‘numera fictae’ che gli
fu attribuito, vennero rapidamente accettati in algebra. Causarono brevemente alcuni problemi in
corrispondenza dell’introduzione della geometria delle coordinate, ma da quel momento in poi i
matematici, e anche i mercanti e i contabili, non incontrarono più problemi con i numeri negativi.
Filosoficamente però non potevano trovar posto in un sistema di grandezze geometriche e di numeri
pensati per contare. Due pecore in un campo hanno attributi determinati ( possono essere bagnate,
arruffate, scalpitanti) ma la pecora che io devo a te, la pecora negativa che possiedo, non ha alcun
attributo. Il negativo di uno non è un numero per contare. Perfino un matematico del calibro di
d’Alambert ripudiò i numeri negativi, nel suo articolo per l’Encyclopédie, sulla base di queste
considerazioni, e propose di pensarli come quantità positive, ma in un certo senso opposte. Una
generazione più tardi, alcuni filosofi inglesi della matematica, tra cui Frend, insistevano ancora su
questo punto, argomentando che i numeri negativi non esistevano, e che utilizzarli fosse una
sciocchezza. Peacock nel suo Treatise on Algebra [1830] espose in modo contorto l’idea secondo
cui parlare di numeri negativi fosse un modo improprio di parlare di numeri positivi.
Il dibattito è istruttivo, anche se le posizioni di Frend sembrano eccessive. Una filosofia dei
numeri che li considera come attributi di grandezze discrete o continue non è in grado di assimilare
i numeri negativi; sono costruzioni ma non, a loro volta, grandezze. Eppure i matematici
procedevano bene, nonostante la palude filosofica in cui si erano apparentemente impantanati, ma il
problema doveva essere affrontato da chiunque ritenesse che la matematica fosse vera, in quanto
sistema di deduzioni logiche (che preservano la verità) costruite a partire da affermazioni su oggetti
percepiti con sufficiente chiarezza, come i numeri. Osserviamo anche che, come è ragionevole, ogni
partito in questo dibattito prestava fede a ciò che conosceva meglio, anche quando partiti diversi
erano riuniti nella stessa persona.
Accadde lo stesso con i numeri complessi e con il problematico numero√−1. Vari autori
(Wessel in Danimarca, Carnet, l’abate Buée e Français in Francia) suggerirono che il concetto
appropriato fosse quello di segmento orientato nel piano. Secondo loro il segno –1 denotava un
segmento di lunghezza 1 orientato da destra a sinistra e √−1 denotava un segmento di lunghezza
1diretto verso l’alto. In un opuscolo scritto nel 1806, Argand assunse una posizione più sottile,
argomentando che √−1 si ottenesse ruotando il segmento unitario di un angolo retto in direzione
antioraria. Questi punti di vista furono argomento di un dibattito negli Annales di Gergonne nel
1813-14: Gergonne, matematico anche lui, sosteneva che non bastava adornare con aggettivi il
concetto di grandezza, e che tali tentativi eran incoerenti.
Questi dibattiti procedevano senza il contributo dei matematici più importanti (a parte
d’Alambert), a meno che non si tenga conto di un’influenza indiretta di Legendre su Français.
Bisogna svolgere indagini specifiche per scoprire cosa pensassero e spesso non si scopre nulla. Il
caso più eclatante, a causa dell’impegno profuso nel corso di tutta la vita per creare la teoria delle
funzioni complesse, è quello di Cauchy. Per quasi tutta la vita condivise la vecchia interpretazione
formale dei numeri complessi. Talvolta esponeva la teoria di Buée, ma professava la sua ignoranza
in quella di Argand. Solo nel 1840 fece un tentativo per chiarire, per il proprio piacere, l’argomento
(v. oltre). Questa è una chiara evidenza del fatto che il dibattito sui fondamenti e i problemi di
ricerca nella teoria delle funzioni erano argomenti ben distinti.
L’altro caso da considerare è quello di Gauss, ed è il più istruttivo. Fin dalle Disquisitiones
Arithmeticae, 1801, Gauss aveva illustrato le sue scoperte nella teoria dei numeri con la
rappresentazione dei numeri complessi con i punti del piano. Per esempio, nella costruzione con
riga e compasso del poligono regolare con 17 lati, scrisse esplicitamente le coordinate dei 17 vertici
in questa forma. Nel 1805, mentre studiava gli aspetti numerici delle equazioni polinomiali di terzo
e quarto grado Gauss scrisse che quei teoremi “raggiungono la loro vera semplicità e naturale
bellezza quando il campo dell’aritmetica viene ampliato in modo da contenere gli interi
immaginari”. Quando, molto più tardi, pubblicò i suoi risultati, nel 1832, fu costretto a dare
un’esposizione della teoria dei numeri complessi, che consisteva nella vecchia idea algebrica che
fossero simboli della forma a+ib che si potevano rappresentare come punti del piano.
Mentre l’utilità dei numeri complessi continuava a crescere, i matematici oscillavano tra la
rappresentazione geometrica e la descrizione come coppia ordinata di numeri reali. Come succede
quasi sempre con le dispute filosofiche, dimenticavano che le grandezze sono uno degli oggetti
principali di cui si occupa la matematicav. In effetti, a partire dal 1843, con la pubblicazione dei
quaternioni di Hamilton (il compimento di anni di lavoro di molti altri matematici) cominciarono a
fiorire numerose proposte di nuove ‘algebre’: i quaternioni di Rodrigues, e così via fino a Pierce e
oltre – (v. il saggio di Richards).
Dimostrazioni del teorema fondamentale dell’algebra
Un tentativo di dimostrazione, dovuto sostanzialmente a Lagrange, è sostanzialmente il seguente. È
ovvio che un’equazione di grado uno ha una radice. È quasi ovvio che anche un’equazione di grado
due ha una radice. Si applica la solita formula, e se i coefficienti sono complessi bisogna dimostrare
che la quantità complessa b2-4ac ha (due) radici quadrate, come in effetti si può dimostrare.
Storicamente questo dettaglio veniva spesso trascurato e quello che si dimostrava è che un
polinomio di grado n a coefficienti reali ammette radici (eventualmente) complesse. D’altra parte è
sufficiente considerare solo polinomi con coefficienti reali, perché se p (x) è un polinomio a
coefficienti complessi e se p (x) è il polinomio i cui coefficienti sono i complessi coniugati dei
coefficienti di p(x) , allora il prodotto p ( x) p ( x) ha coefficienti reali e ammette radici in C se e solo
se le ha p(x) . Una volta capita la necessità, l’argomento richiede anche una certa raffinatezza nel
trattare i numeri complessi,.
Il risultato si dimostra con due induzioni sul grado del polinomio. È sufficiente dimostrare
che un’equazione polinomiale ha almeno una radice, perché fattorizzandola ci possiamo ridurre ad
un polinomio di grado più basso e possiamo assumere induttivamente che tutti i polinomi di quel
grado abbiano esattamente tante radici quant’è il loro grado. Così è sufficiente dimostrare che
un’equazione polinomiale ha almeno una radice complessa.
Consideriamo un polinomio f(x) a coefficienti reali di grado d=2nq, dove q è dispari e il
coefficiente direttore vale uno. Procediamo per induzione su n. Se n=0 il risultato è banale, per
quanto già detto. Supponiamo n≥1, e fattorizziamo f(x) formalmente in qualche estensione di C,
ottenuta aggiungendo d quantità x1,...,xd; quindi f(x)=(x-x1)...(x-xd). Si prenda un numero reale
arbitrario c e si definiscano le quantità yij=xi+xj+cxixj, i≤j. Ci sono ½d(d+1) quantità siffatte,
ovvero 2n-1q(d+1), dove q(d+1) è dispari. Così, per induzione, l’equazione polinomiale (x-y11)(xy12)...(x-ydd) ha una radice complessa, purché i suoi coefficienti siano reali, come di fatto si verifica.
Sia zc questa radice complessa. Allora per qualche i e j (che dipendono eventualmente dal numero
reale c) yij=xi+xj+cxixj=zc.
Siccome il risultato vale per ogni scelta del numero reale c e di queste scelte ne sono
possibili infinite, mentre sono solo finite le coppie (i,j), ne segue che per due valori distinti di c,
diciamo c e c’, le coppie (i,j) devono coincidere. Se denotiamo (r,s) questa coppia (i,j), allora
xr+xs+cxrxs=zc e xr+xs+c’xrxs=zc’ sono entrambi numeri complessi. Ne segue che sia xr+xs
che xrxs sono numeri complessi e quindi anche xr e xs sono numeri complessi. Ma queste quantità
sono le radici di f(x)=(x-x1) … (x-xd) e quindi si procede per induzione.
Gauss diede la prima delle sue quattro dimostrazioni nel 1799, nella sua dissertazione
dottorale. Considerava un polinomio f(x) a coefficienti reali in una variabile complessa x e studiava
la parte reale e la parte immaginaria, ℜf(z) e ℑf(z). Uguagliate a zero, queste funzioni danno
l’equazione di due curve, entrambe di grado n, che intersecano un cerchio di raggio R molto grande
in 2n punti. L’equazione polinomiale ha una radice se e solo se le curve si intersecano, e questo può
accadere, eventualmente, solo all’interno del cerchio perché i rami si comportano come quelli di zn
quando |z|>R. Per la stessa ragione le curve intersecano il cerchio in un in un insieme di punti
interlacciato, (percorrendo il cerchio si incontrano alternativamente punti su ℜf(z)=0 e punti su
ℑf(z)=0). Ne segue che le curve devono intersecarsi in qualche punto interno al cerchio.
La dimostrazione non è rigorosa secondo gli standard moderni. È necessario dimostrare, per
esempio, che un ramo di una curva algebrica reale non può arrestarsi né arrotolarsi in una spirale
sempre più stretta. Assumendo un comportamento ragionevole è però una dimostrazione
convincente, e non presta il fianco alle obiezioni che Gauss sollevò nei confronti della
dimostrazione di D’Alambert. In occasione delle celebrazioni per il 50° anniversario di questa
dimostrazione, nel 1849, Gauss pubblicò una sua rivisitazione, che faceva uso esplicito dei numeri
complessi, (prima usati solo implicitamente)). È importante osservare quanto fossero radicali nel
loro approccio geometrico le dimostrazioni di Gauss, in confronto a quelle più algebriche dei suoi
predecessori. Un’indicazione su quello che bisogna fare per renderle rigorose si può trovare nel
saggio di Ostrowski in Gauss Werke, X.2 (v. anche Bottazzini [1981], traduzione inglese, [1986]
126-132).
La seconda delle dimostrazioni di Gauss è simile a quella accennata in precedenza e
attribuita a Lagrange, e non verrà discussa ulteriormente, mentre la terza utilizza pesantemente
l’analisi complessa e quindi verrà discussa più avanti.
Non sorprende che anche Cauchy fosse tra quelli che proposero delle dimostrazioni, perché
fu l’artefice principale della teoria delle funzioni complesse nella prima metà del 19° secolo. La
prima delle sue dimostrazioni fu pubblicata nel 1817, e sostanzialmente si sviluppa secondo le
stesse linee di quella di Argand (pubblicata senza attribuzione esplicita nella rivista di Gergonne nel
1813). Probabilmente lo stesso Cauchy non la riteneva sufficientemente rigorosa, perché presentò
una seconda dimostrazione nel 1821 nel Cours d’analyse. Questa dimostrazione ricorda la prima di
quelle di Gauss per il fatto che spezza il polinomio nella parte reale e nella parte immaginaria, ma
poi fa appello a fatti geometrici intuitivi di natura diversa. Dopo aver compiuto una serie di passi
fondamentali nell’ambito della teoria dell’integrazione sui cammini, che culminarono nella sua
teoria dei residui (v. Analisi complessa) nel 1830 Cauchy diede alcune dimostrazioni più eleganti
basate sul teorema integrale (di Cauchy). Siccome in queste dimostrazioni bisogna integrare su un
cerchio e il teorema conta il numero degli zeri e dei poli interni al cerchio, il metodo divenne noto
come metodo della variazione dell’argomento. Finalmente nel 1855 egli dimostrò il teorema
dell’indicatore logaritmico che afferma che l’espressione
1 f ' ( z)
1 d
( log f ( z )) dz
dz =
∫
2πi f ( z )
2πi ∫ dz
(*)
valutata lungo il bordo di una regione è uguale al numero degli zeri meno il numero dei poli
contenuti nella regione stessa, contati con la loro molteplicità. Da questo dedusse immediatamente
una nuova dimostrazione del Torema Fondamentale dell’algebra, considerando il caso in cui f è un
polinomio.
In un articolo del 1836, Liouville e Sturm dimostrarono il Teorema Fondamentale
dell’algebra utilizzando il metodo di Cauchy di contare le radici di un polinomio contenute in un
cerchio. Liouville ritornò sul problema nel 1839, dopo averne letto il resoconto ingarbugliato di
Mourey presentato da de Fourcy. Colse l’opportunità per darne una nuova dimostrazione, ispirata
alla terza delle dimostrazioni di Gauss, che aveva letto proprio l’anno precedente. L’articolo fu
ristampato senza modifiche tra le appendici dell’edizione del 1840 del Résumé des Leçons
d’analyse di Navier e godette di grande stima in Francia. Stranamente, la dimostrazione migliore tra
quelle di Liouville, non fu mai resa pubblica. Come ha mostrato Lützen (in Lützen [1990], p. 544)
Liouville fu il primo ad utilizzare il teorema di Liouville per dimostrare il Teorema Fondamentale
dell’algebra. Sostanzialmente il suo argomento si basa sul fatto che se f(x) non avesse radici, il suo
reciproco sarebbe limitato e non diverrebbe mai infinito, e quindi si ridurrebbe ad una costante.
Liouville non rese mai pubblica questa sua osservazione e non è chiaro chi fu il primo che lo fece.
Una possibile risposta, forse non plausibile, è che fu Weierstrass nel 1874. Di certo avrebbe potuto
farlo Riemann, che fece uso del teorema di Liouville per dimostrare che una funzione doppiamente
periodica non può avere un solo zero all’interno del parallelogramma fondamentale; ma sembra che
non abbia utilizzato lo stesso risultato per dimostrare il Teorema Fondamentale dell’algebra. Invece,
durante un corso di lezioni tenuto nel 1861 (v. Gray [1997]) Riemann diede due altre dimostrazioni
del Teorema Fondamentale dell’algebra. La prima era simile a quella di Cauchy e usava il teorema
dell’indicatore logaritmico. Riemann osservò che un polinomio di ordine n ha un polo di ordine n in
z= ∞, e per una funzione siffatta l’espressione (*) vale zero. Così il singolo polo di ordine n deve
essere bilanciato da un totale di n zeri. Diede quindi una seconda dimostrazione valutando (*) per la
f ( z)
funzione n , e interpretando la risposta, 0vi. Questa, come osservò Riemann, è essenzialmente la
z
terza dimostrazione di Gauss del Teorema Fondamentale.
2.1.2 La teoria dei Galois e la soluzione algebrica delle equazioni algebriche
La teoria di Galois risponde ad un’altra domanda: quando un’equazione polinomiale è
risolubile per radicali? Per capire cosa questo significhi e perché è importante, si consideri una
equazione quadratica, della forma ax2+bx+c=0. È risolubile utilizzando le radici quadrate: le
− b ± b 2 − 4ac
. Le soluzioni si esprimono in
2a
funzione dei coefficienti del polinomio utilizzando le quattro operazioni fondamentali
dell’aritmetica (addizione, sottrazione, moltiplicazione e divisione) e le radici, in questo caso una
radice quadrata. La grande conquista dei matematici italiani dell’inizio del 16° secolo fu quella di
scoprire una formula simile per le equazioni cubiche, che utilizzava sia radici cubiche che radici
quadrate, e una formula molto più complicata per le equazioni di quarto grado (o quartica).
Ancora agli inizi del 1800 nessuno era stato in grado di scoprire una formula per la
risoluzione delle equazioni di 5° grado. Nel 1770 Lagrange cominciò a sviluppare una teoria che
potesse spiegare questi insuccessi, cioè perché non sia possibile trovare una formula siffatta, ma non
la portò a compimento. I suoi metodi furono utilizzati dall’italiano Paolo Ruffini (1765-1822) che
giunse ad un passo dalla conclusione nel 1799, ma rimaneva ancora una lacuna nel suo argomento
che i suoi contemporanei si rifiutarono di accettare (le generazioni successivi furono inclini a
considerarla una lacuna reale ma modesta). Ruffini riprovò nuovamente nel 1806 e nel 1813. I suoi
lavori guadagnarono una vaga approvazione da parte della Royal Society di Londra, e il cauto
verdetto di Lagrange secondo cui, per quanto validi, non esaurivano completamente la
dimostrazione. Invece, i metodi di Lagrange ebbero successo grazie al lavoro di Abel del 1820: non
esiste una formula risolutiva per l’equazione generale di quinto grado che utilizzi solo le quattro
operazioni e le estrazioni di radici.
Il suo lavoro prosegue con l’osservazione che un’equazione quintica generale ha una certa
vii
forma , mentre una quintica risolubile per radicali ha una forma speciale. La natura di questa forma
si ottiene analizzando come i coefficienti dei polinomi si possono esprimere in funzione delle radici,
e in particolare quali proprietà di simmetria devono avere quando le radici vengono permutate. Il
soluzioni sono date dalla formula ben nota x =
problema è complicato dal fatto che ci si può immaginare di risolvere molte equazioni più semplici
nel corso del procedimento.viii
Questo sembrerebbe suggerire che un’equazione polinomiale è risolubile per radicali se e
solo se ha grado minore o uguale a quattro. Però, come Abel ben sapeva, esistono equazioniix di
grado elevato risolubili per radicali: per esempio questlaseguente equazione di grado 6:
x7 −1
= x 6 + x 5 + … + 1 = 0 . Le sue soluzioni sono i sei numeri complessi, diversi dall’unità, che
x −1
elevati alla settima potenza sono uguali a uno (le radici settime non banali dell’unità)x. Per
determinarle algebricamente si può dividere l’equazione per x3 ottenendo x3+x2+x+1+x-1+x-2+x3
=0. Ponendo x+x-1=u si ottiene l’equazione u3+u2-2u-1=0, che è un’equazione cubica in u. Noto
un valore per u, i corrispondenti valori di x si determinano risolvendo l’equazione quadratica x2ux+1=0, e quindi l’equazione originale di grado 6 è risolubile per radicali. Questo significa che la
domanda; quali equazioni polinomiali sono risolubili per radicali, richiede una risposta sottile che
non dipende solo dal grado del polinomio.
In termini moderni, la teoria di Galois spiega la natura del problema, e permette di
rispondere ad altre domande interessanti, per esempio; quando bastano le radici quadrate. Questo
vecchio problema era stato riformulato da Gauss nelle Disquisitiones Arithmeticae con riferimento
alla costruzione con riga e compasso di un poligono regolare con n lati. In termini algebrici, lo
xn −1
formulò come problema sulle soluzioni dell’equazione
= 0 xi che dimostrò essere risolubile
x −1
con l’uso delle quattro operazioni e delle radici quadratexii se e solo se n è della forma 2k+1 per
valori di k che sono potenze di 2.
Altri esempi vengono da una branca della matematica più difficile ma più fondamentale
della teoria delle costruzioni con riga e compasso, la teoria delle funzioni ellittiche. In quest’ambito
Jacobi scoprì una classe di equazioni, (chiamate equazioni modulari) che risultarono
inaspettatamente riducibili. Senza entrare nei dettagli, che ci condurrebbero troppo lontano, Jacobi
trovò un’equazione polinomiale di grado 5 che si poteva ridurre con manipolazioni algebriche ad
un’equazione di grado 4, una di grado 7 che si poteva ridurre a una di grado 6 e una di grado 11 che
si poteva ridurre ad una di grado 10. Questo fu l’argomento che attrasse l’attenzione di Galois.
Egli fu in grado di dimostrare che questa riduzione non poteva aver luogo per equazioni di
grado superiore a 11, e diede una risposta completa alla domanda; quando un’equazione
polinomiale è risolubile per radicali? Dati due numeri a e b, trovare la radice n-esima di a/b è la
stessa cosa che risolvere l’equazione binomiale bxn-a=0, e quindi risolvere un’equazione per
radicali è la stessa cosa che risolvere una successione di equazioni in forma binomiale. Quando si
possono trovare equazioni binomiali opportune? Si comincia con i numeri razionali e con i
coefficienti di tutte le equazioni che si hanno. Risolvendo equazioni in forma binomiale si
ottengono nuovi numeri che si possono poi assumere come noti. Le domande sono: si possono
formare opportune equazioni binomiali, e se si quali?
Il ragionamento di Galois procede così (utilizzerò la terminologia moderna). Supponiamo
data un’equazione polinomiale di grado n e assumiamo che le sue n radici siano distinte. Le
permutazioni di queste radici formano un gruppo di ordine n!, e si possono scrivere polinomi di
grado n il cui gruppo di permutazioni delle radicixiii è l’intero gruppo delle permutazioni di n lettere.
Ma un’equazione della forma xn+b=0 ha come soluzioni la radice reale n-esima di –bxiv moltiplicata
per le radici complesse n-esime dell’unità. Se è noto l’effetto della permutazione su una opportuna
di queste allora è noto l’effetto su tutte le altre (che si ottengono come potenze di quella) e in questo
caso le possibili permutazioni formano un sottogruppo ciclico di ordine n. L’intuizione di Galois fu
che le equazioni risolubili per radicali sono quelle il cui gruppo si ottiene in un certo senso come
successione di gruppi ciclici.
Il lavoro di Galois era originale non solo perché fu uno dei primi in cui venne utilizzato il
concetto di gruppo (tra l’altro, anche se l’uso moderno della parola deriva dal suo lavoro, la utilizzò
in un senso leggermente diverso). I suoi argomenti evidenziarono anche l’importanza, mai
considerata prima, di analizzare il modo in cui un gruppo può essere sottogruppo di un altro. Infatti
il punto chiave dell’analisi di Galois consiste nella delucidazione del concetto di sottogruppo
normale (v. oltre) che gioca un ruolo importante nello stabilire come un gruppo possa essere
determinato da una successione di sottogruppi.
Galois introdusse un linguaggio completamente nuovo per analizzare la questione della
risolubilità per radicali. Da quel momento in poi fu possibile discutere il problema in funzione del
gruppo di una data equazione, e della sua decomponibilità o meno in una successione di gruppi
ciclici. Galois suggerì anche come bisognasse cercare una tale decomposizione: bisognava guardare
ai sottogruppi normali.
Il fatto che certe equazioni modulari si riducessero a equazioni di grado più basso si
spiegava perché i gruppi associati coincidevano con i gruppi delle equazioni di grado più basso. Il
fatto che le radici di un’equazione fossero costruibili con riga e compasso si spiegava perché il
gruppo dell’equazione era composto da una successione di gruppi di ordine 2. Il fatto che
l’equazione generale di quinto grado non fosse risolubile per radicali si spiegava perché il suo
gruppo, il gruppo completo delle permutazioni di 5 lettere, non ammette una decomposizione in una
successione di gruppi ciclici.
Per essere più precisi e utilizzare la terminologia moderna, Galois introdusse il concetto di
sottogruppo normale N di un gruppo G. Un sottogruppo N è normale se e solo se per ogni elemento
n∈N e per ogni elemento g∈G, g-1ng∈N . Questo significa che le stesse classi laterali gN di N in G
formano un gruppo, assumendo come moltiplicazione la regola g1Ng2N=g1g2N. Questo gruppo si
dice gruppo quoziente di G modulo N e si indica con G/Nxv. Un gruppo si dice risolubile se e solo se
ammette una catena di sottogruppi Gi, 1 ≤ i ≤k dove G1 è il gruppo costituito dal solo elemento unità
di G, Gk=G, ogni Gi è normale in Gi+1 e ogni gruppo quoziente Gi+1/Gi è un gruppo ciclico. Galois
applicò questo apparato alla teoria delle equazioni prendendo per G il gruppo delle permutazioni
delle radici di un’equazione. Egli assumeva che i coefficienti dell’equazione fossero noti (in effetti,
che fossero numeri razionali) e che l’equazione fosse risolubile per radicali se le soluzioni si
potevano ottenere attraverso la progressiva aggiunta di espressioni che si ottengono a partire da
quantità note con l’applicazione delle quattro operazioni aritmetiche e le estrazioni di radici. La
progressiva decomposizione di G in una catena di sottogruppi normali aventi quozienti ciclici
corrisponde alla progressiva aggiunta di tali radici.
È difficile sottostimare la portata del cambiamento introdotto nella teoria delle equazioni
polinomiali dalla proposta di Galois: le equazioni devono sparire e il loro posto deve essere preso da
un oggetto molto più astratto - un gruppo – che deve quindi essere analizzato con i metodi della
nuova teoria dei gruppi.
Sarebbe stato notevole che questo punto di vista fosse stato proposto da un matematico
maturo. È addirittura stupefacente che si tratti della creazione di un uomo che morì all’età di 20
anni, ferito mortalmente in un duello. La sua è più drammatica delle biografie dei matematici.
Evariste Galois nacque il 25 ottobre 1811 in un sobborgo di Parigi, e fu educato al College Royal de
Louis-le-Grand, dove il suo maestro H. J. Vernier lo introdusse seriamente alla matematica quando
era quindicenne. Lesse “La risoluzione delle equazioni algebriche” di Lagrange, e nella classe
superiore del College Royal de Louis-le-Grand ebbe come insegnante L. P. E. Richard, che
riconobbe immediatamente il talento di Galois e lo incoraggiò a pubblicare il suo primo articolo
(sulla teoria dei numeri) negli Annales de mathematiques (Aprile 1828). Il 25 Maggio e il 1 Giugno
1829 Galois presentò due articoli all’Accademia delle Scienze sulla risolubilità delle equazioni di
primo grado. Questi sono i primi lavori sulla ‘Teoria di Galois’, e Cauchy venne invitato a riferire
su di essi. Per ragioni che rimangono oscure, Galois fallì l’esame di ammissione alla École
Polytechnique (in effetti si trattava del suo secondo tentativo), e quindi andò alla École Normale
Supérieure nel Novembre 1829. In seguito Cauchy trascurò di riferire sul lavoro di Galois, forse
perché pensava che Galois dovesse riscrivere i suoi lavori per partecipare al Grand Prize della
matematica organizzato dall’Accademia (che scadeva il primo marzo 1830); di sicuro Galois
presentò la sua candidatura in Febbraio. Ma in maggio il segretario permanente dell’Accademia e
presidente della commissione giudicatrice, Fourier, morì e il lavoro di Galois andò smarrito. Galois
denunciò l’esistenza di un complotto accademico contro di lui per motivi politici, e si schierò
risolutamente tra le fila della sinistra rivoluzionaria.
In Francia il 1830 fu un anno rivoluzionario, reso ancora più intenso dalle memorie non
ancora sopite della rivoluzione francese, distante una sola generazione. In luglio, quando Carlo X
fuggì dalla Francia dopo tre giorni di rivolte a Parigi, il regime borbonico collassò. Si insediò il re
orleanista, Luigi Filippo e comicamente Cauchy seguì volontariamente Carlo X in esilio in
settembre. Galois si schierò con i rivoluzionari Blanqui e Raspail, e prima della fine dell’anno fu
espulso dalla École Normale. Per tutto il 1831 Galois fu assorbito dalla politica rivoluzionaria. Fu
arrestato e processato il 15 Giugno per aver minacciato la vita del nuovo re, ma venne prosciolto.
Nel giro di un mese venne nuovamente arrestato e questa volta venne condannato a sei mesi di
reclusione nella prigione di Sainte-Pelagie. Nello stesso periodo l’Accademia rifiutò un altro
manoscritto di Galois (Poisson disse del lavoro di Galois che “i suoi argomenti non sono
sufficientemente chiari e non sono sufficientemente sviluppati perché si possa giudicare sulla loro
correttezza”). Egli rispose rifiutando il giudizio dell’Accademiaxvi e fece in modo di far pubblicare i
suoi lavori da un amico, il Saint-Simoniano Auguste Chevalier . Subito dopo aver lasciato la
prigione scrisse alcune lettere agli amici in cui riassumeva i suoi risultati matematici, e la mattina
successiva, il 30 maggio 1832 si recò sul luogo del duello fatale. Colpito all’addome morì in
ospedale il giorno successivo. Il suo funerale fu l’occasione per una dimostrazione repubblicana che
causò una settimana di disordini.
Sono state avanzate molte proposte riguardo le ragioni per il duello, per lo più politiche, e
sono stati versati fiumi di inchiostro per identificare l’antagonista. La risposta più plausibile e che si
trattasse dell’adempimento di una profezia che lo stesso Galois fece in prigione, come ci viene
raccontato da Raspail: “morirò in un duello a causa di una smorfiosa senza valore. Perché? Perché
mi inviterà a vendicare il suo onore, che qualcun altro ha compromesso”.
Dopo la morte e nonostante la pubblicazione da parte di Chevalier di alcuni dei lavori di
Galois, la comunità matematica francese rispose con il silenzio. Solo con la pubblicazione dei suoi
lavori nella rivista di Liouville, nel 1846, il vento cambiò direzione. È plausibile che Liouville
venisse a sapere di quei lavori perché Richard aveva appena scoperto un altro studente brillante, il
giovane Charles Hermite. Quindi, lentamente, altri matematici cominciarono ad interessarsi: Betti in
Italia, Dedekind e Kronecker in Germania. Nel 1860 il matematico francese Camille Jordan mise in
risalto il fatto che Galois ‘pose la teoria delle equazioni su fondamenta definitive’ per mezzo del
concetto di ‘gruppo di sostituzioni’, e della distinzione cruciale tra gruppi semplici e composti. In
quel momento Jordan stava creando una sofisticata teoria dei gruppi di permutazioni, così generale
da poter essere posta a fondamento dell’intera teoria dei gruppi finiti. La transizione dalle equazioni
polinomiali alla teoria dei gruppi venne così completata.
2.1.3 Origini della teoria dei gruppi finiti di permutazioni
Nella sua approfondita analisi, Wüssing [1969] ha rintracciato diverse radici del concetto di
gruppo. Una è la teoria dei gruppi di permutazioni, che ricevette un impulso definitivo dal lavoro di
Galois, specialmente quando cominciò ad interessarsene Cauchy, che scrisse per la prima volta sui
gruppi di permutazioni nel 1815. Il suo lavoro venne poi utilizzato da Abel nell’analisi delle
equazioni di quinto grado, e questa è una delle ragioni per cui la trattazione di Abel è superiore a
quella di Ruffini. Cauchy a quel tempo sapeva che il lavoro di Galois era stato ritrovato ed esistono
indizi che lasciano supporre che questa fosse la ragione che lo indusse a riconsiderare l’argomento.
Cauchy considerava una lista ordinata di oggetti numerati e i suoi possibili rimescolamenti,
che chiamava permutazioni. Quindi una permutazione era un’azione, o una trasformazione.
1 2 3 
 per indicare che l’oggetto numero 1 viene spostato nella posizione numero 2,
Scriveva 
2 3 1
l’oggetto numero 2 nella posizione numero 3 e quello numero 3 nella posizione numero 1. Per
indicare una permutazioni introdusse anche la cosiddetta forma ciclica, che, nell’esempio
precedente, è (1,2,3). La ripetizione di questa permutazione genera la permutazione (1,3,2) e una
ulteriore ripetizione lascia fissi gli oggetti numerati con 1, 2 e 3. In questo caso Cauchy diceva che
la permutazione ha ordine 3. Inoltre, osservò che una permutazione che si può scrivere come un
ciclo di lunghezza n ha ordine n.
Prese in considerazione i prodotti di permutazioni (ottenuti applicando una permutazione al
risultato di un’altra) e osservò che il risultato dipende dall’ordine di applicazione; in generale, se A
e B sono permutazioni, AB≠BA. Cauchy denotava i prodotti della permutazione A con sé stessa con
A2, A3, ecc., e chiamò la permutazione che annulla il rimescolamento prodotto da A, l’inversa di A, e
la indicò con A-1. Notò che le permutazioni A e BAB-1 sono simili l’una all’altra, nel senso che sono
la stessa permutazione se si consente di cambiare la numerazione degli oggetti. Elaborò una teoria
elementare dei gruppi di permutazioni considerando le collezioni di permutazioni generate da tutti i
possibili prodotti di una dato insieme – chiamò una tale collezione sistema delle permutazioni
derivate dal dato insieme (la terminologia attuale è gruppo delle permutazioni generato dal dato
insieme). Anche se le permutazioni permutano N oggetti, il gruppo generato da un insieme di
permutazioni non coincide necessariamente con il gruppo di tutte le permutazioni di N oggetti.
Cauchy dimostrò però che il numero degli elementi del gruppo deve necessariamente dividere il
numero N! degli elementi del gruppo di tutte le permutazioni di N oggetti.
Cauchy fece un’osservazione che si ricollega alle idee di Galois, senza che lui lo
riconoscesse esplicitamente: notò che si può avere un ‘sistema’ (diciamo di Ai) e un altro (di Bj) tale
che, AiBj=BjAi o, più in generale, AiBj=Bj’Ai’ per opportuni i’, j’ . Un sottogruppo normale nella
terminologia di Galois è, nella terminologia di Cauchy, un sistema (di Ai) i cui elementi
appartengono ad un gruppo più grande (di Bj) e che soddisfano a equazioni della forma BjAiBj-1=Ai’.
Osservazioni di questo genere sollevano il problema di quanto Cauchy conoscesse del lavoro di
Galois prima che questo fosse regolarmente pubblicato e suggeriscono che probabilmente sapeva
soltanto che Galois aveva utilizzato le permutazioni per affrontare la questione della risolubilità per
radicali.
La successiva serie importante di risultati è dovuta a Serret e Jordan, che negli anni sessanta
del 19° secolo svilupparono una teoria dei gruppi di permutazioni in cui viene ancora utilizzato il
linguaggio dei gruppi di permutazione ma i cui concetti sono implicitamente più generali. Jordan in
particolare ampliò enormemente le finalità della teoria. Come Serret, prese le idee di Cauchy sui
gruppi di permutazioni e le utilizzò per chiarire il lavoro Galois. Chiamò il numero di elementi in un
gruppo di permutazioni l’ordine del gruppo e dimostrò che se un gruppo H è contenuto in un altro
gruppo G allora l’ordine di H divide l’ordine di G. Questo risultato generalizza alcuni risultati
contenuti nei lavori di Lagrange, ed è noto come teorema di Lagrange. Jordan concludeva il suo
‘Commentaire sur Galois’ [1869] osservando che sarebbe stato utile classificare tutti i gruppi in
funzione del modo in cui potevano essere decomposti in una successione di sottogruppi, ognuno
normale nel successivo. Questo era un passo importante per trasportare le idee di Galois dal
problema originale della risolubilità per radicali a quello più generale di analizzare i gruppi (finiti).
Nel suo libro del 1870, il Traité des Substitutions et des Équations Algébriques, Jordan
sviluppò concetti che gli permisero di scomporre un gruppo G in gruppi più piccoli e in particolare
di analizzare quando è possibile scomporre G in una successione di sottogruppi normali con la
proprietà che se Hi e Hj sono sottogruppi adiacenti e Hi è un sottogruppo normale di Hj allora
l’ordine di Hj è un multiplo primo dell’ordine di Hi. Se G è il gruppo associato ad una equazione
polinomiale, questa è la condizione necessaria e sufficiente perché l’equazione sia risolubile per
radicali, ma qui il problema viene completamente inglobato in quella che Wüssing chiama la teoria
dei gruppi di permutazioni, che si può applicare ad ogni gruppo, indipendentemente dal fatto che i
suoi elementi siano scritti o pensati come permutazioni. Tipici tra i concetti introdotti da Jordan
sono quelli di centralizzatore di un elemento A in un gruppo G (definito come l’insieme degli
elementi B che commutano con A, ovvero tali che AB=BA) e di normalizzatore di un sottogruppo H
(il più grande sottogruppo K di G tale che H è normale in K). Questi concetti hanno un dominio di
applicazione più ampio rispetto a quello della teoria dei gruppi di permutazioni, e si applicano ad
ogni collezione di oggetti che sia chiusa rispetto ad una legge di composizione. Lo stesso vale per il
concetto di applicazione tra gruppi che preserva la composizione (se G e G’ sono i gruppi e φ è
l’applicazione, si dice che essa preserva la composizione se φ(g1g2)=φ(g1)φ(g2)). Jordan discusse,
secondo questo punto di vista, quando due gruppi erano da considerarsi sostanzialmente uguali e
quando uno era immagine di un altro. Illustrò con dovizia di particolari il ruolo che la teoria dei
gruppi poteva avere in altri ambiti della matematica, ovunque si potessero trovare simmetrie.
Sebbene molte copie del libro venissero distrutte durante gli eventi della comune di Parigi,
esso esercitò un grande influenza, e divenne possibile lo studio della teoria dei gruppi come
disciplina indipendente. Uno dei primi che diede importanti contributi fu il matematico norvegese
Ludwig Sylow. Nel 1872 dimostrò una proposizione che invertiva parzialmente il teorema di
Lagrange: se un primo p divide l’ordine di un gruppo G allora esiste un sottogruppo H di G che ha
ordine uguale alla più grande potenza di p che divide l’ordine di G (questo è falso se p non è primo;
per esempio, esiste un gruppo di permutazioni di ordine 12 che non ammette sottogruppi di ordine
6). La dimostrazione originale di Sylow è una mistura interessante di concetti come quello di
normalizzatore e di concetti più antichi che si devono a Cauchy o addirittura a Lagrange. In
particolare si basava su un risultato di Cauchy secondo cui se un primo p divide l’ordine di un
gruppo G allora esiste un sottogruppo H di G di ordine p. Le dimostrazioni successive del teorema
di Sylow, che furono molte, culminarono in quella di Frobenius del 1887, in cui veniva
deliberatamente evitato ogni accenno al linguaggio delle permutazioni; era nata la teoria astratta dei
gruppi..
È interessante notare come le cose si svilupparono diversamente in Germania. Kronecker fu
uno dei primi ad apprezzare il lavoro di Galois, ma non era particolarmente attratto dal linguaggio
della teoria dei gruppi. Nonostante ciò sembra che Kronecker sia stato il primo a dare la definizione
astratta di gruppo commutativo finito (un gruppo per cui AB=BA per ogni coppia di elementi A e
B). Anche Dedekind sviluppò l’idea di gruppo astratto nel contesto della teoria di Galois. Come ha
fatto vedere Purkert [1976], egli tenne cicli di lezioni sulla teoria di Galois a Göttingen tra il 1856 e
il 1858, sebbene non pubblicasse nulla in merito fino al 1894, nel famoso undicesimo supplemento
alle lezioni di Dirichlet sulla teoria dei numeri (quarta edizione). I manoscritti delle lezioni
dimostrano però quanto fosse andato ben oltre le idee sui gruppi che nel frattempo aveva
pubblicato. Spiegò come l’idea di gruppo di permutazioni si generalizzasse a quella di gruppo finito
astratto, e introdusse i concetti di sottogruppo normale e di decomposizioni in classi laterali. (una
classe laterale di un sottogruppo H di un gruppo G è un insieme di elementi della forma {hg: per
tutti gli h in H}. Dedekind dimostrò che le classi laterali di un sottogruppo normale K formavano
esse stesse un gruppo in cui K è l’unità. Kronecker e Dedekind mantennero il legame con le
equazioni polinomiali più strettamente di quanto non l’avesse mantenuto Jordan, e di conseguenza i
lavori tedeschi prestano maggiore attenzione ai campi di numeri che si ottenevano aggiungendo (ai
numeri razionalixvii) le radici di un’equazione.
Nel suo libro Wüssing ha anche mostrato come alcune delle radici della teoria dei gruppi si
possano far risalire alle idee sulla geometria che circolavano intorno alla metà del 19° secolo. In
particolare, nel 1872, in occasione della sua chiamata come professore ordinario all’Università di
Erlangen (alla notevole età di soli 23 anni) Felix Klein distribuì un piccolo opuscolo che conteneva
una rassegna comparativa delle idee fondamentali della geometria. Il programma di Erlangen, come
venne chiamato quando fu meglio conosciuto, intorno agli anni 90 del 19° secolo, ruotava intorno
all’idea che esistono diverse geometrie (proiettiva, affine, euclidea e anche non euclidea) ognuna
delle quali è caratterizzata dall’esistenza di un gruppo di trasformazioni: le proprietà invarianti
rispetto al gruppo sono le proprietà geometriche (le proprietà di quella geometria). In conseguenza
delle relazioni che esistono tra questi gruppi (per esempio, il gruppo euclideo è un sottogruppo del
gruppo affine, che a sua volta è un sottogruppo del gruppo proiettivo) esiste una gerarchia tra le
corrispondenti geometrie (v. Geometria).
Autori successivi andarono oltre. Il legame tra gruppi e geometrie fu, se possibile, ancora
più forte nel lavoro di Poincaré, sia sul versante tecnico che su quello filosofico (v. Geometria) e fu
spinto molto più in profondità dal lavoro del suo amico Sophus Lie, che classificò tutti i gruppi che
agiscono su spazi di dimensioni 1, 2, 3 (v. oltre).
2.1.4 La teoria dei gruppi e la cristallografia
Un’altra fonte per la teoria dei gruppi fu lo studio della cristallografia. Infatti, come dice
Scholz [1989], i cristallografi definirono un cristallo più o meno come un oggetto simmetrico in un
punto di un reticolo cristallino prima che l’idea venisse confermata da osservazioni ottiche, e
sintetizzarono le osservazioni disponibili formulandole in termini di reticoli simmetrici, ad ogni
vertice dei quali ci poteva essere un ‘solido’ con ulteriori simmetrie, ma senza attribuire significato
fisico a queste costruzioni. Mentre i cristallografi dibattevano le ipotesi che avrebbero potuto
spiegare le strutture matematiche che emergevano, contribuirono anche a raffinare la matematica
che utilizzavano e si impegnarono e stabilire teoremi di classificazione per quelle strutture. Così
facendo crearono una branca della geometria sufficientemente profonda e flessibile che risultò poi
facile riformulare le loro idee nel linguaggio della teoria dei gruppi. Questo, come ha osservato
Scholtz, è un aspetto caratteristico delle applicazioni di successo della matematica al mondo
realexviii.
Per facilitare la comprensione, consideriamo il caso bidimensionale. Un reticolo è un
insieme di punti del piano della forma {m1e1+m2e2} dove e1 e e2 sono vettori indipendenti e m1 e m2
sono interi. Può essere d’aiuto immaginare il parallelogramma di vertici 0, e1, e2, e1+e2 come una
mattonella, copie della quale ricoprono interamente il piano. Ciò che è importante è l’insieme delle
simmetrie del reticolo. Può non esserci alcuna altra simmetria oltre a quelle che traslano di
m1e1+m2e2 la mattonella, en bloc, che si chiamano traslazioni del reticolo. Ma se per esempio le
mattonelle sono quadrate ci sono molte rotazioni e molte riflessioni del reticolo che lo trasformano
in sé, e se la mezza mattonella 0, e1, e2, ha la forma di un triangolo equilatero, esistono ulteriori
simmetrie. Di fatto, esistono 17 reticoli piani distinti da questo punto di vista, che corrispondono a
17 cristalli bidimensionali distinti, ovvero, come spesso si dice, a 17 tipi possibili di carte da parati.
L’ingrediente principale della dimostrazione consiste nell’osservazione che il reticolo deve essere
costituito da mattonelle e sottomattonelle che sono triangoli o rettangoli; i pentagoni non sono
possibili (questa condizione viene detta talvolta restrizione cristallografica).
Il problema di quando questo teorema di classificazione cominciò ad essere noto è una
questione che suscita un certo interesse; sembra che, a patto di contare con giudizio i colori nei
disegni, tutti i 17 tipi possibili di carte da parati si possono trovare nell’Alhambra vicino a Granada
in Spagna. Non è chiaro però se i disegnatori e i costruttori islamici fossero a conoscenza di una
dimostrazione del fatto che quelli esaurivano tutte le possibilità, o anche se si ponessero il problema
in qualche forma (v. Montesinos, [1987]).
Il cristallografo che più influenzò i matematici fu Augusts Bravais (1811-1863) che studiò
all École Polytechnique e poi condusse una vita movimentata prima di farvi ritorno come professore
di fisica, nel 1845. Nel 1849 scrisse un libro sulla cristallografia, cui fece seguito un lungo articolo
nella rivista di Liouville nel 1850. Bravais operò una chiara distinzione tra simmetrie del reticolo e
simmetrie che si manifestano quando tutti i vertici vengono identificati ad uno solo, scelto
arbitrariamente. Nel linguaggio della teoria dei gruppi, questa seconda classe di simmetrie
corrispondono al quoziente del gruppo completo delle simmetrie del reticolo modulo il sottogruppo
delle traslazioni. Bravais scoprì che queste simmetrie possono avere solo certi ordini: 2, 3, 4, o 6,
ma non, per esempio, 5 – la vera restrizione cristallografica. Utilizzò questa osservazione per
classificare i reticoli in 7 tipi (o 14, secondo come li contava)
Nel suo libro [1856], una riedizione di parecchi articoli già pubblicati sulle riviste, Bravais
costruì una teoria della struttura dei cristalli basata sulla classificazione dei reticoli. In termini
moderni trovò 71 dei 73 tipi di combinazioni che possono presentarsi, ma storicamente il libro è
importante per aver guadagnato il rispetto non solo dei cristallografi ma anche, in pochi anni, quello
dei matematici, o meglio, quello di Camille Jordan, e ciò bastava.
Anche Jordan studiò alla École Polytechnique, ma fu nella seconda parte della sua carriera
scolastica, alla École des Mines, che lesse per la prima volta la cristallografia di Bravais. Nel 1869
si pose l’obiettivo di scoprire tutti i gruppi che possono agire sullo spazio tridimensionale, sia in
modo continuo che discontinuo. Riferì in modo esplicito il suo lavoro a quello del suo predecessore,
che ammirava, ma i cui risultati dovevano essere ancora sviluppati in piena generalità. Alla fine
trovò un totale complessivo di 174 tipi di gruppi, dei quali 50 erano quelli che chiamò continui, 5
erano finiti e 59 propriamente discontinui, ma spostavano una regione finita en bloc (una mattonella
tridimensionale). I rimanenti erano gruppi per diverse ragioni irrilevanti. Per esempio, 16 tra questi
trasformavano un piano in sé e quindi spostavano delle colonne infinite. Era più naturale pensarli
come gruppi di simmetria del piano, ed infatti erano 16 dei 17 gruppi delle carte da parati. Come ci
si poteva aspettare in tali lavori pionieristici, c’erano altre omissioni, che comprendevano 6 dei 65
gruppi dei moti propri della cristallografia, e alcune ripetizioni. Nondimeno fu un passo
fondamentale verso il raggiungimento dell’obiettivo.
Segnò anche un miglioramento rispetto al lavoro di Bravais, rendendo preciso ed esplicito
ciò che era stato formulato in termini geometrici meno sistematici, e fornendo ragioni profonde,
basate sulla teoria dei gruppi, per ignorare molti dei reticoli di Bravais. Ma i risultati non furono
presentati in maniera conveniente, e bisognò attendere più di 20 anni prima che i cristallografi li
facessero propri. Questo accadde per varie ragioni. Alcuni matematici vennero attratti
dall’argomento, come Sohnke e Minnigerode. Il fisico Pierre Curie rielaborò i risultati di Bravais
perché sapeva che erano incompleti. Il loro lavoro attrasse il lavoro di altri, tra cui il matematico
Arthur Schonflies (studente di Klein) e il mineralogista e cristallografo Fedorov. Lavorando
indipendentemente agli inizi degli anni 80 del 19° secolo, Schonflies scoprì 227 gruppi spaziali
cristallografici prima del 1889, e Fedorov ne trovò 230. Schonflies accettò questo numero e scrisse
un resoconto matematicamente soddisfacente della struttura dei cristalli basato su questo risultato.
Un’indicazione dell’importanza che i matematici attribuirono a questo lavoro è la parte che ebbe
nella formulazione del 18° problema di Hilbert, in cui si domanda se è vero che esiste solo un
numero finito di gruppi cristallografici in uno spazio euclideo di dimensione qualsiasi. La questione
venne risolta affermativamente da un altro studente di Klein, Ludwig Bieberbach, poco prima
dell’inizio della prima guerra mondiale.
2.1.5 Capitoli ulteriori della teoria dei gruppi, inclusa la teoria delle
rappresentazioni
La teoria dei gruppi finiti attraversò due fasi importanti: la delucidazione del concetto di
gruppo astratto – Dedekind, Cayley, ( e nel caso abeliano, Kronecker), e la nascita della teoria delle
rappresentazioni.
Teoria delle rappresentazioni
Quando si consolidò il passaggio di interesse dai gruppi di permutazioni e di trasformazioni alla
nozione di gruppo astratto, i principali artefici della teoria di gruppi iniziarono ad apprezzare i
meriti della teoria delle rappresentazioni. Ciò di cui avevano bisogno era la possibilità di
rappresentare un gruppo come gruppo di trasformazioni lineari, così da poter identificare ogni
elemento del gruppo con una matrice; l’enfasi si spostava inoltre sull’insieme di tutte le possibili
rappresentazioni piuttosto che su quelle che fanno la loro comparsa accidentale nel corso dello
studio di un problema concreto. I problemi principali della teoria dei gruppi stavano per sollecitare
lo sviluppo delle tecniche della teoria delle rappresentazioni, mentre continuavano a resistere ai
metodi astratti.
I pionieri della teoria delle rappresentazioni dei gruppi furono Frobenius e I. Schur in
Germania e Burnside in Inghilterra. Una fonte importante per la nostra conoscenza del lavoro
iniziale di Frobenius fu la sua corrispondenza con Dedeckind. Questa fu riscoperta solo nel 1972;
venne analizzata da Hawkins [1974] ed è pronta per la pubblicazione, a cura di Haubrich (in corso
di pubblicazione). Le lettere furono scritte in tre periodi: 1882-3, 1895-8 e 1901. Quelle scritte nel
maggio 1986 risultano essere particolarmente importanti, perché mostrano lo sviluppo del pensiero
di Frobenius durante l’elaborazione della teoria dei caratteri (che definiremo in seguito) e mostra,
tra l’altro, come l’ordine della pubblicazione dei lavori risulti rovesciato rispetto all’ordine in cui
furono scoperti i risultati, perché Frobenius evitò di far circolare le informazioni fino a quando fu
in grado di dimostrare il risultato fondamentale.
L’interesse di Frobenius nella teoria dei gruppi si sviluppò a partire da diversi filoni distinti
del pensiero matematico. Da studente, a Berlino, aveva ricevuto una formazione nell’ambito della
teoria di Weierstrass delle forme bilineari, ed aveva continuato a scrivere su questo argomento e su
quello, ancora più complicato, delle funzioni theta (una classe di funzioni di più variabili legate tra
loro da quello che Frobenius chiama, in modo appropriato, un labirinto di formule (citato in
Hawkins [1974, 220])) In entrambi i casi, la considerazione delle simmetrie e l’utilizzo delle idee
proprie della teoria dei gruppi doveva suggerire un modo per superare le difficoltà. L’uso che fece
Frobenius delle matrici e della teoria dei determinanti, che è caratteristico del tempo, non verrà
analizzato in questa sede, anche se si vuole ricordare al lettore che la possibilità di ridurre al minimo
l’uso di queste tecniche si deve al lavoro di autori successivi .
In effetti l’idea di carattere di un gruppo precede Frobenius di almeno una generazione e
spiega il perché della sua corrispondenza con Dedekind. L’origine si trova nel lavoro di Gauss sulla
teoria dei numeri (v.) Il lavoro di Gauss ebbe un’importanza straordinaria – trasformò
definitivamente la teoria dei numeri in un branca centrale della matematica – ma era anche molto
difficile da capire e fu oggetto di approfonditi commentari da parte di alcuni tra i migliori
matematici della generazione successiva. Dirichlet tenne alcuni cicli di lezioni su quelle teorie, e
l’edizione in forma di libro delle sue lezioni fu curata da Dedekind. Il libro ebbe grande successo e
molte edizioni, non da ultimo perché Dedekind utilizzò queste edizioni per pubblicare come
appendici molti dei suoi lavori più profondi sull’argomento.
Tra queste aggiunte c’era l’idea di carattere di un gruppo nel caso di gruppi abeliani. Un
carattere di un gruppo G è una funzione definita su G che preserva il prodotto e assume valori nel
gruppo moltiplicativo dei numeri complessi non nulli. Dirichlet aveva utilizzato tali funzioni, pur
senza pensarle come caratteri di un grupp , di cui a quel tempo non esisteva ancora la definizione
generale, per dimostrare l’esistenza di infiniti numeri primi in ogni progressione geometrica.
Kronecker aveva distillato il lavoro di Gauss mostrando come in esso fosse contenuta la
dimostrazione, tra l’altro, del fatto che i gruppi abeliani sono costituiti da gruppi ciclici, in una
maniera particolarmente semplice. Frobenius, in un lavoro congiunto con Stickelberger nel 1879
applicò questo punto di vista al gruppo dei resti modulo un numero compostoxix. Nella terza
edizione delle lezioni di Dirichlet sulla teoria dei numeri, Dedekind spiegò nei dettagli per la prima
volta il concetto astratto. Definì un carattere di un gruppo abeliano finito G come una funzione α da
G al gruppo delle radici complesse dell’unità con la proprietà che φ(g1g2)=φ(g1)φ(g2) (che
precedentemente abbiamo chiamato proprietà di preservare il prodotto).
Questo procedere verso l’astrazione fu sostenuto da Heinrich Weber, che aveva seguito le
lezioni di algebra superiore di Dedekind quando era studente a Göttingen, e aveva quindi
collaborato con lui nel curare la prima edizione dei Riemann Werke. Nel 1882 Weber adattò la
dimostrazione di Dirichlet dell’esistenza di infiniti numeri primi in una progressione aritmetica per
dimostrare che una forma quadratica assume infiniti valori primi. In questo lavoro pose grande
enfasi sulla teoria dei caratteri dei gruppi abeliani (analogamente a quanto fece nel secondo volume
del Leherbuch der Algebra che incontrò un grande successo, [1894, 1898]).
Il contributo importante di Frobenius fu la creazione della teoria dei caratteri dei gruppi non
abeliani, un’estensione che precedentemente non era stata considerata. La definizione di Weber è
sufficiente a definire i caratteri in questo contesto più generale, ma l’esistenza di caratteri non banali
è tutt’altro che ovvia e, prima di Frobenius, non esistevano motivazioni per questa estensione.
Secondo la visione di Frobenius la maggior parte della matematica, e in particolare buona parte
della teoria dei numeri, era in essenza teoria dei gruppi e molti, se non la maggior parte, dei gruppi
sono non abeliani. Nel 1880 stava lavorando tra l’altro su problemi di teoria algebrica dei numeri,
argomento di cui Dirichlet era un esperto riconosciuto, e quindi fu naturale mettersi in contatto con
lui. Le lettere che scrisse rendono chiara la difficoltà del suo percorso e il tentativo di trovare un
modo per ridurne le difficoltà attraverso lo studio delle funzioni φ definite su un gruppo (o su
sistemi più complicati) con la proprietà che φ(g1g2)=φ(g1)φ(g2). In particolare tali funzioni hanno la
proprietà che φ(g1hg1-1)=φ(h), ovvero assumono lo stesso valore su elementi che appartengono alla
stessa classe di coniugio (in un gruppo, gli elementi h e g1hg1-1 si dicono coniugati).
Il riconoscimento dell’importanza delle classi di coniugio in un gruppo finito spinse
Frobenius a riflettere sulla relazione tra il numero k delle classi di coniugio e un altro numero in cui
era interessato, il numero l dei fattori distinti del determinante del gruppo, che Frobenius definiva in
questo modo. Siano g1=e, g2,…,gn gli elementi di un gruppo G e si supponga di utilizzarli come
indici per n variabili x g1 ,… , x g n xx. Si formi il polinomio in queste variabili costruito prendendo il
determinante della matrice che ha sulla i-esima riga e j-esima colonna l’elemento x g g −1 . Ci
i
j
porterebbe troppo lontano spiegare perché Frobenius era interessato ad un oggetto così complicato,
anche perché le generazioni successive si diedero molto da fare per poterne fare a meno. È chiaro
che Frobenius seguiva in questo la pratica a lui contemporanea di studiare un gruppo (o una
qualsiasi situazione che presentasse una simmetria) costruendo dei polinomi opportuni. Frobenius
congetturò rapidamente che i due numeri k e l fossero uguali, e nel giro di pochi giorni trovò una
dimostrazione che inviò a Dedekind. Un passo fondamentale della dimostrazione fu quello di
sostituire le variabili originarie con variabili di un nuovo sottoinsieme più piccolo, in
corrispondenza biunivoca con le classi di coniugio del gruppo. Nelle nuove variabili, ogni fattore
irriducibile del determinante del gruppo appare come un singolo fattore lineare, ripetuto un certo
numero di volte (analogamente a come un fattore primo appare con una data potenza nella
fattorizzazione di un numero intero). Ciò lo condusse ad intuire che il problema di analizzare il
determinante di un gruppo conduceva in modo naturale a studiare le funzioni definite sulle classi di
coniugio. Congetturò allora che altri due numeri e ed f (v. oltre), fossero uguali. “Sarebbe
meraviglioso se e=f ”, scrisse a Dedekind il 26 Aprile 1896, ed era convinto che questo fosse vero,
aggiungendo “Le convinzioni soggettive sono in effetti meglio delle dimostrazioni, ma al mondo
crudele non bastano” (citato in Hawkins [1974,235]). Per tutta l’estate Frobenius non fu capace di
dimostrare il risultato, finché improvvisamente i suoi sforzi furono coronati da successo il 6
settembre 1896, utilizzando metodi completamente diversi da quelli che aveva utilizzato fino a quel
momento.
Il fatto di non riuscire per cinque mesi a trovare una dimostrazione spiega perché gli articoli
che pubblicò in quel periodo hanno il contenuto che conosciamo. I numeri e ed f furono tenuti
nascosti, perché Frobenius sospettava di aver trovato un risultato centrale della nuova teoria, ma
non era in grado di dimostrarlo. Non voleva che il risultato fondamentale di una teoria di sua
creazione venisse dimostrato da qualcun altro.
Una volta dimostrato questo risultato però, per Frobenius fu possibile pubblicare la teoria
dei caratteri di un gruppo così come era arrivato a concepirla (gli articoli apparvero nel 1897). In un
linguaggio moderno, la teoria chiarisce come la rappresentazione naturale del gruppo su sé stesso si
decompone in sottorappresentazioni irriducibili. Per capire questo punto, si utilizzino gli elementi
{g=e, g2, …,gn} di G come indici per n elementi e g1 , …, e g n xxi che costituiscono una base di uno
spazio vettoriale n-dimensionale Vn. L’applicazione del gruppo in sé moltiplica a destra ogni
elemento del gruppo, diciamo gi per un elemento fissato, diciamo gj-1, e quindi trasforma gi in gigj-1.
Tale rappresentazione induce un’applicazione lineare di Vn in sé che manda e g i in e g g −1 xxii, e ad essa
i
j
quindi è associata una matrice. In questo modo ogni elemento del gruppo viene rappresentato in
modo naturale con una matrice. Questa rappresentazione si chiama rappresentazione regolare
(destra). Naturalmente la matrice sarà diversa se gli elementi della base vengono presentati in
ordine diverso, ma intorno al 1890 si erano già sviluppate teorie che permettevano di cogliere le
caratteristiche principali delle applicazioni lineari al di là di queste differenze superficiali. Queste
erano la teoria dei divisori elementari di Weierstrass, molto familiare a Frobenius, e la teoria di
Jordan delle forme canoniche. Era ben noto che cambiando la base di uno spazio vettoriale V la
matrice A di una trasformazione lineare di V in V si trasforma nella matrice B-1AB, e quindi,
secondo questo approccio, le caratteristiche fondamentali di una matrice A sono quelle che ha in
comune con le matrici della forma B-1AB, in breve con le matrici simili. Tra queste ci sono il
determinante di A e la traccia (un nome appropriato), che è definita come la somma degli elementi
diagonali. In linguaggio moderno Frobenius aveva scoperto la teoria dei caratteri di un gruppo,
ovvero le tracce delle rappresentazioni.
La rappresentazione regolare di un gruppo di ordine n permette di pensare gli elementi del
gruppo come trasformazioni lineari che agiscono di uno spazio vettoriale di dimensione n, ma può
succedere che il gruppo agisca come gruppo di trasformazioni lineari di uno spazio di dimensione
più piccola e che la rappresentazione regolare possa venire decomposta. Questo è il punto dove fa la
sua comparsa la congettura di Frobenius secondo cui e=f. Ci si può domandare qual è la dimensione
di uno spazio vettoriale su cui è definita una rappresentazione di G come gruppo di trasformazioni
lineari; questa dimensione si chiama grado della rappresentazione e si indica con il numero e. Ci si
può anche domandare quale sia il numero di volte in cui questa rappresentazione si presenta nella
rappresentazione regolare; questo è il numero f. Per spiegare questo concetto si osservi che se un
gruppo ammette una rappresentazione come gruppo di trasformazioni lineari di uno spazio
vettoriale V e un’altra rappresentazione in uno spazio vettoriale W esiste ovviamente una terza
rappresentazione, chiamata somma, nella quale il gruppo agisce contemporaneamente su V e W
senza mescolare i due spazi. Viceversa, una rappresentazione si può presentare come somma, e i
sottospazi invarianti che contiene possono avere la stessa dimensione, oppure no. La teoria relativa
a questa decomposizione è governata dal lemma di Schur, un contributo del 1904.
Il teorema secondo cui e=f significa che le sottorappresentazioni irriducibili della
rappresentazione regolare appaiono in numero uguale al loro grado. Siano ei i gradi delle
rappresentazioni irriducibili, allora n è somma di quadrati, n = ∑ ei2 . Questo fatto riassume una
i
quantità straordinaria di informazioni.
Si consideri per esempio il gruppo non abeliano S3 di ordine 6 che consta di tutte le
permutazioni di tre oggetti. Possiamo scrivere 6 come somma di quadrati in due modi: 6=12+12+22
che è interessante e 6=1+1+1+1+1+1, che è priva di interesse. La prima decomposizione ci dice
che esistono due rappresentazioni uno-dimensionali e una bi-dimensionale. Le rappresentazioni
uno-dimensionali sono quella banale (gv=v per ogni g in G) e la rappresentazione gv=Segno(g)v, in
cui G agisce sullo spazio vettoriale uno-dimensionale generato dal vettore v e il segno di una
permutazione g vale +1 se l’elemento g agisce come una rotazione di V e –1 se agisce come una
riflessione. La rappresentazione bidimensionale corrisponde all’azione usuale di S3 su un triangolo
del piano. La rappresentazione associata alla decomposizione 6=1+1+1+1+1+1 di fatto non si
presenta. Questo perché il numero di rappresentazioni irriducibili è uguale al numero di classi di
coniugio del gruppo, che in questo caso è 3 (l’identità, le tre permutazioni di ordine 2 e le due
permutazioni di ordine 3). Così, non solo il grado della rappresentazione regolare deve uguagliare
una somma di quadrati, ma il numero dei quadrati deve uguagliare il numero delle classi di coniugio
del gruppo.
La tessera mancante del rompicapo fu il risultato, pubblicato da Frobenius e Schur nel 1904,
che afferma che due rappresentazioni sono distinte se e solo se hanno caratteri distinti (in breve, i
caratteri caratterizzano).
Frobenius non fu il solo a scoprire questa teoria. Un altro fu il matematico inglese William
Burnside, uno di quei matematici dotati che avevano bisogno di un argomento adatto per far fiorire
il loro talento. Nessuno dubitava della sua abilità, e si allontanò da Cambridge (dove era
appassionato vogatore) per accettare un prestigioso incarico di insegnamento presso il Royal Navy
College di Dulwich, sul Tamigi, a valle di Londra. Fu eletto membro della Royal Society nel 1893,
ma la sua ricerca fu senz’altro di secondo piano finché, per ragioni che restano oscure, scoprì la
teoria dei gruppi. Da quel momento, nei primi anni novanta del 19° secolo, fino alla prima guerra
mondiale la profondità e il numero delle sue pubblicazioni crebbero prepotentemente.
Gli interessi di Burnside erano focalizzati sulla teoria dei gruppi in modo più preciso di
quanto non lo fossero quelli di Frobenius. Aveva familiarità con i lavori tedeschi e con quelli di Lie,
e il problema che si era posto consisteva nel determinare le classi di coniugio dei gruppi. Le idee di
Lie lo allontanarono dai gruppi finiti, ma alcune informazioni su quello che Frobenius stava facendo
lo fecero tornare sui suoi passi, e scoprì la teoria della decomposizione delle rappresentazioni che
abbiamo appena descritto. Egli ribadì sempre l’indipendenza dei suoi risultati da quelli di Frobenius
per quanto riguarda la teoria dei caratteri, e ciò è giustificato dalle differenze di metodo e di
approccio che esistono tra i due. Tuttavia, Frobenius arrivò prima, e Burnside aveva letto la maggior
parte dei suoi lavori importanti prima di pubblicare i propri.
D’altro canto Burnside sfruttò la potenza della teoria delle rappresentazioni più di quanto
fece Frobenius. Nel 1897 pubblicò la prima edizione del suo libro Theory of Groups, in cui non
faceva alcuna menzione della teoria delle rappresentazioni, ma dopo il 1898 quando fu in grado di
apprezzare quello che Frobenius aveva fatto, la utilizzò per dimostrare risultati del tipo: ogni gruppo
di ordine paqb è risolubile. Il fatto che questo risultato non si può dimostrare con metodi più
elementari è una testimonianza eloquente della potenza dei nuovi metodi.
Sophus Lie
Una delle branche principali della matematica nel 20° secolo, ricca di intime connessioni con la
fisica, è senza dubbio la teoria dei gruppi di Lie e delle algebre di Lie, chiamate così in ricordo del
matematico del 19° secolo Sophus Lie (1842-1899). Lie fu un buon amico di Felix Klein, il cui
programma di Erlangen del 1872 è uno dei lavori responsabili dell’introduzione della teoria dei
gruppi nella geometria. Siccome Lie stesso continuò a scrivere a lungo su quelli che chiamava
gruppi di trasformazioni, sembrerebbe ovvio che lui e il suo lavoro debbano figurare in ogni
resoconto della teoria dei gruppi nel 19° secolo. Che questo non accada non è solo colpa degli
storici (con la notevole eccezione di T. Hawkins, che ha lavorato per più di 20 anni esclusivamente
alla stesura di un tale resoconto). È anche vero che le idee di Lie non trovano posto facilmente in
una rassegna di questo periodo storico. Infatti, buona parte del lavoro di eminenti matematici del
20° secolo, quali Élie Cartan e Hermann Weyl si può interpretare come un tentativo differito di
trasformare il lavoro di Lie in quella sorta di teoria profonda e ben integrata con il resto della
matematica moderna che oggi porta il suo nome.
Lie cominciò con la teoria delle equazioni differenziali, che rimase sempre un punto di
riferimento nel suo lavoro. La sua prima ambizione, chiamata da Hawkins [1991] la sua idée fixe,
era quella di creare una teoria di Galois delle equazioni differenziali. Ciò che intendeva e le ragioni
per cui questo problema era il motore dello sviluppo della sua teoria, dimostra quanto
profondamente egli fosse un uomo del suo tempo. Il suo interesse iniziale riguardava sistemi di
equazioni differenziali parziali lineari, analoghi a quelli studiati da Jacobi nella dinamica. Non era
facile che questi ammettessero un insieme completo di soluzioni, e la complessità del formalismo
era capace di intimidire chiunque. Lie scoprì che era possibile sfruttare certe simmetrie del
problema, e ciò lo condusse a considerare gli operatori differenziali del primo ordine della forma
∂
in n variabili x1 , … x n . Seguendo una precedente idea di Poisson definì un
∂x j
j
prodotto tra operatori ponendo [ Pi,Pj ]=PiPj-PjPi. Questo è ancora un operatore del primo ordine,
∂2
perché i termini della forma
si cancellano. Lie si pose il problema di quando esiste una base
∂xi ∂x j
finita di operatori, diciamo {P1, …,Pn}, tale che ogni operatore in una certa famiglia , ed ogni
prodotto di coppie di operatori, si possa scrivere come somma degli elementi della base nella
famiglia. Se [ Pi,Pi’ ]=P allora la condizione che Lie cercava di imporre al prodotto si può scrivere
come condizioni sulle aij sulle ai’j e sulle loro derivate. Non ci interessa seguire Lie in questi
intricati argomenti, ma solo osservare come insisteva sulla legge di composizione, richiedendo
soltanto che fosse chiusa. Questo era in accordo con l’atteggiamento di Klein verso i gruppi di
trasformazioni geometriche, ma dimostra anche quanto Lie fosse lontano da qualcosa che
assomigliasse alla definizione moderna di gruppo.
Un altro argomento che agitava Lie era le teoria molto sviluppata, delle equazioni
differenziali ordinarie. Esisteva un certo numero di tecniche con cui di solito si riduceva
l’equazione ad una semplice integrazione. Lie intendeva dare a questa collezione di trucchi
apparentemente ad hoc una spiegazione più sistematica, sempre nei termini di operatori di
simmetria (v. Lie [1891] e Ince [1921]). Dopo aver preso fiducia affrontando questi argomenti
focalizzò il suo interesse sul problema di classificare i ‘gruppi’ on un numero piccolo di variabili.
Il punto chiave del lavoro di Lie è il passaggio dalle trasformazioni infinitesime alle
cosiddette trasformazioni finite che esse generano. Consideriamo per esempio le rotazioni del piano
attorno all’origine. Ogni rotazione può essere rappresentata da una matrice; la matrice
 cos ϑ − sin ϑ 

 descrive una rotazione antioraria di un angolo θ. Poiché questa muove ogni punto
sin
ϑ
cos
ϑ


eccetto l’origine, di uno spostamento finito, è un esempio di quella che abbiamo precedentemente
chiamato trasformazione finita. Al variare di α, ogni punto (x0,y0) viene trasformato nel punto
 cos ϑ − sin ϑ  x 0 

  . Ha senso quindi interrogarsi sulla direzione istantanea del moto del punto
 sin ϑ cos ϑ  y 0 
Pi = ∑ aij ( x1 , … x n )
(x0,y0), e considerare la corrispondente trasformazione infinitesima. In questo caso poiché le
tangenti al cerchio sono perpendicolari al raggio, la direzione istantanea in cui si muove il punto
(x0,y0) deve essere (-y0,x0). Si può dimostrare questo fatto utilizzando i metodi standard per
determinare le tangenti alle curve definite da un parametro: differenziare rispetto al parametro e
quindi calcolare per l’opportuno valore. In questo caso il valore è zero, perché il punto
 cos ϑ − sin ϑ  x 0 

  è in (x0,y0) precisamente quando θ=0xxiii. Allora la tangente si ottiene
 sin ϑ cos ϑ  y 0 
 − sin ϑ − cos ϑ  x 0 
 0 − 1 x0   − y 0 
 , come richiesto.
  per θ=0, ovvero 
  = 
valutando 
 cos ϑ − sin ϑ  y 0 
 1 0  y 0   x0 
Lie generalizzò questa situazione familiare in due direzioni. Considerò un numero qualsiasi,
diciamo n, di variabili, e trasformazioni che dipendono da k parametri. Scriviamo le variabili
x1,…,xn come x e i parametri a1, …,an come a, e le trasformazioni finite nella forma x’=f(x,a).
Considerò quindi le trasformazioni infinitesime associate a queste trasformazioni finite, che si
ottengono derivando le funzioni f rispetto ai parametri. Tipicamente, Lie scriveva le trasformazioni
nella forma di serie di potenze in ai+δai e considerava i coefficienti delle δai (per la teoria delle
serie di Taylor queste corrispondono alle derivate prime). Questo lo portava a considerare equazioni
∂f
della forma xi ' = xi + ∑ i da j o, ponendo xi’-xi=dxi,
j ∂a j
dxi = ∑
j
Se scriviamo
∂f i
da j
∂a j
∂f i
= u (ji ) ( x1 , … , x n ) riconosciamo la presenza, in questa formula, dell’operatore
∂a j
∂
. Questo operatore, applicato ad una funzione delle coordinate
∂xi
i
x1,…,xn,, diciamo F(x1,…,xn), produce l’incremento infinitesimo di F corrispondente all’incremento
infinitesimo di x
F ( x1 + dx1 , … , x n + dx n ) = F ( x1 , … x n ) + X k F ( x1 , … x n )dt k
Lie allora si domandò quando queste trasformazioni infinitesime formano quello che chiamava un
gruppo. Come prima, questo accade se e solo se [X i , X i ' ] = ∑ cii ' j X j .
differenziale X k = ∑ u k( i )
j
Nel 1873 Lie cominciò a investigare il significato di quest’ultima equazione per valori
piccoli di n. Per n=1 trovò facilmente che c’erano soluzioni uniche per k=2 e k=3 e nessuna
soluzione per k ≥4 (k rappresenta il numero dei parametri). Il problema per n=2 era molto più
difficile, e Lie pubblicò la soluzione nel 1876 in una rivista norvegese di cui era uno degli editori.
Ma la rivista aveva una diffusione limitata, e quindi la pubblicò nuovamente nei Mathematische
Annalen nel 1880. In quell’anno aveva risolto il problema anche per n=3 ma la soluzione era così
complicata che la tenne nel cassetto. Anche la soluzione per n=2 si basava sulla sua precedente
analisi delle equazioni differenziali e delle famiglie di curve lasciate fisse da certi gruppi.
Di fronte ai problemi intrattabili i matematici cercano naturalmente delle semplificazioni. In
analogia con la teoria di Galois, i concetti naturali che bisognava introdurre erano quelli di
invariante, di sottogruppo normale e di gruppo semplice. Siccome i 'gruppi' che Lie studiava
contengono elementi che si possono sommare oltre che moltiplicare (e quindi costituiscono quella
che oggi chiamiamo un'algebra) la versione appropriata di 'normale' è ideale. Un insieme di
elementi forma un ideale J se è chiuso rispetto all'addizione e se [A,X] è in J per tutti gli A
nell'algebra e tutti gli X nell'ideale. Si verifica che l’insieme dei prodotti [Xi,Xi'] generano un ideale.
Lie trovò anche degli esempi espliciti, per esempio il 'gruppo' delle trasformazioni dello
spazio proiettivo n-dmensionale, psl(n+1,C). Inoltre trovò numerosi esempi tra i gruppi di matrici e
tra i 'gruppi' che preservano alcune semplici forme differenziali. In particolare trovò esempi per
ognuna delle famiglie infinite di cui più tardi Cartan dimostrò l’esistenza, nel lavoro sulla
classificazione delle 'algebre di Lie'. Era particolarmente interessato ai 'gruppi' che potevano agire
su varietà di dimensione bassa, che per lui era un spazio (euclideo, affine o proiettivo) in un numero
qualsiasi di variabili. Li classificò per n=1, 2 e 3 variabili , e quindi ne dedusse i corrispondenti
‘gruppi’ di trasformazioni. In effetti il passaggio dagli operatori alle matrici fu cruciale, perché aprì
la strada allo studio delle algebre di Lie come esempi di algebre di matrici.
Intorno ai primi anni 80 del 19° secolo Lie divenne pessimista sulle prospettive della sua
ricerca. Il lavoro era oneroso, e anche quando lo aveva pubblicato in una rivista tedesca di
eccellenza, i Mathematische Annalen, non aveva suscitato molto interesse. Dopo un periodo di
completamento della sua formazione in Germania e in Francia, aveva fatto ritorno intorno al 1870
alla nativa Norvegia, dove aveva ottenuto un posto come docente a Christiania (oggi Oslo).
Manteneva contatti epistolari con Mayer (di cui fu collega per un breve periodo, quando ricoprì
l’incarico che fu di Klein a Lipsia), Klein e quasi nessun altro. Non si era mai trovato bene in
Germania, e non parlava fluentemente il tedesco, ma in Norvegia si sentiva completamente isolato.
Cominciò a prendere in considerazione l'idea di riscrivere le sue idee partendo da zero per
dimostrare come avrebbero potuto trasformare la teoria delle equazioni differenziali. Per aiutarlo,
Klein e Mayer si diedero da fare per mandargli Friedrich Engel, per scrivere la sua
Habilitationsschrift e contemporaneamente aiutare Lie a riscrivere le proprie idee.
Il disegno ebbe successo. Engel conseguì l'abilitazione come Privatdozent nel 1885 e Lie
pubblicò un lungo articolo nei Mathematische Annalen. In quel periodo un altro giovane
matematico, educato alla scuola di Berlino, cominciò a chiedere informazioni. Aveva scoperto, con
un certo ritardo, che il lavoro di Lie si sovrapponeva al suo. Questi era Wilhelm Killing. In quel
tempo era un insegnante privo di contatti scientifici presso il liceo di Braunsberg nella Prussia
orientale, e autore di un Programschrift in cui si proponeva di classificare tutte le 'algebre di Lie'
facendo uso della teoria di Weierstrass delle radici caratteristiche. La lettera di Killing a Lie non
ebbe risposta e quindi scrisse ad Engels, cominciando così una lunga corrispondenza, che lo aiutò a
mantenere viva la sua creatività. Killing capì che la sovrapposizione con il lavoro di Lie era
notevole, e si sentì incoraggiato nell'apprendere che il compito che si era posto, di scoprire tutte le
'algebre di Lie' semplici, era ritenuto degno di interesse da Engel. Engel si rese conto che per quanto
scrivesse da un oscuro indirizzo, Killing padroneggiava bene una teoria così oscura che lui (Engel)
era stato mandato in Norvegia per impararla dal maestro.
Nell'estate del 1886 si liberò a Lipsia uno dei rari posti di professore ordinario, quando
Klein lasciò l’incarico per andare a Göttingen, e l’incarico fu assegnato a Lie. Engel lo seguì, e
Killing si organizzò per incontrarli per due giorni. Lie restò impressionato da alcune delle idee di
Killing, ma notò che altre erano troppo imprecise. Così ricominciò un lento scambio di lettere, in
cui Engel incoraggiava Killing a scrivere i suoi risultati. Assicurava a Killing che Klein avrebbe
fatto in modo che il suo lavoro fosse pubblicato nei Mathematische Annalen, e questo lo avrebbe
introdotto nella cerchia di Klein a Göttingen. Fino a quel momento aveva pubblicato solamente nel
Journal für Mathematick, una rivista locale di area berlinese. A partire dal 1888, Killing inviò a
Klein un lavoro in quattro parti in cui venivano classificate le algebre di Lie semplici, complesse,
finito dimensionali. I lavori erano incompleti, molti calcoli laboriosi erano stati omessi, e alcuni casi
non erano stati considerati. Per completezza si sarebbero dovuti trattare tutti i casi in cui si
presentavano radici ripetute, ma gli impegni non lasciavano molto tempo all'insegnante di scuola.
Fece la scelta etica di pubblicare le sue profonde scoperte senza nascondere le loro imperfezioni.
Klein non era il solo a ritenere che il solitario genio norvegese conoscesse molto di più di
quanto aveva scritto. Anche Gaston Darboux, con cui aveva avuto rapporti ai tempi di Parigi
(1870-1871), continuava a mantenere i contatti, e quando Lie visitò nuovamente Parigi intorno al
1880 Poincaré e Picard furono in grado di afferrare prontamente quello che aveva da dire. Nel 1888
Darboux organizzò la visita di due giovani matematici francesi a Lie a Lipsia, de Tannenberg e
Vessiot. Prima di allora Picard aveva utilizzato il lavoro di Lie per costruire una teoria di Galois
delle equazioni differenziali lineri ordinarie, e il suo lavoro fu esteso da Vessiot dopo il suo ritorno
dalla Germania (v. Gray [1988] per un resoconto parziale). Darboux e altri, alla Ecole Normale
valorizzarono il contatto, e un certo numero di giovani matematici francesi ne approfittarono negli
anni a seguire. Uno di questi, Arthur Tresse, fece conoscere al suo amico Élie Cartan il lavoro di
Killing e Cartan proseguì il lavoro fino a concluderlo completamente. Nella tesi di Cartan è
contenuta la prima classificazione esauriente delle algebre di Lie complesse semisemplici. Essa
giustificò le intuizioni di Killing, chiarì i suoi argomenti, corresse i suoi errori e le sue omissioni.
Rimaneva solo che il resto del mondo matematico si mettesse in pari, ma questo avrebbe richiesto
ancora molti anni.
2.1.6 La teoria dell’eliminazione; la soluzione delle equazioni polinomiali in più
di una variabile
Nel 18° secolo il metodo preferito per formulare e risolvere molti problemi di matematica
pura e applicata era quello di formulare il problema in termini algebrici e di risolverlo con metodi
algebrici. Ciò conduceva spesso al problema di risolvere simultaneamente molte equazioni
polinomiali di più variabili, per le quali l'approccio ovvio era basato sulla speranza di eliminare le
variabili una per una. Ma ciò doveva rivelarsi difficile, se non impossibile, come viene illustrato dal
semplice esempio di eliminare la variabile y dalle equazioni x3+y3=3xy e x2+y2=1. Si sviluppò
quindi un'intera branca dell'algebra per trattare questo genere di problemi, chiamata teoria
dell'eliminazione. Una buona indicazione della sua importanza è questo invito dell'Académie des
Marines francese, l'istituzione scientifica aggregata alla marina francese nel 1770.
L'eliminazione delle variabili è una delle parti principali [della matematica]
che deve essere perfezionata, sia perché l'estrema lunghezza dei metodi
ordinari la rendono così ripugnante, sia perché la risoluzione generale delle
equazioni dipende da essa. (Citato in Rider, [1982], 168)
Durante il 18° secolo venne compiuto uno sforzo considerevole per stabilire che due curve, una di
grado m e l'altra di grado n hanno nxm punti di intersezione. Questo risultato, associato al nome di
Etienne Bezout, che diede importanti contributi al problema, richiede un numero significativo di
cambiamenti dei propri punti di vista prima di poter essere accettato, per non dire dimostrato.
Richiede che sia permesso che due rette parallele si incontrino 'all'infinito', che curve con un
numero insufficiente di punti reali in comune si intersechino in punti complessi e che un punto in
cui si intersecano due curve con una tangente in comune contribuisca al computo delle intersezioni
con molteplicità maggiore di uno. Quest'ultimo aspetto era anche il più difficile; perfino Eulero
perse la speranza di trattarlo in modo soddisfacente. Anche quando il teorema di Bezout venne
dimostrato, restò il problema di determinare esplicitamente le radici, e questo trascendeva le
possibilità dell'algebra. Per esempio, due curve definite da un'equazione quadratica e da
un'equazione cubica si intersecano in sei punti, le cui ascisse sono le radici di un'equazione
polinomiale di grado 6, e può non esistere alcuna formula algebrica per calcolarle.
La teoria dell'eliminazione ricevette un impulso decisivo nel 1840 ad opera matematico inglese J.J.
Sylvester, noto anche per essere stato il primo ebreo che ebbe successo nell'ambito della comunità
matematica inglese. Egli osservò che se due curve, definite dalle equazioni polinomiali f(x,y)=0 e
g(x,y)=0 hanno punti in comune, allora questi sono comuni anche alle curve xkf(x,y)=0 e xlg(x,y)=0,
per ogni valore di k e l. Se f è di grado m in y e g è di grado n e se supponiamo, senza perdere di
generalità, che m ≥ n, allora al variare di k tra 0 e n-1 e di l tra 0 e m-1 si ottiene un sistema di m+n
equazioni per i punti di intersezioni. Queste equazioni sono lineari in y, y2, ecc. e i coefficienti sono
monomi in x. I coefficienti sono solo m+n e quindi esisteranno soluzioni se e solo se il determinante
dei coefficienti si annulla. Questa regola è completamente algoritmica, e costituì una delle prime
affermazione della potenza dei determinanti; Cauchy dimostrò rapidamente che questo punto di
vista era in accordo con i metodi precedenti.
Il successivo passo in avanti sostanziale fu il teorema di Noether (Noether, [1873]) un punto
centrale del lavoro con Brill, mirato a sviluppare una teoria essenzialmente algebrica delle superfici
di Riemann (v. Geometria). Il teorema si propone di correggere la seguente affermazione, che a
prima vista si potrebbe credere vera: date due curve di equazioni f=0 e g=0 e una curva h=0 che
passa r+s-1 volte per ogni punto in cui f ha molteplicità r e g ha molteplicità s, ci sono polinomi A e
B tali che h=Af+Bg. L’affermazione è falsa, come dimostra questo esempio: f(x,y)=y, g(x,y)=y-x2;
la curva di equazione x+y=0 non è della forma Af+Bg=0. La correzione di Noether focalizzò
l'attenzione sul fatto che i punti singolari hanno la loro importanza. Nell'esempio appena visto, è
necessaria una formulazione che tenga in considerazione il fatto che la curva h=0 passa per l'origine
e ha in quel punto una tangente comune con le curve f e g. Nel linguaggio del 19º secolo, bisogna
tenere in considerazione i punti infinitamente vicini. La questione si rivelò molto sottile, e dovette
trascorrere molto tempo prima che venissero forniti enunciati accurati e dimostrazioni rigorose (v.
Brill e Noether [1894, pp. 367-402] e Bliss [1923]).
Un nuovo livello di profondità in questa branca dell'algebra venne raggiunto nel 1880 da
Kronecker, come descritto da Gray [1997]. Per tutta la vita Leopold Kronecker pensò a come
risolvere i problemi matematici utilizzando l'algebra. La teoria dell'eliminazione era la tecnica
fondamentale della sua analisi ad ampio spettro su quello che poteva essere fatto nello studio dei
polinomi in più variabili e, tra l'altro, considerò anche il caso in cui i coefficienti numerici fossero
interi algebrici arbitrari. La sua pubblicazione definitiva sull'argomento fu il 'Grundzüge',
pubblicato nel 1882 come parte delle celebrazioni del 50º anniversario del dottorato del suo
mentore, Kummer (queste erano le priorità dei professori tedeschi del 19º secolo).
Il lavoro è senz’altro difficile (v. Edwards [1999] per una guida) e può darsi che Kronecker
ottenesse un successo maggiore con le sue lezioni a Berlino e con le relazioni, generalmente buone,
che manteneva con i suoi pochi studenti.
L’articolo e le lezioni (pubblicate postume nel 1901) presentano argomenti quali la
fattorizzazione di polinomi (Kronecker diceva di conoscere un metodo generale, che però non
descrisse mai esplicitamente) e la possibilità di sviluppare un polinomio su una data base finita. Egli
utilizzò la terminologia impiegata da Gauss per l'aritmetica modulare: se un polinomio f è divisibile
per un polinomio g diceva che f è congruo a 0 mod g. Così se f si può scrivere nella forma
a1g1+…+amgm dove i coefficienti ai sono ancora polinomi, Kronecker diceva che f è congruo a 0
mod g1,…,gn e si riferiva alle funzioni che sono congrue a 0 mod g1,…,gn come alle funzioni che
appartengono al sistema modulare definito dai polinomi g. Costruì quindi una teoria dei divisori e
dei multipli dei sistemi modulari, che includeva anche il concetto di divisore primo.
Le difficoltà insite dell'approccio di Kronecker corrispondono strettamente ai problemi
geometrici relativi alle curve definite tramite polinomi, ma Kronecker tendeva ad evitare questo
linguaggio. Inevitabilmente queste difficoltà crescevano al crescere del numero delle variabili.
Possiamo farci un'idea di queste difficoltà considerando come i suoi successori cercarono di
superarle. Jules Molk studente di Kronecker a Berlino negli anni 1882-4 pubblicò un lungo articolo
sull'argomento in Acta Mathematica (Molk [1884]). Alcuni anni dopo, come curatore della
Encyclopédie des Sciences Mathématiques pures et appliqués, Molk organizzò una estesa
rielaborazione dell'articolo di Landsberg sulla teoria dei divisori, che era apparso nella
Encyclopädie der Matematischen Wissenschaften; Gli autori dell’articolo furono Kürschák e
Hadamard. Nel frattempo il matematico ungherese Gyula König scrisse il primo libro di testo
sull'argomento. (in ungherese nel 1903 e quindi in tedesco [1904]). Il processo culminò con un
articolo e un libro scritti dal matematico inglese F.S. Macaulay.
Molk non fece avanzare la teoria molto oltre il punto in cui l'aveva lasciata Kronecker,
osservando che le tecniche disponibili coprivano a stento il caso dei polinomi in 2 variabili. Il libro
di König, anche se aveva lo scopo modesto di essere il primo libro di testo sull'argomento, andò
oltre. È il primo libro in cui i concetti moderni di campo e di anello commutativo sono chiaramente
distinti e utilizzati, anche se i termini introdotti da König non sono sopravvissuti. Egli utilizzava il
termine dominio ortoidexxiv per indicare quello che oggi chiamiamo campo e il termine dominio
oloidexxv per indicare un anello commutativo con unità tale che nessuna somma del tipo 1+1+…+1
si annulla (il saggio di Hadamard e Kürschák presentava un interessante elenco di concetti di
questo genere, stilato immediatamente prima che l'articolo di Steinitz fondasse la teoria moderna
dei campi). König distinse anche tra il concetto di campo e quello di 'Rationalitätsbereich' o
dominio di razionalità. Un 'Rationalitätsbereich' è un'estensione finita del campo dei razionali.
(esistono anche estensioni infinite; König diede l'esempio del campo di tutti i numeri algebrici)
Il punto di maggiore interesse del libro di König è una generalizzazione di uno dei teoremi
di Noether relativi alla teoria dell'eliminazione al caso di n equazioni polinomiali in n variabili.
Questa generalizzazione risponde alla domanda: quando un polinomio in n variabili appartiene al
sistema modulare definito da n polinomi dati? Noether aveva sollevato e risolto il problema nel
1873 per 2 polinomi in 2 variabili (cioè curve) ed era stato il primo ad affrontare in modo corretto le
difficoltà causate dai problemi relativi alla tangenza. Invece di passare in rassegna le difficoltà
affrontate da König, si osservi che il teorema è falso in maniera irrecuperabile per due polinomi in
tre variabili.
La teoria dei sistemi modulari non è poi così diversa dalla teoria degli ideali, i cui pionieri
furono Dedekind e Weber nel loro articolo del 1882. È più esplicita e algoritmica nei suoi scopi,
secondo un approccio che affonda le sue origini nel lavoro di Kronecker e venne poi esemplificato
da Macaulay. Siccome le pubblicazioni di quest'ultimo su questo argomento si estendono attraverso
un arco di tempo che va dal 1913 al 1916, le importanti novità che introdusse non possono essere
descritte in questa sede, ma rappresentano il percorso attraverso cui le idee di Kronecker
penetrarono nella moderna teoria degli anelli.
i
L’originale è sbagliato. La traduzione dell’originale è: “… termini della forma a/(a'+b'x) (il cui integrale è un
logaritmo) e (c+dx)/Q1(x), dove Q1(x), è quadratico in xi. Questi danno luogo ai termini logaritmici e trigonometrici
etc….” Ma possono presentarsi altri termini, per esempio quelli del tipo a/(a'+b'x)n e altri ancora che l’autore non ha
considerato. L’enunciato preciso è complicato e mi sembra inutile in un articolo di questo genere. Suggerisco quindi
questa semplificazione.
ii
Sta assumendo implicitamente che i coefficienti siano reali.
iii
Errore nell’originale.
iv
Questo enunciato non è strettamente corretto. Un possibile enunciato corretto è: ogni funzione continua su un
intervallo, positiva ad un estremo e negativa all’altro deve annullarsi in un punto interno all’intervallo. Si può assumere
che l’autore ritenga inutile aggiungere l’ipotesi che le funzioni siano definite per ogni valore reali; per funzioni siffatte
quello che afferma è vero, ma la restrizione che pone è molto pesante e inutile. Io l’avrei scritto in tutt’altra maniera.
v
Frase di significato oscuro.
vi
Credo che n sia un errore.
vii
Contraddizione
viii
Questa frase e la precedente non mi sono chiare dal punto di vista matematico
ix
Aggiungerei: irriducibili, altrimenti è ovvio.
x
L’originale è sbagliato.
xi
Nell’originale c’e’ un errore nell’esponente.
xii
Non Euclidean mi sembra inappropriato. Inoltre il teorema non è enunciato bene.
xiii
Aggiunta che mi sembra necessaria
xiv
Se n è dispari ovvero n pari e –b maggiore di zero.
xv
L’aggiunta mi sembra necessario perché poi utilizza il concetto di gruppo quoziente che non è definito altrove.
xvi
Mia aggiunta
xvii
Mia aggiunta
xviii
La frase è completamente rimaneggiata
xix
Non primo
xx
C’è un indice sbagliato nell’originale
xxi
C’è un indice sbagliato nell’originale
xxii
C’è un errore in uno degli indici
xxiii
Errore nel testo
xxiv
Non ho trovato una traduzione
xxv
Non ho trovato una traduzione
Scarica

2 Algebra - Dipartimento di Matematica