giovedì 9 febbraio 2023

LA SCOPERTA DEI BOSONI W e Z

Solo pochi giorni fa, il 25 gennaio, si celebrava il quarantennale della scoperta del bosone W (qui il relativo post celebrativo del CERN).
Nel presente post vorrei dunque provare a presentare in maniera accessibile per tutti un pochino più in dettaglio la scoperta dei bosoni W e Z, mediatori dell'interazione debole.
Ovviamente la prima questione da chiarire è cosa sia l'interazione debole.
Dovreste ben sapere che in natura esistono 4 interazioni fisiche fondamentali: gravitazionale, elettromagnetica, forte e debole.
La gravità è allo stesso tempo quella più conosciuta anche ai profani e quella più problematica per i fisici.
Infatti la teoria moderna della gravità non solo è molto complessa (trattasi della relatività generale di Einstein, matematicamente fondata sul calcolo tensoriale sviluppato da Ricci Curbastro e Levi-Civita), ma è difficile da far conciliare con l'altro grande pilastro della fisica moderna, ovvero la meccanica quantistica.
Al momento una teoria della gravità quantistica sperimentalmente verificata non esiste!

Immagine presa da: https://bit.ly/40Kpd52

Poi abbiamo l'interazione elettromagnetica, che riunisce insieme tutti i fenomeni elettrici e magnetici grazie alle note e fondamentali equazioni di Maxwell.

Equazioni di Maxwell
in assenza di sorgenti.

L'interazione forte è invece quella che, per esempio, fa da "collante" tra protoni e neutroni e dunque tiene assieme i nuclei atomici. Come suggerisce il nome stesso, è la più intensa tra le 4 interazioni fondamentali.

Immagine tratta da: https://bit.ly/3HL4hCw














Ultima, ma non per questo meno importante, è l'interazione debole.
In parole povere, è quel tipo di "forza" che è responsabile dei decadimenti radioattivi degli atomi.
La seguente immagine, tratta da Wikipedia, illustra per esempio il decadimento beta di un neutrone dovuto proprio all'interazione debole.














Per capire meglio, sottolineiamo immediatamente che nell'ambito della fisica delle particelle esistono 3 tipologie fondamentali di reazioni:

1) reazioni di scattering elastico: lo stato iniziale della reazione coincide con lo stato finale. Un esempio è dato da: $e^{-} + p \rightarrow e^{-} + p$. Ciò significa che l'interazione tra un elettrone $e^{-}$ ed un protone $p$ ha prodotto un elettrone $e^{-}$ ed un protone $p$. 

2) reazioni di tipo inelastico: le particelle prodotte nello stato finale non coincidono con quelle iniziali. Ad esempio: $\nu_{e} + n \rightarrow e^{-} + p$. Tradotto in parole significa che l'interazione tra un neutrino elettronico $\nu_{e}$ ed un neutrone $n$ va a produrre un elettrone $e^{-}$ ed un protone $p$. Notate bene la conservazione della carica elettrica sussistente tra lo stato iniziale (neutrino e neutrone entrambe particelle con carica nulla) e quello finale (elettrone con carica negativa e protone con carica positiva, e dunque complessivamente il sistema ha carica nulla).

3) decadimenti: qui abbiamo una singola particella come stato iniziale che decade in varie particelle nello stato finale. Per esempio $n \rightarrow p + e^{-} + \bar{\nu}_e$, che denota il fatto che un neutrone $n$ può decadere producendo un protone $p$, un elettrone $e^-$ ed un antineutrino elettronico $\bar{\nu}_e$ (come illustrato dall'immagine di cui sopra).

Ovviamente un modo davvero utile di rappresentare le interazioni fra particelle è costituito dai famosi diagrammi di Feynman e dalle relative regole di Feynman che consentono di comprendere immediatamente, dalla sola osservazione dei diagrammi, alcune delle grandezze essenziali in gioco, specialmente per il calcolo dell'ampiezza di probabilità e del suo modulo quadro, che consente di comprendere un'altra grandezza fondamentale come la sezione d'urto.
Non entreremo tuttavia nei dettagli di questi aspetti, che dal punto di vista teorico possono essere ricavati esplicitamente grazie alla teoria quantistica dei campi.

Illustrazione di alcuni diagrammi di Feynman e
processi in fisica delle particelle nella serie tv "The Big Bang Theory".

















Ora che abbiamo chiarito brevemente la questione interazioni fondamentali e reazioni, dobbiamo per forza di cosa aggiungere che ciascuna delle interazioni fondamentali è mediata da delle particelle note come bosoni di gauge.
Per quanto riguarda la gravità il corrispettivo bosone resta ancora ipotetico ed è chiamato gravitone (e si ipotizza abbia spin 2). 
Le restanti 3 interazioni fondamentali sono mediate da bosoni aventi spin 1 (avevamo dato un'introduzione molto basilare al concetto di spin, insieme ad altre cose, qui).
Nello specifico l'interazione elettromagnetica è mediata dal famoso fotone, l'interazione forte dal gluone, mentre per quanto concerne l'interazione debole abbiamo proprio i bosoni W e Z.
C'è un dettaglio non da poco che subito distingue tali bosoni: la massa!
Infatti mentre fotoni e gluoni non hanno massa, i bosoni W e Z sono particelle massive.
E tutto ciò ha delle implicazioni notevoli anche per quanto concerne il cosiddetto "range" $R$ di tali interazioni, che possiamo definire come

$R = \frac{1}{M_X}$

in cui $M_X$ rappresenta la massa della particella mediatrice dell'interazione, e in cui abbiamo assunto, per semplicità, l'uso delle unità di misura naturali, ovvero abbiamo considerato sia la velocità della luce $c$, sia la costante di Planck ridotta $\hbar$ pari ad 1, dunque non esplicitamente presenti nella formula sopra riportata.
È pertanto facile notare che se assumiamo che $M_X = 0$ (come nel caso del fotone e del gluone) otteniamo delle interazioni aventi range infinito (almeno teoricamente), mentre se $M_X$ è diversa da 0 l'interazione ha un range finito, che è proprio il caso dell'interazione debole.
Nello specifico il range della suddetta interazione è pari a circa $2 \times 10^{-3}$ fm, ove con fm indichiamo i femtometri (1 fm = $10^{-15}$ m).
Aggiungiamo poi che la scoperta dei bosoni W e Z è stata una vera e propria pietra miliare a conferma del modello teorico dell'unificazione elettrodebole per cui Glashow, Salam e Weinberg vinsero il Nobel per la fisica nel 1979.
Questi prodigiosi fisici mostrarono che, almeno ad elevate energie, l'interazione elettromagnetica e quella debole non sono altro che due facce della stessa medaglia, ossia l'interazione elettrodebole, un po' come (principalmente) Faraday e Maxwell dimostrarono sperimentalmente e matematicamente che fenomeni elettrici e magnetici potessero essere descritti complessivamente grazie alla teoria dell'elettromagnetismo. 
L'idea primordiale di indagare sull'esistenza dei bosoni W e Z risale al 1976, anno in cui David Cline, Peter McIntyre e Carlo Rubbia proposero di convertire gli esistenti acceleratori di protoni in collisori protoni $p$ ed antiprotoni $\bar{p}$, nella speranza di produrre appunto i bosoni massivi predetti dalla teoria elettrodebole.
Chi fosse rimasto sino ad ora confuso da concetti come quello di antiprotone appena menzionato, ovvero l'antiparticella del protone, legga (cliccando qui) il recente post che abbiamo pubblicato riguardo all'emergere teorico del concetto di antiparticella dall'equazione di Dirac e alla scoperta sperimentale della prima antiparticella nota, il positrone, cioè l'antiparticella dell'elettrone.
Specifico ora che quelli che finora ho chiamato bosoni W e Z sono complessivamente 3:

1) bosone $Z^0$, avente carica elettrica nulla;
2) bosone $W^+$, avente carica elettrica positiva;
3) bosone $W^-$, avente carica elettrica negativa.

Oggi sappiamo che tali particelle sono altamente instabili e vennero prodotte grazie alle seguenti reazioni:

$p + \bar{p} \rightarrow W^{+} + X^{-}$
$p + \bar{p} \rightarrow W^{-} + X^{+}$
$p + \bar{p} \rightarrow Z^0 + X^0$,

in cui $X^{\pm}$ e $X^0$ denotano stati adronici arbitrari permessi dalle leggi di conservazione.
Per chi se lo stesse chiedendo, un adrone è ovviamente una particella, ma non è una particella elementare (ovvero senza una struttura interna), bensì una particella composta da altre particelle, che possono essere quark (che invece sono particelle elementari) ed antiquark. 
Nello specifico, esistono 2 famiglie fondamentali in cui dividiamo gli adroni:

1) i barioni, composti da almeno 3 quark (e comunque sempre aventi un numero dispari di particelle costituenti). Di questa categoria fanno parte anche i protoni ed i neutroni.
2) i mesoni, formati da un quark e da un antiquark. Esempi famosi sono i pioni e i kaoni.

 

 












Come già detto all'inizio del post, sono passati 40 anni dal rilevamento sperimentale, nel 1983, dei bosoni mediatori dell'interazione debole.
Vennero sfruttati i seguenti corrispondenti decadimenti (molto generali) in leptoni:

$W^+ \rightarrow l^+ + {\nu}_l$
$W^- \rightarrow l^- + \bar{\nu}_l$
$Z^0 \rightarrow l^+ + l^-$

Specifichiamo che i leptoni sono una famiglia di particelle elementari (ed osservabili) che comprendono il ben noto elettrone, il muone, il tauone e i corrispettivi neutrini. Dunque nelle reazioni qui sopra $l$ può denotare indifferentemente $e, \mu, \tau$.  
2 esperimenti indipendenti vennero allestiti al CERN a partire dal 1981: UA1 e UA2, acronimi che provengono da "underground area", cioè "area sotterranea".
In entrambi gli esperimenti, fasci di protoni ed antiprotoni furono condotti insieme in una zona di intersezione che giace al centro di un gigantesco e molto complesso sistema di rilevamento.
Nello specifico, tenendo a riferimento UA1, i componenti principali di questo apparato erano:

1) un "tracking detector" centrale: usato al fine di osservare le particelle cariche e misurare il loro momento a partire dalla curvatura delle tracce in un campo magnetico applicato;
2) una serie di contatori di cascata elettromagnetica: assorbono e rivelano sia elettroni (osservati anche dal rivelatore centrale) che fotoni (non osservati dal rivelatore centrale); 
3) una serie di calorimetri adronici: assorbono e rivelano adroni sia carichi sia neutri;
4) una serie di contatori per l'identificazione dei muoni: questi sono le uniche partielle cariche che riescono a penetrare i calorimetri adronici.

Di seguito una rappresentazione schematica di quanto appena illustrato tratta dal testo Particle Physics di B.R. Martin e G. Shaw.

Alla fine è chiaro che le uniche particelle in grado di scappare dalla rivelazione del sofisticato apparato sono stati i neutrini, a volte noti comunemente come "particelle fantasma" giacché molto difficili da rilevare.
Infatti i neutrini presentano la caratteristica peculiare di essere sensibili soltanto all'interazione debole (e non alle altre interazioni) ed essere caratterizzati da una sezione d'urto assai piccola, il che significa che per tentare di rilevarli si ha bisogno di rivelatori molto grandi e di un enorme flusso di particelle.
Dopo questo breve inciso sui neutrini, torniamo all'esperimento UA1.
Uno dei problemi principali che gli scienziati dovettero affrontare fu il fatto che, per ogni evento in cui un bosone $W^{\pm}$ o $Z^0$ viene prodotto (decadendo poi in leptoni), esistono più di $10^{7}$ eventi nei quali vengono prodotti solo adroni.
L'estrazione del "segnale" di presenza dei suddetti bosoni in questo immenso "background" di adroni è stato reso possibile solo perché i leptoni che scaturiscono dal decadimento dei bosoni W e Z posseggono momenti elevati e sono spesso emessi ad ampi angoli rispetto alle direzioni iniziali del fascio.
Detto in altri termini, i leptoni si manifestano spesso con grandi "momenti trasversi".
Al contrario, gli adroni, prodotti nelle collisioni protone/antiprotone, e i leptoni derivanti dai loro decadimenti presentano raramente dei così elevati momenti trasversi.
Questa analisi permette pertanto di avere un modo efficace di distinguere ciò che è stato prodotto dagli adroni (cioè la maggioranza degli eventi) e ciò che invece è il risultato del decadimento delle nostre "prede", ossia i bosoni W e Z.
Concludendo, grazie ad analisi di questo tipo, gli esperimenti condotti al CERN produssero il risultato sperato e, nel 1984, Carlo Rubbia e Simon van der Meer furono insigniti del Nobel per la fisica per il loro fondamentale contributo nell'ambito di tale scoperta. 

van der Meer (a sinistra) e Rubbia (a destra).
Immagine tratta da: https://nyti.ms/3jDURRf















----------------------------------------------------------------------------------------
Fonti essenziali:

- Particle Physics di B.R. Martin e G. Shaw   

martedì 3 gennaio 2023

GRASSMANN E LE SUE VARIABILI

Il presente post sarà focalizzato nella spiegazione di un concetto matematico molto utile nell'ambito della teoria quantistica dei campi: le variabili di Grassmann.
Esse infatti sono fondamentali per il calcolo delle cosiddette funzioni di correlazione di campi fermionici e, in particolare, per la definizione degli integrali funzionali per i fermioni. 
Per inciso ricordiamo che i fermioni sono quelle particelle (tra cui, per esempio, l'elettrone) che, in base al teorema spin-statistica, presentano spin semi-intero e obbediscono al principio di esclusione di Pauli.
Non abbiate troppa paura, il post non richiederà prerequisiti di teoria quantistica dei campi per la comprensione, ma "solo" il generico background matematico tipico dei post un po' più tecnici presenti in questo blog.
Possiamo però cominciare molto dolcemente anche per il lettore totalmente a digiuno di matematica avanzata, inquadrando in primis l'interessante biografia del matematico, fisico e linguista tedesco Hermann Günther Grassmann, che sono sicuro vi sorprenderà notevolmente.

Terzo di dodici figli, Grassmann nacque il 15 aprile 1809 a Stettino da Justus Günter Grassmann (consacrato ministro del culto, ma poi divenuto docente di matematica e fisica presso il liceo di Stettino) e Johanne Luise Friederike Medenwald (figlia di un ministro del culto di Klein-Schönfeld).
Justus scrisse diversi libri scolastici di fisica e matematica e intraprese anche ricerche inerenti alla cristallografia.
Anche il fratello di Hermann, Robert, divenne un matematico e i due collaborarono a svariati progetti.
Ma focalizziamo la nostra attenzione su Hermann.
L'istruzione primaria di Hermann si dovette alla madre, donna decisamente saggia e colta.
Dopodiché frequentò una scuola privata prima di entrare nel ginnasio di Stettino dove insegnava suo padre.
Ecco, molti sono abituati a pensare ai grandi matematici e scienziati della storia come studenti brillantissimi, geni, "mostri", "alieni" in grado di ridicolizzare anche i propri insegnanti.
Questo non fu assolutamente il caso di Grassmann, quantomeno inizialmente!
Infatti costui, nonostante avesse eccellenti opportunità di coltivare la sua istruzione in una famiglia con un'ampia mentalità educativa, non eccelse durante i suoi primi anni di ginnasio.
Magari non ci crederete, ma suo padre ad un certo punto pensò addirittura che il figlio dovesse indirizzarsi più su un lavoro manuale (come per esempio fare il giardiniere o l'artigiano) piuttosto che focalizzarsi su studi difficili apparentemente non alla sua portata.
Hermann si appassionò alla musica e imparò a suonare il pianoforte. 
Man mano che progredì nella scuola, migliorò a piccoli passi e nel momento degli esami finali di scuola secondaria, all'età di diciotto anni, si classificò al secondo posto nella scuola.
Insomma un bruco diventato farfalla!














Questa vicenda dovrebbe far riflettere sul fatto che un brutto voto scolastico o un periodo di rendimento negativo non definiscono in toto l'intelligenza e le capacità di una persona. Sarebbe bello che imparassimo tutti quanti a non giudicare un libro dalla copertina o dalle prime pagine.
Tornando al nostro racconto biografico, Hermann decise che avrebbe studiato teologia e si recò a Berlino nel 1827 con il fratello maggiore per studiare nella prestigiosa Università ivi presente
Seguì corsi di teologia, lingue classiche, filosofia e letteratura, ma pare che non abbia mai seguito corsi di matematica o fisica.
Sebbene non possedesse una preparazione universitaria formale in matematica, fu tale argomento che lo interessò al suo ritorno a Stettino nell'autunno del 1830 dopo aver completato gli studi universitari a Berlino. 
L'influenza del padre risultò determinante nel portarlo sulla strada della matematica; Hermann decise che sarebbe diventato un insegnante di scuola, ma era determinato a intraprendere ricerche matematiche per conto proprio. 
Dopo un anno di ricerca matematica e di studio utile nella preparazione degli esami necessari per insegnare nei ginnasi, si recò a Berlino nel dicembre 1831 per sostenere i suddetti esami.
Le sue prove scritte non ebbero tuttavia una buona valutazione, dal momento che i suoi esaminatori gli diedero la licenza di insegnare solo ai livelli più bassi del liceo. 
Gli fu in particolare detto che, prima di poter insegnare ai livelli superiori, avrebbe dovuto sostenere nuovamente gli esami e dimostrare una maggiore conoscenza degli argomenti per cui si era presentato. Nella primavera del 1832 fu nominato insegnante assistente al liceo di Stettino.
Come racconta Grassmann stesso nella prefazione della sua fondamentale opera, pubblicata nel 1844, Die Lineale Ausdehnungslehre, ein neuer Zweig der Mathematik ("Teoria dell'estensione lineare, un nuovo ramo della matematica"), fu in questo periodo (cioè a partire dal 1832 circa) che fece le sue prime significative scoperte matematiche che lo avrebbero condotto alle rilevanti idee che avrebbe sviluppato pochi anni dopo.
Nel 1834 Grassmann sostenne gli esami di teologia (di primo livello) fissati dal Consiglio della Chiesa luterana di Stettino ma, sebbene questo potesse rappresentare il suo primo passo per diventare ministro nella Chiesa luterana, decise di recarsi invece a Berlino nell'autunno di quell'anno per accettare un incarico come insegnante di matematica alla Gewerbeschule.
Era infatti rimasto vacante un posto da quando il precedente insegnante, Jakob Steiner (1796-1863), sì proprio quello del celebre teorema di Huygens-Steiner inerente al calcolo del momento di inerzia di un corpo rigido, era stato nominato ad una cattedra di matematica all'Università di Berlino. 
Grassmann trascorse solo un anno alla Gewerbeschule prima che si presentasse una nuova opportunità nella sua città natale di Stettino. 
Una nuova scuola, la Otto Schule, era infatti appena stata aperta e Grassmann fu incaricato di insegnare matematica, fisica, tedesco, latino e religione. Si era qualificato solo per insegnare a un livello basso, e ciò fa ben capire l'ampia varietà di argomenti che insegnava.
Nei 4 anni successivi il nostro studioso prese molto sul serio il suo insegnamento, ma non trascurò per questo la ricerca matematica, oltre a concentrarsi sulla preparazione di ulteriori esami. 
Nel 1839 superò gli esami di teologia, di secondo livello, fissati dal Consiglio della Chiesa luterana di Stettino, e nel 1840 si recò a Berlino per sostenere gli esami che gli avrebbero permesso di insegnare alcune materie al più alto livello di ginnasio. Da quel momento poté finalmente insegnare matematica, fisica, chimica e mineralogia a tutti i livelli delle scuole secondarie.
Interessante notare come gli esami che Grassmann sostenne nel 1840 furono per lui significativi anche in un altro senso. 
Nello specifico, tra le richieste dell'esame vi era la presentazione di un saggio sulla teoria delle maree. Egli prese allora la teoria di base dalle celebri Méchanique céleste di Laplace e Méchanique analytique di Lagrange, tuttavia si rese presto conto di poter applicare i metodi vettoriali che aveva sviluppato fin dal 1832 per dar vita ad un approccio non solo originale ma pure semplificato.
Il suo saggio Theorie der Ebbe und Flut era lungo 200 pagine e introduceva per la prima volta un'analisi basata sui vettori, tra cui addizione e sottrazione di vettori, differenziazione di vettori e teoria delle funzioni vettoriali. 
Sebbene il suo saggio venne accettato dagli esaminatori, questi non furono assolutamente in grado di comprendere l'importanza delle innovazioni introdotte da Grassmann. 
In altre parole, Grassmann, senza aver ricevuto alcuna educazione matematica di tipo universitario, aveva gettato le basi della moderna algebra lineare e dell'importantissimo concetto di spazio vettoriale, ma i suoi esaminatori non seppero riconoscere un vero "diamante matematico" pur avendolo di fronte agli occhi. Cliccando qui gli interessati potranno leggere lo splendido testo Linear Algebra Done Right di Sheldon Axler, molto utile per rinfrescare i fondamentali concetti e scoprire un approccio piuttosto originale rispetto ai tipici libri presenti sull'argomento. 
Riporto inoltre a tal proposito un interessante passo tratto dal libro Dio è un matematico di Mario Livio:

"Uno dei suoi biografi ha scritto: «Sembra che il destino di Grassmann sia quello di essere riscoperto di tanto in tanto, ogni volta come se fosse stato dimenticato dopo la morte». Eppure a Grassmann si deve la creazione della scienza astratta degli «spazi» al cui interno la geometria convenzionale rappresentava solo un caso particolare. Grassmann pubblicò le sue idee pionieristiche (dando origine alla branca della matematica che prende il nome di «algebra lineare») nel 1844, in un libro noto generalmente con il titolo di Ausdehnungslehre[...]Nella prefazione, Grassmann scrisse:

‘La geometria non può in alcun modo essere considerata [...] una branca della matematica; la geometria riguarda invece qualcosa che è già dato in natura, ovverosia lo spazio. Mi ero inoltre reso conto del fatto che deve esserci una branca della matematica che produce in modo puramente astratto leggi simili a quelle della geometria.’

Era una concezione radicalmente nuova della natura della matematica. Per Grassmann la geometria tradizionale - eredità degli antichi greci - riguarda lo spazio fisico e pertanto non può essere considerata una vera branca della matematica astratta. Per lui la matematica era infatti una creazione astratta della mente umana che non necessariamente ha applicazioni nel mondo reale.
È affascinante seguire il filo di pensieri apparentemente banali che mise Grassmann sulla strada che l'avrebbe condotto alla sua teoria di un'algebra lineare.
Egli prese spunto dalla semplice formula $AB + BC = AC$, che compare in ogni manuale di geometria in riferimento alle lunghezze dei segmenti di retta (figura 46a).







Grassmann notò però qualcosa di nuovo nella formula. Scoprì che essa resta valida indipendentemente dall'ordine di $A$, $B$ e $C$, a condizione che non si interpretino $AB$, $CD$ e $AC$ come mere lunghezze, ma si assegni loro anche una «direzione», cosicché risulti, per esempio, $BA = -AB$. In tal caso, se $C$ sta tra $A$ e $B$ (figura 46 b), risulterà $AB = AC + CB$; ma poiché $CB = -BC$, avremo $AB = AC - BC$ e la formula iniziale potrà essere ripristinata semplicemente aggiungendo $BC$ a destra e a sinistra del segno d'uguaglianza.
Ciò era piuttosto interessante di per sé, ma l'intuizione di Grassmann conteneva altre sorprese. Notate che se fossimo nell'ambito dell'algebra invece che in quello della geometria, allora un'espressione come $AB$ denoterebbe in genere il prodotto $A \times B$. In questo caso, la proposta di Grassmann di porre $AB = -BA$ violerebbe una delle leggi fondamentali dell'aritmetica, ovvero che due quantità moltiplicate tra loro producono lo stesso risultato indipendentemente dall'ordine dei termini. Grassmann affrontò di petto quest'inquietante possibilità inventando una nuova algebra dotata di coerenza interna (chiamata «algebra esterna») che consentiva di utilizzare diversi procedimenti di moltiplicazione e al contempo di manipolare la geometria in un numero qualsiasi di dimensioni."

Desmond Fearnley-Sander, nell'articolo del 1979 intitolato Hermann Grassmann and the Creation of Linear Algebra, scrisse peraltro che Grassmann

"Cominciando con una collezione di 'unità' $e_1, e_2, e_3$,...effettivamente definisce lo spazio lineare libero che essi generavano; in altri termini, egli considera la combinazione lineare formale $a_1 e_1 + a_2 e_2 + a_3 e_3 +...$, dove $a_j$ sono numeri reali, definisce l'addizione e la moltiplicazione di numeri reali [nel modo attualmente in uso] e dimostra formalmente le proprietà di spazio lineare per queste operazioni. ... Sviluppa poi la teoria dell'indipendenza lineare in un modo straordinariamente simile alla presentazione che si trova nei moderni testi di algebra lineare. Definisce la nozione di sottospazio vettoriale, indipendenza, lunghezza, span, dimensione, unione e intersezione di sottospazi, e proiezione di elementi nei sottospazi.
Tra gli altri risultati, mostra che ogni insieme finito ha un sottoinsieme indipendente con lo stesso span e che ogni insieme indipendente si estende a una base, e dimostra l'importante identità
[oggi chiamata formula di Grassmann]

$\mathrm{dim} (U+W) = \mathrm{dim} (U) + \mathrm{dim} (W) - \mathrm{dim} (U \cap W)$."

D'altra parte le ricerche (poi raccolte nel saggio del 1844) avevano dimostrato a Grassmann che la sua teoria risultava ampiamente applicabile, pertanto egli decise che avrebbe dedicato d'ora in avanti tutto il tempo che poteva risparmiare al fine di sviluppare ulteriormente le sue idee innovative sugli spazi vettoriali.
Si noti tuttavia che tale tempo non poteva essere molto giacché Grassmann era un insegnante scrupoloso che mirava a svolgere quel lavoro al meglio delle sue capacità. Scrisse numerosi libri di testo, due dei quali furono pubblicati nel 1842: uno era sul tedesco parlato, l'altro sul latino. 
Dopo aver scritto questi libri di testo, rivolse tutta la sua attenzione alla stesura della già citata Die lineale Ausdehnungslehre, ein neuer Zweig der Mathematik.
Cominciò nella primavera del 1842 e completò il manoscritto nell'autunno del 1843. 
Esso, come già più volte detto, venne pubblicato l'anno successivo. Nella suddetta opera, un vero e proprio capolavoro di originalità, ha sviluppato l'idea di un'algebra in cui i simboli che rappresentano entità geometriche come punti, linee e piani, risultano manipolati secondo determinate regole.
Ha rappresentato i sottospazi di uno spazio mediante coordinate che portano alla mappatura dei punti di una varietà algebrica ora chiamata, non a caso, Grassmanniana.
Grassmann era un po' risentito del fatto stesse producendo matematica decisamente innovativa ed importante, ma fosse ancora costretto ad insegnare nelle scuole secondarie. 
Infatti, sebbene fosse stato a Stettino sin dalla prima nomina alla Otto Schule, era stato trasferito prima al Ginnasio di Stettino, poi alla Friedrich Wilhelm Schule a causa della riorganizzazione scolastica della città. 
Nel maggio 1847 ricevette il titolo di Oberlehrer alla Friedrich Wilhelm Schule e nello stesso mese scrisse al Ministero dell'Istruzione prussiano chiedendo di essere inserito in un elenco di quelli da considerare per posizioni universitarie. Il Ministero dell'Istruzione chiese a Kummer la sua opinione su Grassmann, che lesse il suo premiato saggio Geometrische Analyse e riferì che conteneva:

"materiale lodevolmente buono espresso in una forma carente".

Il rapporto di Kummer cancellò definitivamente le speranze di Grassmann per un posto universitario.
È davvero curioso constatare quanti eminenti matematici non siano riusciti a riconoscere che la matematica presentata da Grassmann sarebbe diventata il fondamento di base della materia nei 100 anni successivi.
Il 12 aprile 1849 Grassmann sposò Therese Knappe, la figlia di un proprietario terriero.
La coppia ebbe la bellezza di 11 figli di cui sette raggiunsero l'età adulta. Uno dei loro figli, Hermann Ernst Grassmann, ricevette un dottorato nel 1893 per la sua tesi Anwendung der Ausdehnungslehre auf die Allgemeine Theorie der Raumkurven und Krummen Flächen scritta sotto la supervisione di Albert Wangerin presso l'Università di Halle-Wittenberg. Questi diventò successivamente professore di matematica presso l'Università di Giessen.
Nel marzo 1852 il padre di Grassmann, Justus, morì e nello stesso anno Grassmann fu nominato per ricoprire la precedente posizione di suo padre allo Stettin Gymnasium. 
Ciò significava che, pur insegnando ancora in una scuola secondaria, ora possedeva il titolo di professore. Non essendo riuscito a ottenere un vero riconoscimento per la sua matematica innovativa, Grassmann si dedicò poi a un'altra delle sue materie preferite, lo studio del sanscrito e del gotico. 
Ebbe un buon riconoscimento come linguista per aver dimostrato che il germanico in realtà risultava "più antico" in un modello fonologico rispetto al sanscrito.
Neanche la fisica venne trascurata dallo studioso. Nello specifico, egli pubblicò nel 1853 una teoria della mescolanza dei colori che contraddiceva quella proposta da Helmholtz
Entro la metà dell'anno successivo, tuttavia, fece ritorno alla matematica e alla sua teoria dell'estensione decidendo che, invece di scrivere un secondo volume, come aveva originariamente previsto, avrebbe riscritto completamente l'opera nel tentativo di farne riconoscere il significato. 
Infatti, sebbene abbia scritto un'opera che oggi ci appare nello stile di un moderno libro di testo, Grassmann non riuscì mai a convincere i matematici del suo tempo. 
Forse era così sicuro dell'importanza dell'argomento da non riuscire a decidersi a venderlo a lettori scettici.
Certamente il libro Die Ausdehnungslehre: Vollständig und in strenger Form bearbeitet, da lui pubblicato nel 1862, non se la cavò meglio della prima versione del 1844.
Le delusioni provocate dal mancato apprezzamento del suo contributo matematico lo spinsero a dedicarsi nuovamente alla ricerca in linguistica. Qui se la cavò davvero molto meglio (almeno per il pubblico dell'epoca) e fu onorato per i suoi contributi filologici con l'elezione all'American Oriental Society e con il conferimento, nel 1876, di una laurea honoris causa da parte dell'Università di Tubinga. 
Tornò ancora una volta a concentrarsi sulla matematica negli ultimi due anni della sua vita e, nonostante la salute cagionevole, preparò un'altra edizione dell'Ausdehnungslehre per la pubblicazione. Questa apparve, ma soltanto postuma. 
Grassmann esalò l'ultimo respiro il 26 settembre 1877 a Stettino, una morte dovuta a problemi cardiaci presentatisi dopo un periodo di lenta decaduta della salute.
A conclusione di questa biografia, riportiamo il seguente emblematico e riassuntivo pensiero di Fearnley-Sander:

"Tutti i matematici stanno, come disse Newton, sulle spalle dei giganti, ma pochi si sono avvicinati più di Hermann Grassmann alla creazione, in solitario, di una nuova disciplina."

Passiamo ora finalmente ad illustrare le variabili di Grassmann.

martedì 8 novembre 2022

LA SCOPERTA DEL POSITRONE

Oggi ci soffermeremo nel dettaglio su un'importantissima scoperta nella storia della fisica moderna, ovvero quella del positrone, l'antiparticella dell'elettrone.
Partiremo con una breve premessa un po' tecnica, dopodiché prometto che la narrazione diventerà molto più fruibile anche per il lettore non avvezzo al formalismo matematico della meccanica quantistica e della relatività ristretta.
È ben noto che l'equazione fondamentale alla base della meccanica quantistica è l'equazione di Schrödinger (ne abbiamo parlato qui e qui)





qui scritta per particella libera (ossia in assenza di potenziale) e assumendo l'uso di unità naturali, cioè ponendo $\hbar = 1$.
Ovviamente più in generale possiamo scriverla come

$i \frac{\partial}{\partial t} | \psi (t) \rangle = H | \psi(t) \rangle$,

ove $H$ denota l'hamiltoniana di una particella libera non relativistica, ovvero

$H = \frac{\mathbf{p}^2}{2m}$.

Detto ciò, una domanda lecita sarebbe chiedersi come sia possibile estendere l'equazione di Schrödinger al caso di una particella relativistica.
Ciò che immediatamente si può fare è scrivere l'hamiltoniana grazie alla relazione di dispersione relativistica

$H = \sqrt{\mathbf{p}^2 + m^2}$,

dove abbiamo imposto, per via delle unità naturali, la velocità della luce $c = 1$ (non utilizzando le unità naturali la relazione sarebbe stata $H = \sqrt{c^2 \mathbf{p}^2 + c^4 m^2}$).
Se si andasse ad utilizzare questa nuova $H$ all'interno dell'equazione di Schrödinger si otterrebbe:






Trattasi di un'espressione problematica per essere una relazione relativistica dato che le derivate spaziali e temporali sono di ordine diverso e ciò non la rende invariante di Lorentz.
Per cercare di risolvere il problema, ossia cercare di rendere quantomeno uguale l'ordine delle derivate temporale e spaziale, possiamo provare ad applicare il termine $i \frac{\partial}{\partial t}$ a tutta l'equazione precedente, il che conduce all'espressione


 



Trattasi della cosiddetta equazione di Klein-Gordon (proposta da Oskar Klein e Walter Gordon nel 1926) per la funzione d'onda $\psi(\mathbf{x},t)$, equazione che risulta consistente con la relazione di dispersione relativistica se compiamo le seguenti identificazioni:





in cui ovviamente $H$ e $\mathbf{p}$ sono rispettivamente l'operatore hamiltoniano e l'operatore momento.
Un ultimo piccolo importante step da compiere è usare le seguenti relazioni





le quali ci permettono di scrivere l'equazione di Klein-Gordon nella sua forma covariante (per i pignoli, abbiamo assunto la convenzione "mostly minus" del tensore metrico $\eta^{\mu \nu}$ dello spazio-tempo di Minkowski):





L'equazione così scritta è invariante di Lorentz in modo esplicito, dato che $\psi(\mathbf{x},t)$ ed $m$ sono scalari, mentre $\partial_{\mu} \partial^{\mu} = \frac{\partial^2}{\partial t^2} - \nabla^2 \equiv \partial^2 \equiv \Box$, cioè l'operatore dalembertiano, è uno scalare di Lorentz in quanto prodotto scalare di quadrivettori.
Detto ciò, l'equazione di Klein-Gordon continua ad avere dei problemi.
Innanzitutto $|\psi(\mathbf{x},t)|^2$, ovvero la densità di probabilità in meccanica quantistica, non è conservata (cioè non è indipendente dal tempo) giacché abbiamo ben 2 derivate temporali nell'equazione di Klein-Gordon.
L'equazione di Klein-Gordon non può oltretutto descrivere particelle aventi spin e presenta anche stati ad energia negativa come soluzioni, il che implicherebbe densità di probabilità negative, assolutamente non consistenti con l'interpretazione probabilistica tipica della meccanica quantistica non relativistica.
Insomma, sarebbe decisamente sbagliato considerare l'equazione di Klein-Gordon come un'equazione di Schrödinger relativistica; quella di Klein-Gordon è semplicemente un'equazione d'onda relativistica!
Tale problematica venne affrontata nientemeno che dal mitico Paul Adrien Maurice Dirac (1902-1984), il quale riuscì nell'impresa di pervenire, nel 1928, ad un'equazione, la famosa equazione di Dirac (di seguito scritta in forma covariante)

$(i\!\!\not\! \partial - m) \psi(\mathbf{x},t) = 0$,

che presenta derivata spaziale e temporale entrambe del 1° ordine.
Tale equazione è tuttavia valida per gli spinori, non per funzioni d'onda scalari e, in particolare, serve a descrivere le particelle con spin semi-intero chiamate fermioni (tra cui troviamo anche l'elettrone e il positrone).
Non entreremo nel dettaglio della spiegazione di tale equazione, che andrebbe ben al di là degli scopi di questo post (gli interessati possono trovare una spiegazione già in alcuni testi della bibliografia in fondo al post).
Prima però di capire come tutto questo si ricolleghi alla scoperta del positrone voglio sottolineare il fatto che negli ultimi anni sia uscita una certa moda che consiste nel tatuarsi sul corpo l'equazione di Dirac e denominarla come "formula dell'amore".
Il problema sta nel fatto che non solo la suddetta equazione non ha nulla a che vedere con l'amore (magari già il bizzarro concetto quantistico di entanglement avrebbe leggermente più senso in tal direzione), ma spesso viene pure scritta in modo totalmente sbagliato, cioè per esempio come segue.

 

 













In questo caso non solo è chiaramente sbagliato l'utilizzo del segno +, ma c'è pure un dettaglio non da poco che manca: la slash notation
Quella barretta che risulta inserita nella vera equazione di Dirac non è infatti messa lì a caso, come fosse una trollata da parte dei fisici per complicare la vita dei poveri mortali, ma ha un significato ben preciso che coinvolge le cosiddette matrici gamma
Insomma, se proprio volete tatuarvela, vi consiglio di tatuarvi quella giusta per non farvi prendere in giro da coloro (seppur pochi 😉) che conoscono davvero l'equazione di Dirac.
Tornando alle cose serie, vi starete giustamente chiedendo a cosa sia servita tutta questa piuttosto pesante premessa.
Essa è servita in primis per farvi capire come non sia banale considerare assieme la meccanica quantistica e la relatività speciale (non mettiamo poi nel calderone la relatività generale, la cui unificazione con la meccanica quantistica è un problema ancora apertissimo in fisica).
Infatti spesso quando si parla di meccanica quantistica + relatività speciale ci si riferisce ad una teoria nota come teoria quantistica dei campi o, in inglese, quantum field theory (abbreviata QFT).
Ecco, se pensate che la meccanica quantistica sia qualcosa di molto complesso, la QFT rappresenta un netto ulteriore step in complessità, oltre a costituire un vero e proprio framework per la fisica moderna ed essere la base teorica della fisica delle particelle.
La premessa è servita poi per farvi quantomeno comprendere perché, nella storia della fisica moderna, non è stata sufficiente l'introduzione dell'equazione di Klein-Gordon e fu necessario il geniale contributo di Dirac per poter compiere giganteschi passi avanti nel tentativo di fusione tra meccanica quantistica e relatività ristretta.
Il nocciolo della questione viene in particolare dal fatto che, così come l'equazione di Klein-Gordon, pure quella di Dirac ammette soluzioni con energie negative!
Ciò implicherebbe la non esistenza di uno stato fondamentale (ground state) del sistema, poiché le particelle tenderebbero sempre a preferire di dirigersi verso stati ad energia negativa.
Oltretutto, tenendo conto che l'equazione di Dirac descrive i fermioni, e i fermioni sono quelle particelle che debbono obbedire al noto principio di esclusione di Pauli (leggete qui), si potrebbe supporre (come fece Dirac) che tutti gli stati ad energia negativa siano occupati, ossia che sussista il cosiddetto "mare di Dirac" inaccessibile alle particelle con energia positiva a causa del principio di Pauli.
Ecco un'immagine illustrativa della situazione tratta dal testo Particle Physics di Martin e Shaw.


  
 

 














Sarebbe tuttavia chiaramente possibile eccitare (in qualche modo) una particella situata nel mare infinito di Dirac delle energie negative verso la regione delle energie positive, totalmente vuota.
Il risultato sarebbe avere una buca nel mare di Dirac, tecnicamente (nel linguaggio tipico della fisica dei semiconduttori) una lacuna (in inglese hole), come ben mostra la seguente immagine.

Fonte: https://oer.physics.manchester.ac.uk/NP/Notes/Notes/Notesse28.xht














Tale lacuna (il pallino bianco della figura) è sostanzialmente un'antiparticella, cioè, in parole povere, una particella che presenta la medesima massa (ed altre proprietà) della particella originaria ma carica elettrica opposta.
Quando una particella e un'antiparticella interagiscono avviene il fenomeno dell'annichilazione, che dà luogo a particelle più leggere con rilascio di energia.
L'antiparticella dell'elettrone $e^-$ è proprio il positrone $e^+$; le 2 particelle interagiscono nello specifico a bassa energia secondo questa relazione:
 



L'introduzione del concetto di antiparticella rimase un puro risultato teorico proprio sino alla scoperta sperimentale del positrone. Entriamo ora finalmente nei meandri dell'interessante storia inerente alla suddetta scoperta. 

sabato 8 ottobre 2022

L'EQUAZIONE DI LANE-EMDEN

Il presente post è dedicato a un'equazione rilevante in ambito astrofisico: l'equazione di Lane-Emden.
L'ispirazione nel voler approfondire tale tematica è venuta tempo fa leggendo su Twitter uno splendido thread di Nereide, alias la Prof.ssa Annarita Ruberto, che riguardava l'affascinante nebulosa oscura Barnard 68.
Infatti, nel thread (che potete leggere cliccando qui) ho trovato il riferimento ad un paper di ricerca astrofisica, di Burkert ed Alves, nella cui appendice si discute brevemente di una forma speciale della sopracitata equazione utile in quel contesto specifico.
Cerchiamo dunque di scoprire il più dolcemente possibile (maggiori dettagli possono essere reperiti nella bibliografia in fondo al post) l'interessante equazione di Lane-Emden.
Per cominciare dobbiamo fare alcune considerazioni di natura idrostatica.
Agli inizi del XX secolo il problema della struttura interna e dell'evoluzione futura del Sole costituiva un vasto ambito di ricerca.
Tuttavia, nonostante non fossero ben chiare le origini del "potere radiativo" della nostra stella (fondamentale fu il contributo, nel contesto della fusione nucleare, di Hans Bethe, nel 1939, con l'introduzione della famosa catena protone-protone), questo non impedì di risolvere equazioni inerenti alla sua struttura interna.
Infatti, il primo contributo in tal direzione giunse da parte dell'astronomo statunitense Jonathan Homer Lane (1819-1880).
Le sue ricerche (condensate nell'articolo "On the theoretical temperature of the Sun, under the hypothesis of a gaseous mass maintaining its volume by its internal heat, and depending on the laws of gases as known to terrestrial experiment", datato 1869) hanno infatti dimostrato le relazioni termodinamiche tra pressione, temperatura e densità del gas all'interno del Sole.
Il punto essenziale della questione risiede nel fatto che la configurazione statica di una sfera gassosa (come il Sole o una qualsivoglia generica stella), tenuta insieme dall'autogravità, deve soddisfare la condizione di equilibrio idrostatico:

$\nabla p = - \rho g$,

dove $p$ è la pressione (che ricordiamo essere una quantità scalare), $\rho$ è la densità, $g$ è l'accelerazione di gravità e $\nabla$ è, come sempre, l'operatore nabla che applicato a $p$ fornisce il gradiente di pressione $\nabla p$.
In pratica tale equazione ci dice che la pressione ad ogni punto nell'interno di una stella è sufficiente per bilanciare il peso degli strati sovrastanti. 
Tenendo ora conto della legge di gravitazione universale possiamo scrivere che

$g = G \frac{M_r}{r^2}$,

in cui $G$ è la costante di gravitazione universale ed $M_r$ è la massa contenuta entro la sfera avente raggio $r$.
Tale massa è in particolare fornita da:

$M_r = \int_0^r 4 \pi \, r^{'2} \rho(r') \,  \mathrm{d}r'$.

L'equilibrio meccanico di una stella può pertanto essere riassunto nelle seguenti 2 equazioni differenziali:

$\nabla p = - G \frac{\rho M_r}{r^2}$

$\frac{\mathrm{d}M_r}{\mathrm{d}r} = 4 \pi \, r^2 \rho$. 

Esse si possono condensare nell'unica equazione:

$\rho = - \frac{1}{4 \pi G r^2} \frac{\mathrm{d}}{\mathrm{d}r} \left ( \frac{r^2}{\rho} \frac{\mathrm{d}p}{\mathrm{d}r} \right )$.

La suddetta equazione differenziale contiene entrambe le variabili fisiche $p$ e $\rho$, per tal ragione non è sufficiente a risolvere il problema del modello dell'interno di una stella.
Soltanto attraverso l'utilizzo di una relazione funzionale tra le 2 variabili, relazione per forza approssimata, si può ricavare una soluzione del problema.
Un tipico esempio di questo modo di procedere è proprio dato dalla soluzione di Lane-Emden, la quale si ottiene supponendo che l'equazione di stato barotropica (ovvero la relazione $p$-$\rho$) sia una relazione politropica del tipo

$p = K \, \rho^{1+ \frac{1}{n}}$,

ove $K$ è una costante di proporzionalità (dipendente dalla natura del fluido politropico), mentre $n $ denota il cosiddetto indice politropico.
Come spiegò il famoso fisico indiano (premio Nobel nel 1983) Subrahmanyan Chandrasekhar (1910-1995) nel suo brillante testo, datato 1939, Introduction to the Study of Stellar Structure, "Le trasformazioni politropiche furono inizialmente introdotte in termodinamica da G. Zeuner e sono state ampiamente utilizzate da Helmholtz e, in particolare, da Emden".
Un'interessante curiosità: l'astrofisico svizzero Jacob Robert Emden (1862-1940), tra i fondatori nel 1930 e redattore della rivista Zeitschrift fur Astrophysik, fu il marito di Klara Schwarzschild, sorella del celebre fisico tedesco Karl Schwarzschild (1873-1916), noto per i suoi fondamentali contributi inerenti alla relatività generale e, in particolare, per il concetto di raggio di Schwarzschild nello studio dei buchi neri.
Tornando al nocciolo della narrazione, dato che la trasformazione politropica (il suddetto termine tecnico venne utilizzato per la prima volta proprio da Emden nella sua opera Gaskugeln del 1907) deve essere in equilibrio idrostatico, ne consegue che la distribuzione di pressione e densità deve essere consistente con l'equazione dell'equilibrio idrostatico e con la legge di conservazione della massa.
Nel dettaglio, se riprendiamo la nostra equazione dell'equilibrio idrostatico (esplicitando $\nabla p$ come $\mathrm{d}p/\mathrm{d}r$)

$\frac{\mathrm{d}p}{\mathrm{d}r} = - \rho g = - \rho G \frac{M_r}{r^2}$

e adesso dividiamo tutto per $\rho$, moltiplichiamo tutto per $r^2$ e consideriamo la derivata rispetto ad $r$ in entrambi i membri dell'equazione, otteniamo la seguente formula:

$\frac{\mathrm{d}}{\mathrm{d}r} \left ( \frac{r^2}{\rho} \frac{\mathrm{d}p}{\mathrm{d}r} \right ) = - G \frac{\mathrm{d}M_r}{\mathrm{d}r} = - 4 \pi G r^2 \rho$.

Essa può essere riscritta come

$\frac{1}{r^2} \frac{\mathrm{d}}{\mathrm{d}r} \left ( \frac{r^2}{\rho} \frac{\mathrm{d}p}{\mathrm{d}r} \right ) = - 4 \pi G \rho$.

Questa è l'equazione di Poisson per il potenziale gravitazionale!
Per convincersene, è sufficiente ricordare che

$g = \frac{\mathrm{d} \Phi}{\mathrm{d}r} = G \frac{M_r}{r^2}$,

ove $\Phi$ denota il potenziale gravitazionale, e far riferimento al fatto che

$\frac{\mathrm{d}p}{\mathrm{d}r} = - \frac{G M_r}{r^2} \rho$.

Infatti, con pochi semplici passaggi si arriva alla celebre formula

$\nabla^2 \Phi = 4 \pi G \rho$,

ossia l'equazione di Poisson per il potenziale gravitazionale nell'usuale formalismo con il laplaciano del potenziale $\nabla^2 \Phi$.
Per capire l'origine storica e matematica del concetto di potenziale vi consiglio di leggere un post d'archivio cliccando qui
Se avete visionato il link appena fornito vi sarete resi conto come l'equazione di Poisson non sia altro che una generalizzazione dell'equazione di Laplace.
Vorrei aggiungere qui che l'equazione di Poisson, specialmente nell'ambito dell'elettrostatica, cioè $\nabla^2 \phi = - \frac{\rho}{\varepsilon}$ (ove $\phi$ è il potenziale elettrico, $\rho$ è la densità di carica ed $\varepsilon$ è la permittività elettrica), ha un'importanza cruciale.
Il suo ruolo è per esempio essenziale quando vogliamo studiare strutture formate da semiconduttori (alla base dei moderni dispositivi elettronici a stato solido), come la nota giunzione p-n (ma anche strutture più complesse), e arrivare a determinare il campo elettrico ed il potenziale elettrico ivi presente.

venerdì 10 giugno 2022

STEFAN BANACH: IL FONDATORE DELL'ANALISI FUNZIONALE

Il presente post è dedicato a ricordare uno straordinario matematico polacco, Stefan Banach (1892-1945), considerato non solo il padre della moderna analisi funzionale, ma anche uno dei matematici più influenti del XX secolo (nonostante fosse praticamente autodidatta!).
Ma partiamo dalle origini.

Stefan Banach nacque il 30 marzo 1892 al St. Lazarus General Hospital, presso Cracovia, da Stefan Greczek e Katarzyna Banach.
Il lettore attento avrà immediatamente notato che egli ereditò il nome dal padre ma il cognome dalla madre, madre che lo abbandonò appena dopo il battesimo, ovvero quando aveva solo 4 giorni di vita!
Il padre mantenne sempre il segreto sull'identità della madre, nonostante il desiderio del figlio di saperne di più.
Il bambino venne portato a Ostrowsko (piccolo villaggio situato circa 50 km al di sotto di Cracovia), paese di origine del padre, ed affidato, quantomeno per il primo periodo, alla nonna.
Tuttavia dopo pochi anni la nonna si ammalò e, di conseguenza, Greczek decise di affidare suo figlio a Franciszka Plowa, la quale viveva a Cracovia assieme a sua figlia Maria.
Interessante dettaglio sta nel fatto che il tutore di Maria fosse un intellettuale francese, Juliusz Mien, il quale percepì immediatamente il grande potenziale del giovane Banach e decise di istruirlo riguardo alla lingua francese, oltre a spingerlo probabilmente verso la matematica.
Banach frequentò la scuola primaria a Cracovia, dopodiché, all'età di 10 anni, ossia nel 1902, si iscrisse al IV Ginnasio.
Sebbene si trattasse di una scuola indirizzata fortemente verso un'educazione di tipo umanistico, il giovane ebbe la fortuna di avere come compagno di classe (e suo migliore amico) Witold Wiłkosz (1891-1941), anch'egli futuro matematico!
Durante le pause e nei dopo scuola i 2 ragazzi trascorrevano gran parte del tempo a divertirsi nel risolvere problemi matematici.
Tale scuola non si dimostrò però particolarmente stimolante al punto che Wiłkosz decise di abbandonarla nel 1906 per iscriversi ad un miglior Ginnasio; Banach invece resto lì ma si mantenne in stretto contatto con l'amico.
In ogni caso l'interesse del giovane studente era totalmente rivolto alla matematica; le altre discipline non lo interessavano affatto, al contrario di Wiłkosz che mostrava passione e talento anche per la fisica.
Banach superò l'esame finale di Ginnasio nel 1910, ma non con la lode, dato che i suoi voti erano man mano calati durante il suddetto percorso scolastico secondario.
Si potrebbe ora pensare che l'ovvia scelta nel proseguimento degli studi di Banach e di Wiłkosz fosse la matematica universitaria.
In realtà il corso degli eventi non fu così banale; infatti, i 2 amici, seppur appassionati di matematica, ritenevano che nulla di nuovo potesse essere scoperto in quel settore e dunque Banach si incamminò verso l'ingegneria (nello specifico alla Lemberg Technical University, nell'attuale Leopoli in Ucraina), mentre Wiłkosz verso le lingue orientali.
Probabilmente tale scelta controversa si dovette anche al fatto che non ci fu la presenza di particolari figure di supporto e di sprone nei confronti della loro vera passione, qualcuno magari in grado di renderli consci del fatto che, in verità, la matematica costituiva ancora un "mondo intero" da esplorare e rinnovare.
Al giorno d'oggi siamo infatti ancora pieni di rilevanti problemi irrisolti in matematica (come i noti "Problemi del millennio") e l'espansione della matematica in svariate branche, alcune totalmente nuove, ha fatto sì che ormai sia difficile parlare di persone che possano vantare una conoscenza a tutto tondo della matematica (l'ultimo matematico a cui spesso si attribuisce una "conoscenza matematica universale" fu Poincaré e talvolta anche von Neumann, due veri giganti della disciplina).
Con buona probabilità, dato che non poteva contare su un solido sostegno economico, Banach dovette mantenersi facendo del tutoraggio, cosa che gli comportò una grossa perdita di tempo, portandolo a laurearsi un po' in ritardo nel 1914.
Allo scoppio della Prima guerra mondiale, Banach venne esonerato dal servizio militare poiché era mancino e la sua vista non risultava molto buona.
Quando poi l'esercito russo occupò Leopoli, Banach si trasferì a Cracovia, ove rimase per tutto il periodo restante della guerra e ivi riuscì a frequentare anche delle lezioni di matematica alla Jagiellonian University.
Se per Einstein, come ben noto, il 1905 fu l'annus mirabilis, l'anno in cui la sua figura divenne leggendaria grazie a ben 4 straordinari articoli pubblicati sulla rivista Annalen der Physik, l'anno in cui la vita e la carriera di Banach svoltarono fu sicuramente il 1916, in particolare la primavera.
Quello che leggerete ora potrebbe sembrare un aneddoto di fantasia ma è ciò che accadde realmente.
Il grande matematico polacco Hugo Steinhaus (1887-1972) viveva proprio a Cracovia in quel periodo.
Una sera, camminando per le strade della città polacca, si ritrovò ad ascoltare per puro caso, al Planty Park, le parole "misura di Lebesgue".

Planty Park (immagine presa da Wikipedia)
















Incuriosito (visto che a quei tempi tale concetto risultava piuttosto nuovo ed originale), Steinhaus si avvicinò alla panchina del parco e si presentò a 2 giovani che discutevano di matematica: erano Banach e Otto Nikodym.
Il suddetto incontro fortuito portò alla creazione (il 2 aprile 1919) di un'importante società matematica, la Polish Mathematical Society.
Oltre a ciò, Steinhaus sottopose all'attenzione di Banach un problema a cui non riusciva a trovare una soluzione.
La mente geniale di Banach gli consentì di pervenire alla soluzione in una settimana! Il risultato finale di quel proficuo scambio culturale fu un articolo congiunto di Steinhaus e Banach intitolato Sur la convergence en moyenne de séries de Fourier (ovvero "Sulla convergenza in media della serie di Fourier"), sottoposto all'attenzione di Stanisław Zaremba per la pubblicazione (avvenuta nel 1918).
Anche per quanto concerneva l'aspetto sentimentale della sua vita Banach doveva molto a Steinhaus; infatti tramite il collega conobbe quella che sarebbe stata la sua futura moglie, ossia Łucja Braus, con cui convolò a nozze nel 1920.
La produzione di articoli matematici di Banach dal momento del sodalizio con l'altro grande matematico polacco crebbe in maniera assai celere.
Il suo appoggio gli consentì persino di ricevere un dottorato in matematica (ricordiamo infatti che Banach non era laureato in matematica bensì in ingegneria!).
La sua tesi di dottorato, accettata da quella che è l'attuale Università di Leopoli (fondata nel 1661 da Giovanni II Casimiro di Polonia) nel 1920 e pubblicata nel 1922, poneva le basi di una nuova branca della matematica: l'analisi funzionale.
Per correttezza è necessario specificare che ricerche in tal ambito vennero compiute anche qualche anno prima del fatidico contributo di Banach.
Infatti, già a partire dal 1906, il matematico statunitense E.H. Moore (1862-1932) tentò di dar luce ad una teoria astratta dei funzionali (abbiamo parlato di tal concetto un po' qui) e degli operatori lineari.
Altri contributi in tal direzione giunsero in particolare da Erhard Schmidt, Maurice Fréchet, Frigyes Riesz, Hans Hahn, Eduard Helly e Norbert Wiener.
Ma perché tra tutti questi nomi rilevanti spicca proprio quello di Banach, ritenuto ufficialmente il fondatore dell'analisi funzionale?
Innanzitutto Banach desiderava stabilire una generalizzazione delle equazioni integrali, nello specifico il suo obiettivo era costruire una teoria astratta in grado di fornire un'alternativa valida e migliore rispetto al calcolo delle variazioni.
Per pervenire a tal obiettivo Banach introdusse uno spazio dotato di una norma, ma che non fosse definita facendo riferimento al prodotto scalare.
Cerchiamo di capire un pochino meglio almeno gli aspetti basilari della questione.
Prendiamo un generico spazio lineare (cioè spazio vettoriale) $L$ di elementi $x, y, z, ...$
Possiamo chiamare norma (denotata mediante il tipico simbolo $\left \|  \right \|$) in $L$ un funzionale che soddisfa 4 condizioni essenziali:

1) $\left \| x \right \| \geq 0$;

2) $\left \| x \right \| = 0$ se e solo se $x = 0$;

3) omogeneità: $\left \| ax \right \| = |a| \cdot \left \| x \right \|  $, ove $a$ è uno scalare;

4) disuguaglianza triangolare: $\left \| x + y \right \| \leq \left \| x \right \| +  \left \| y \right \| $.

Naturalmente uno spazio lineare $L$ in cui è definita una norma viene anche detto spazio normato.
Ogni spazio normato può esser visto come uno spazio metrico (ne parlammo, tra le altre cose, qui) se definiamo la distanza come $\rho(x,y) = \left \| x - y \right \| $.
Per arrivare tuttavia alla definizione vera e propria di spazio di Banach, concetto a dir poco fondamentale nell'ambito dell'analisi funzionale, manca un piccolo tassello nel nostro puzzle: la completezza!
A tal proposito abbiamo bisogno di introdurre la nozione di successione di Cauchy (o successione fondamentale).
Dato un generico spazio metrico $R$, una successione $\left \{ x_n \right \}$ è detta di Cauchy se, $\forall \varepsilon > 0$, esiste un numero $N_{\varepsilon}$ tale che la distanza $\rho(x_{n'}, x_{n''}) < \varepsilon$   $\forall n' > N_{\varepsilon}$ e $\forall n'' > N_{\varepsilon}$.
Ora aggiungiamo che se ogni successione di Cauchy risulta convergente in $R$, allora questo spazio metrico è completo.
Giacché le proprietà degli spazi metrici si possono estendere anche agli spazi normati, la conclusione di questo importante discorso è che uno spazio di Banach non è altro che uno spazio normato completo!
Un'importantissima osservazione che possiamo compiere relativamente agli spazi di Banach sta nel fatto che uno spazio di Banach rappresenta un concetto più generale rispetto ad uno spazio di Hilbert (nozione su cui si poggia, tra le altre cose, in maniera massiva la meccanica quantistica), proprio perché abbiamo constatato che per definire una norma non abbiamo necessariamente bisogno di un prodotto scalare, cosa di cui invece abbiamo certamente bisogno quando parliamo di spazi di Hilbert.
In altri termini, ogni spazio di Hilbert è sicuramente uno spazio di Banach. Viceversa, uno spazio di Banach è anche uno spazio di Hilbert se, e solo se, la sua norma è indotta da un prodotto scalare!
Se considerassimo uno spazio di Banach che non sia anche di Hilbert esso perderebbe sostanzialmente il concetto essenziale di ortogonalità di 2 elementi.
A seguito di questo doveroso excursus, facciamo ora ritorno all'ultima parte della biografia di Banach.
La poderosa tesi inerente all'analisi funzionale venne discussa all'interno dei circoli accademici e rappresentò la spinta definitiva utile al matematico per venir nominato professore presso il Politecnico di Leopoli.
Allo stesso tempo, ottenne pure la la seconda Cattedra di Matematica dell'Università di Leopoli.
Il periodo di mezzo tra le 2 guerre mondiali fu estremamente impegnativo per Banach: oltre a continuare nella produzione continua di paper di ricerca, si dedicò alla scrittura di manuali scolastici di aritmetica, geometria ed algebra.
Nel 1929, assieme a Steinhaus, fondò una nuova rivista matematica, Studia Mathematica, dedicata principalmente alla ricerca nel campo dell'analisi funzionale ed argomenti affini.
Sempre in quel periodo Banach incominciò a produrre quella che è considerata la sua opera più famosa, la prima monografia concernente la teoria generale dello spazio lineare-metrico, intitolata Teoria operacji liniowych (pubblicata nel 1931).
L'opera venne tradotta l'anno dopo in francese, traduzione che contribuì a farle ottenere un più ampio riconoscimento da parte dei circoli accademici europei.
Essa costituì peraltro la prima di una corposa serie di monografie a cura di Banach e della sua cerchia di matematici, la cosiddetta "Scuola di Leopoli", i quali erano soliti riunirsi al Caffè Scozzese nel centro storico di Leopoli.
Vediamone la magnifica immagine tratta da Wikipedia.




















Purtroppo sappiamo bene che nel 1939 scoppiò la Seconda guerra mondiale e Leopoli finì sotto il controllo dell'Unione Sovietica per quasi 2 anni.
Intanto Banach divenne membro corrispondente dell'Accademia delle scienze dell'Ucraina e, in buoni rapporti con i matematici sovietici, si trovò costretto a promettere di imparare l'ucraino per poter mantenere la sua cattedra e continuare le sue attività accademiche.
Ma la situazione non restò così a lungo. Infatti, per via dell'Operazione Barbarossa, nel giugno 1941 i tedeschi conquistarono Leopoli e tutte le università vennero di conseguenza chiuse.
Banach fu arrestato con l'accusa di traffico di valuta tedesca ma rilasciato dopo poche settimane. Sopravvisse a un periodo in cui vennero assassinati accademici polacchi e il suo supervisore di dottorato Lomnicki morì nella tragica notte del 3 luglio 1941 quando si verificarono molti massacri.
Verso la fine del 1941 Banach lavorò (assieme a diversi colleghi e a suo figlio) come "alimentatore di pidocchi" nell'istituto tedesco che si occupava di malattie infettive (in particolare era in corso una ricerca sul tifo epidemico). Nutrire i pidocchi rappresentò sostanzialmente la sua vita durante il resto dell'occupazione nazista di Leopoli fino al luglio 1944.
Non appena le truppe sovietiche presero nuovamente possesso di Leopoli (nella cosiddetta "Offensiva Leopoli-Sandomierz"), Banach rinnovò i suoi contatti all'Università.
Tuttavia, poiché i sovietici stavano rimuovendo i polacchi dai territori annessi precedentemente della Polonia, Banach cominciò a prepararsi a lasciare la città e a stabilirsi a Cracovia, dove gli era stata promessa una cattedra all'Università Jagellonica. 
Fu anche considerato come candidato alla carica di ministro dell'Istruzione della Polonia. 
Nel gennaio 1945 gli fu però diagnosticato un cancro ai polmoni e gli venne concesso di rimanere a Leopoli. 
Banach esalò l'ultimo respiro il 31 agosto 1945, all'età di 53 anni. Al suo funerale, al cimitero di Lychakiv, parteciparono centinaia di persone.
Concludiamo ricordando che, oltre all'introduzione del fondamentale concetto di spazio di Banach e ai suoi lavori pionieristici nell'ambito dell'analisi funzionale, Banach diede anche importanti contributi alla teoria degli spazi vettoriali topologici, alla teoria della misura, alla teoria degli insiemi e alla teoria dei polinomi ortogonali, e il suo nome è associato anche alla cosiddetta algebra di Banach e al celebre paradosso di Banach-Tarski relativo alla decomposizione di una singola sfera in 2 sfere.

----------------------------------------------------------------------------------------
Fonti essenziali:



- Storia del pensiero matematico (II. Dal Settecento a oggi) di Morris Kline