mercoledì 26 dicembre 2012

LA FISICA FRA I BANCHI DI SCUOLA!

La tematica portante del prossimo Carnevale della Fisica, ovvero l'edizione n.38 (che verrà curata, il prossimo 30 dicembre, da Walter Caputo sul blog Risparmiare, fare, guadagnare in tempo di crisi), è "l'insegnamento della Fisica nelle scuole superiori".
Nel presente post vorrei compiere appunto delle riflessioni personali a riguardo.
La fisica è considerata dai più una materia ostica e noiosa.
Essa risulta difficile allo studente che si approccia per la prima volta ad essa probabilmente a causa della molta matematica alla sua base.
E sì, il linguaggio della fisica è proprio la matematica, quello che può aiutarci a capire i meccanismi dell'intero Universo.
Ritengo che togliere l'approccio matematico alla Fisica studiata nelle scuole superiori sarebbe sbagliato, ma, allo stesso tempo, penso che non si debba, come generalmente si fa (soprattutto a causa di programmi stringenti che impongono una tipologia di insegnamento ben preciso), presentare la fisica ai ragazzi come un potpourri di formule da imparare a memoria!
Tra l'altro, queste formule, a volte, non sono neanche così rigorose, dato che vengono affrontate senza avere a disposizione strumenti matematici efficaci come il calcolo differenziale ed integrale.

lunedì 24 dicembre 2012

AUGURI (MUSICALI) DI BUON NATALE!

Auguro a tutti i lettori del blog Scienza e Musica un felice e sereno Natale!


















Vi fornisco qualche magnifico brano natalizio da ascoltare durante queste feste:

giovedì 20 dicembre 2012

10 BRANI DA ASCOLTARE PRIMA DELLA (NON) FINE DEL MONDO!

Domani sarà il 21 dicembre 2012, un giorno qualunque se non fosse per queste fantomatiche profezie Maya che sembrano preannunciare la "fine del mondo" nel suddetto giorno.

Molto probabilmente (anzi, possiamo dire certamente) non si verificherà alcuna fine del mondo.
Tuttavia, supponiamo, come fanno i matematici, che, per assurdo, il mondo dovesse finire domani.
Ebbene, ragionando in questa stramba maniera, ho deciso di proporvi 10 straordinari brani musicali (ovviamente ce ne sarebbero migliaia di altri da proporre) a cui bisognerebbe dare assolutamente un ascolto prima della (non) fine del mondo.
Questi brani sono disposti in un preciso ordine per creare un climax ascendente, cioè dai toni lugubri sino a quelli gioiosi e festosi.
Si parte!

venerdì 14 dicembre 2012

CARNEVALE DELLA MATEMATICA #56: ALGEBRA, ALGEBRE E STORIA DELL'ALGEBRA


"L'algebra è lo strumento intellettuale che è stato creato per rendere chiari gli aspetti quantitativi del mondo." Alfred North Whitehead




Benvenuti alla 56° edizione del Carnevale della Matematica!
La tematica di questo mese è "Algebra, algebre e storia dell'algebra".
Cosa si può dire in merito al suddetto argomento? Moltissimo, dato che l'algebra rappresenta certamente una delle branche più significative e vaste dell'intera Matematica.
L'algebra, come definita su Wikipedia, è quella branca che si occupa di strutture algebriche, relazioni e quantità.
Molti (intendendo le persone comuni e non i matematici di professione) ricollegano il termine "algebra" alla sola "algebra elementare" (o "classica"), quella che viene studiata nelle scuole italiane a partire dalla terza media e che viene approfondita nelle scuole superiori.
Tale tipologia di algebra è focalizzata specialmente su concetti come monomi, polinomi, equazioni, sistemi di equazioni, disequazioni e così via.
L'algebra elementare permette agli studenti di compiere un primo importantissimo passo verso l'astrazione, concetto decisamente di primo ruolo in Matematica.
Infatti, gli scolari vengono catapultati dal mondo "tranquillo" dei numeri e, precisamente, dell'aritmetica, con le sue operazioni fondamentali (addizione, sottrazione, moltiplicazione, divisione, elevamento a potenza e così via), a quello dell'algebra, dominato da quantità ignote, misteriose, le incognite, segnalate non da numeri bensì da lettere (in primis la celebre x).
Come asserì Lucio Lombardo Radice in un intervento radiofonico del 14 aprile 1972:

"Quanto all'algebra classica, quella che oggi si studia nelle scuole secondarie superiori (con qualche anticipazione alla scuola media) non solo è un'astrazione, ma è un'astrazione di alto livello, frutto di una lunghissima elaborazione di parecchie civiltà, dalla greca all'indiana all'araba. "Questa è algebra!" è addirittura un modo di dire, per indicare qualcosa di così astratto da risultare incomprensibile all'uomo comune; ed è un modo di dire nato ben prima del libro di Van der Waerden, o dei coevi primi volumi della monumentale opera Elementi di matematica del famoso gruppo Bourbaki."

Il passaggio dal calcolo numerico a quello letterale è quindi di un'importanza cruciale non solo nel percorso dello studente ma anche all'interno della storia della Matematica.
Tuttavia, l'algebra elementare non è l'unica esistente, bensì solamente la più conosciuta tra le "algebre".

domenica 9 dicembre 2012

CARNEVALE DELLA MATEMATICA #56: 2° E ULTIMA CALL FOR PAPERS

Mancano solo 5 giorni all'appuntamento con l'edizione n.56 del Carnevale della Matematica, che verrà ospitata su questo blog.
Il tema portante è, vi ricordo, "Algebra, algebre e storia dell'algebra".
Ricordo anche che la tematica non è assolutamente vincolante: sono graditissimi anche contributi fuori tema, a patto che abbiano comunque delle attinenze con la Matematica.

venerdì 7 dicembre 2012

MATRICI: AUTOVALORI, AUTOVETTORI E DIAGONALIZZAZIONE

Vi avevo promesso nel post "Matrici inverse" che avrei parlato in un altro articolo di autovalori, autovettori e diagonalizzazione.
Ne parleremo qui in relazione alle sole matrici; infatti, tali argomenti potrebbero essere affrontati da un punto di vista più generale (e leggermente più complicato).
Ci accontenteremo, per il momento, della trattazione inerente alle nostre amate matrici.
Innanzitutto, per chi si fosse perso i post precedenti sulle matrici (prerequisiti per leggere senza problemi il presente articolo), ve li elenco immediatamente in ordine cronologico:
Si parte!



Incominciamo a definire gli autovalori e gli autovettori.

mercoledì 28 novembre 2012

IL FUTURO DELLA CHIMICA: LA TAVOLA PERIODICA È GIÀ COMPLETA?

La Chimica è una disciplina che, come abbiamo constatato nel 17° Carnevale della Chimica, ha una storia molto lunga ed articolata.
Oggi siamo pervenuti ad una comprensione molto profonda, grazie alla collaborazione fra Chimica e Fisica, del mondo microscopico.
I chimici hanno prodotto una quantità innumerevole di nuovi composti, soprattutto di natura organica, i quali hanno consentito, ad esempio, uno sviluppo notevole della disciplina medica.
Ma ricordiamo che, alla fine, i composti e le molecole sono formati dai mattoncini fondamentali della Chimica: gli atomi.
Gli atomi sono l'equivalente dei numeri primi in Matematica: se attraverso un prodotto di numeri primi riusciamo a produrre un qualsiasi numero intero positivo, alla stessa maniera differenti tipologie di atomo si "mettono insieme" a formare qualcosa di più complesso, le molecole.
2 o più atomi, inoltre, rappresentano un elemento chimico se posseggono lo stesso numero atomico Z, cioè un egual numero di protoni.

mercoledì 21 novembre 2012

ATTRITO!

In questo post tratteremo un concetto molto importante: l'attrito.
No, non parleremo assolutamente di liti e dispute (il termine "attrito" è sinonimo di "contrasto", "discordia", "dissidio", ecc.), bensì di Fisica.
Che cos'è l'attrito in Fisica?
Innanzitutto diciamo che esso è una forza ed, in particolare, una forza che si oppone al movimento di un corpo.
Senza l'attrito non potremmo compiere usuali azioni della vita quotidiana come camminare, guidare una macchina, trapanare un muro e così via.
Specifichiamo che non esiste una singola tipologia di attrito, bensì diverse.
Le fondamentali sono:
  • attrito radente;
  • attrito volvente;
  • attrito viscoso;
  • attrito idraulico. 

venerdì 16 novembre 2012

CARNEVALE DELLA MATEMATICA N.56: 1° CALL FOR PAPERS

Vi annuncio che il Carnevale della Matematica n.55 è online su MaddMaths! (cliccate qui per accedervi).
Una splendida edizione, curata magnificamente da Roberto Natalini, che ha come tematica portante le "sorprese matematiche"!
Dunque, consiglio a chi non l'avesse ancora fatto di recarsi subito al 55° Carnevale della Matematica.
Tuttavia è giunto il momento di voltare pagina!
Sapete benissimo che i Carnevali Scientifici continuano di mese in mese, attraverso un vero e proprio passaggio del testimone.
Ebbene, questa volta toccherà proprio a Scienza e Musica ospitare la prossima edizione del Carnevale della Matematica, ossia la numero 56, il 14 dicembre.

Il tema (non vincolante) scelto per la suddetta edizione è "Algebra, algebre e storia dell'algebra".

mercoledì 14 novembre 2012

CHIMICA E BELLEZZA: ACIDO LATTICO, MALACHITE, VANADIO E SMALTO

La bellezza designa uno di quei caratteri del mondo che la scienza non è in grado di definire con precisione, in quanto non rappresenta una grandezza "misurabile fisicamente" come la lunghezza, la massa, il tempo e così via.
La bellezza è una caratteristica per lo più di natura soggettiva, anche se, certamente, sussistono pure parametri oggettivi per valutarla.
Se focalizziamo la nostra attenzione, ad esempio, sulla Musica, è si vero che ognuno di noi ha una propria preferenza di genere o di artista, però sussiste anche un lato oggettivo della faccenda, dato che la Musica è un insieme di onde sonore descritte da apposite leggi della Fisica.
A livello strutturale (pertanto oggettivo) non c'è confronto tra, per esempio, il Concerto per Pianoforte e Orchestra n.2 di Rachmaninov



e "il pulcino Pio" (no, mi dispiace, non lo riporto poiché non è degno di questo blog!).
Eppure, nonostante la disparità colossale tra un capolavoro di composizione e una canzoncina costituita da uno stesso ritornello iterato numerosissime volte, senza variazioni significative, il pulcino Pio risulta maggiormente apprezzato e conosciuto ai più rispetto al Concerto di Rachmaninov (d'altronde in radio e in tv la Musica di Rachmaninov non c'è praticamente mai)!
Paradossale (un po' come i paradossi di cui abbiamo parlato qui), ma d'altronde, come stabilisce il detto popolare: "non è bello ciò che è bello, ma è bello ciò che piace"!
Nonostante i problemi che scaturiscono nel parlare del concetto di bellezza, essa si può comunque trattare da un punto di vista scientifico.
Basta considerare, ad esempio, che quando le donne si truccano per farsi belle utilizzano non altro che prodotti chimici.
Ergo, la scienza ha un suo posto di rilievo in merito alla bellezza.
Andremo dunque ad analizzare alcune questioni relative alla tematica "La Chimica della Bellezza", ma anche inerenti al tema speculare "La Bellezza della Chimica"!

mercoledì 7 novembre 2012

NEPERO E LA STORIA DEI LOGARITMI

I logaritmi, fondamentali nozioni matematiche, sono il frutto della mente e degli studi del matematico scozzese John Napier, italianizzato in Giovanni Nepero.

Ci avventureremo dunque all'interno dell'interessante storia dei logaritmi, soffermandoci anche sulla vita di Napier.
Prima di compiere tale escursione, illustriamo brevemente (specialmente per il lettore che non conosce o non ricorda precisamente cos'è un logaritmo) che cos'è effettivamente un logaritmo e le sue proprietà chiave.
Immaginate di avere un numero elevato ad una certa potenza.
Prendiamo, ad esempio, 10², che non è altro che 100.
Se considerassimo il noto meccanismo di radice quadrata, la radice quadrata di 100 non è altro che il numero che elevato all'esponente 2 fornisce 100, cioè 10.
Il concetto di logaritmo (dal greco logos = "ragione", "rapporto" e arithmos = "numero") è abbastanza similare a quello di radice quadrata.
Il logaritmo, però, non ci restituisce il numero di partenza a cui abbiamo applicato la potenza, bensì l'esponente.

giovedì 25 ottobre 2012

LA FISICA E LE RANE: LUIGI GALVANI

La storia della Fisica è assai ricca di singolari protagonisti e bizzarre vicende.
Tra queste troviamo sicuramente gli esperimenti del fisico e fisiologo italiano Luigi Galvani.
Cosa avranno di così particolare?
Beh, se vi dicessi che tali esperimenti riguardano ovviamente la Fisica (e specialmente l'elettromagnetismo), ma anche le rane, potreste rimanere alquanto perplessi.















Cosa diavolo hanno a che spartire tali piccoli anfibi con l'elettromagnetismo?
Giungeremo presto alla risposta.
Innanzitutto addentriamoci nella biografia del nostro protagonista!

venerdì 19 ottobre 2012

CHIMICA E STORIA DEGLI ORMONI

Di ormoni abbiamo brevemente parlato nel post "Uno steroide importante: il cortisone".
Ora approfondiamo un po' il discorso!
Ognuno di noi può esser visto come il risultato dell'azione degli ormoni.
Tali sostanze chimiche determinano infatti numerose questioni come:
  • la quantità di cibo che ingeriamo ogni giorno, ovvero il nostro peso corporeo;
  • il ritmo della nostra crescita durante l'infanzia e l'adolescenza;
  • il fatto di essere in uno stato di buono o cattivo umore;
  • la concentrazione dei sali e del glucosio nel sangue e tantissime altre cose.
Nello specifico, gli ormoni rispondono a un mutamento nell'ambiente cellulare dando luogo ad una opportuna attività fisiologica.
Le molecole di un ormone vengono secrete da cellule regolatrici, cioè in grado di rilevare certe variazioni nel proprio ambiente e liberare conseguentemente l'ormone.
Quest'ultimo, poi, si diffonde attraverso un mezzo fluido (aria, acqua, sangue o liquido extracellulare), manifestando la sua azione su una o più cellule bersaglio, le quali recepiscono l'ormone designato e, come risposta, tendono a intraprendere un'attività cellulare atta ad aiutare l'organismo ad adattarsi al mutamento di partenza.
Ciascuna cellula bersaglio contiene dei recettori, ovvero delle proteine dalla forma particolare, ognuna complementare alla forma di un dato ormone.
Questi recettori sono situati a volte nel citoplasma o nel nucleo cellulare, altre volte nella membrana plasmatica, ovvero sulla superficie della cellula.


















Alla stregua di una chiave che viene immessa nella corrispondente serratura, quando un ormone si lega ad un recettore, ne consegue che la forma del recettore cambia.

mercoledì 10 ottobre 2012

RUSSELL E IL BARBIERE, IL DILEMMA DEL COCCODRILLO E ALTRI SIMPATICI PARADOSSI!

Paradosso significa letteralmente "oltre l'opinione comune".
Nella vita quotidiana ci capita spesso di imbatterci in situazioni che definiamo paradossali poiché determinano un senso di stupore.
Giusto per fare un esempio, il presentarsi di una persona alle audizioni di un talent show canoro, essendo "stonata come una campana".
Può risultare infatti paradossale un'esibizione come la seguente:



in un contesto costituito da (straordinarie) esibizioni come le seguenti:





Oppure, sempre rimanendo in ambito musicale, può risultare paradossale (in tal caso in senso positivo) interpretare un brano "serioso" come la Sinfonia n.5 di Beethoven alla stregua di una salsa:



o un valzer di Strauss alla stregua di un cha cha cha:



Cambiando prospettiva, in Fisica vi sono numerosissimi paradossi; solo per citarne alcuni, quello del gatto di Schrödinger, quello del diavoletto di Maxwell, quello dei gemelli, quello di Olbers e così via.
Ma il termine paradosso assume il suo significato più suggestivo nel campo della logica.

martedì 25 settembre 2012

100.000 VISUALIZZAZIONI E SUPER CARNEVALE SCIENTIFICO!!!!

Sono lieto di annunciare che il blog "Scienza e Musica" ha raggiunto il traguardo di 100.000 visualizzazioni!!! :)



Grazie mille a tutti i lettori!!!!!!

E' un puro caso che tale evento coincida con un evento decisamente più importante e significativo: l'Edizione Unificata dei Carnevali Scientifici, nello specifico di Fisica e Chimica.








domenica 9 settembre 2012

MATRICI INVERSE

Proseguiamo la nostra serie di post con protagoniste le matrici.
Oggi invertiamo la prospettiva: parliamo di matrici inverse!




















State tranquilli: Pippo, a differenza di Rango, non c'entra assolutamente niente con le matrici: quella riportata è solo una simpatica immagine del personaggio disneyano che introduce un cambio di prospettiva, niente di più!
Dal faceto passiamo al serio: cosa sono le matrici inverse?
Primo punto: esse sono sicuramente matrici quadrate!
Secondo punto: prima di definirle, è forse meglio stabilire cos'è una matrice invertibile.

mercoledì 5 settembre 2012

CHIMICA EXTRATERRESTRE: ASTEROIDI, AMMINOACIDI, ASIMMETRIA E PANSPERMIA

2 minuti, 1 minuto, 30 secondi, 15 secondi, 10, 9, 8, 7, 6, 5, 4, 3, 2, 1, IMPATTO!



Quando pensiamo agli asteroidi subito ci vengono in mente immagini e scenari apocalittici, alla stregua di quelli che si possono osservare in film come Armageddon, con protagonista Bruce Willis.



In questo post, tuttavia, non ci occuperemo di asteroidi e meteoriti relativamente al tema "catastrofi", bensì in maniera consonante a una tematica altrettanto interessante: "Cercando tracce di vita nell'Universo"!
Come è ben probabile (come stabilisce anche la nota equazione di Drake), considerate le straordinarie dimensioni dell'Universo e il numero impressionante di galassie, stelle e pianeti che vi sono al suo interno (sempre che esso sia unico e non uno all'interno di un Multiverso), la vita dovrebbe essere presente non solo sul pianeta Terra ma anche in altri luoghi del cosmo.
Il problema sta nel rinvenirla!
Un'altra questione spinosa è capire come si è originata la vita sul nostro pianeta.
I lettori potrebbero però chiedersi: ma gli asteroidi cosa c'entrano con tutto questo?
Ebbene, la ricerca di vita (o comunque di "basi della vita") nel cosmo non è focalizzata solo sui pianeti.
Per inciso, di recente, precisamente il 6 agosto, la sonda spaziale Curiosity è atterrata su Marte, il "pianeta rosso" (così denominato a causa della notevole presenza di ossidi di ferro!), proprio al fine di comprendere se esso era o è ancora in grado di ospitare forme di vita.
























Tuttavia, la ricerca di vita si amplia appunto anche verso le meteoriti, su cui sono stati rinvenuti materiali di natura organica, come gli amminoacidi.

venerdì 31 agosto 2012

IL PRINCIPIO ANTROPICO

L'Universo è stato da sempre al centro di profonde riflessioni da parte dell'uomo.
Ad esempio, nell'antica Grecia i filosofi congetturavano i principi basilari del mondo, identificandoli, a seconda dei casi, con l'acqua, l'aria, il numero, l'essere e così via.
Certo è che quelle domande che in un primo momento erano prerogativa della filosofia (e delle religioni), nell'epoca moderna, sono diventate gli interrogativi chiave a cui la scienza cerca di fornire una risposta.
Una di queste (numerose) domande è sicuramente: per quale motivo/motivi l'Universo risulta essere così come si presenta?
La suddetta questione sta alla base di una famosa ipotesi (non universalmente accettata) in campo fisico-cosmologico, denominata "principio antropico".

domenica 5 agosto 2012

RANGO!!!

Rango!!!
Rango cosa?
Molti staranno pensando allo straordinario film d'animazione con protagonista un camaleonte, con la voce di Johnny Depp, alla ricerca dell'acqua, Rango appunto!



Vi mostro ora questa immagine:









La seconda parte dell'immagine è ben riconoscibile: trattasi del camaleonte a cui ci siamo appena riferiti.
Ma che nesso c'è tra l'immagine collocata nella prima metà (una matrice) e il personaggio del film d'animazione?

giovedì 26 luglio 2012

ENTROPIA ED ENTALPIA: LE BASI TERMODINAMICHE DELLA TERMOCHIMICA

Come dovreste ormai sapere, la Chimica e la Fisica sono le discipline basilari della scienza moderna, quelle da cui si diramano tutte le altre discipline, ciascuna volta a descrivere un pezzetto del nostro meraviglioso mondo o meglio, usando un termine di carattere astronomico, Universo.
Quello che ci proponiamo oggi è di scoprire come la Fisica stia alla base di alcuni processi della "sorella" Chimica.
In particolare, andremo a scoprire come la termodinamica, branca molto importante della Fisica, costituisca un supporto non indifferente alla cosiddetta termochimica.
Ci concentreremo inoltre su 2 concetti chiave: l'entalpia e l'entropia.
Innanzitutto, andiamo a definire cosa sono e in cosa consistono la termodinamica e la termochimica.
La termodinamica è quella branca della Fisica che si occupa di descrivere i fenomeni di riscaldamento e la loro relazione con i fenomeni meccanici, ma anche gli scambi di calore (e dunque, di energia) tra diversi sistemi.
Ecco perché la termodinamica introduce concetti come la temperatura, la quale è in grado di fornirci una misura del grado di agitazione delle particelle all'interno di un corpo.
Più un corpo è caldo, più le sue componenti saranno in agitazione (pensate che quando la temperatura diviene estrema, come nelle stelle, i gas diventano addirittura plasma!).
Di conseguenza, più un corpo è freddo, più le particelle al suo interno tenderanno a rimanere confinate rigidamente "senza" muoversi.
Non è allora un caso se l'acqua liquida diviene vapor acqueo a 100 °C, mentre muta in ghiaccio, una struttura cristallina con atomi disposti in modo ben ordinato, a 0 °C (ciò però non è sempre vero; leggasi l'articolo "Divagazioni circa il ghiaccio").
0 °C e 100 °C designano i parametri di riferimento della scala centigrada o Celsius.
Una curiosità: in realtà, Anders Celsius, originariamente, aveva progettato la sua scala (nel 1742) ponendo a 0 °C l'ebollizione dell'acqua, mentre a 100 °C la sua trasformazione (solidificazione) in ghiaccio!
La sistemazione odierna della scala Celsius, ovvero con i numeri elevati indicanti temperature elevate (ciò avvenne nel 1747), si deve a Linneo, molto più noto per la classificazione delle specie viventi!
Ritornando sotto una prospettiva generale, se per le temperature in senso crescente non esiste un limite ben definito, per quelle che scendono sussiste un preciso valore limite: lo zero assoluto, corrispondente a -273,15 °C o, usando la scala Kelvin, 0 K.




















A tale temperatura, irraggiungibile mediante processi e trasformazioni finite (terzo principio della termodinamica), il moto, o meglio, l'agitazione delle particelle contenute entro il corpo preso in considerazione, cessa (anche se, come abbiamo constatato nell'articolo "La Fisica in montagna (e non solo)!", l'elio costituisce un'eccezione alla regola).
Distinzione assai importante in termodinamica è quella tra sistema, ambiente e universo.
Per illustrare mediante un esempio tale distinzione, consideriamo una pentola piena d'acqua.
Il nostro sistema è appunto la pentola riempita d'acqua, l'oggetto delle nostre osservazioni.
Tutto ciò che la circonda è invece detto ambiente.
L'universo, invece, almeno per quanto concerne la termodinamica, designa l'insieme formato sia dal sistema termodinamico (nell'esempio, la pentola) che dall'ambiente.











Tra l'altro, i sistemi possono essere distinti in 3 categorie principali:

1) aperti: avvengono scambi di energia e materia tra sistema e ambiente;
2) chiusi: avvengono scambi di sola energia fra sistema e ambiente;
3) isolati: non avvengono scambi tra sistema e ambiente.

La stessa pentola d'acqua è un illuminante esempio di sistema aperto!
Infatti, oltre a esserci uno scambio di calore, e dunque di energia, fra la pentola stessa e l'ambiente circostante, sussiste pure uno scambio di materia, in quanto, all'ebollizione, una parte dell'acqua contenuta nella pentola, trasformandosi in vapor d'acqua, giunge nell'ambiente.
Prima di definire cos'è la termochimica, scopriamo meglio, fin d'ora, gli importanti concetti di lavoro termodinamico e di calore.
Se vi ricordate, il lavoro in Fisica è generalmente definito come:



ossia come il prodotto scalare tra la forza e lo spostamento ad essa associato (per maggiori informazioni, recatevi all'articolo "La differenza tra lavoro e fatica").
Definiamo il lavoro infinitesimo come:



ove dx indica uno spostamento infinitesimo.
Ricordando che la pressione è definita come il rapporto tra forza e superficie, p = F/S, possiamo manipolare l'espressione precedente in tal modo:




Dunque, il lavoro infinitesimo può essere visto come il prodotto tra la pressione p e la variazione di volume dV (d'altronde, il prodotto tra una superficie dS e una lunghezza dx ci fornisce un volume!).
Per una certa trasformazione termodinamica finita, il lavoro compiuto dal sistema si ottiene integrando l'equazione precedente:





dove l'integrale risulta appunto esteso a tutta la trasformazione, con A e B indicanti rispettivamente lo stato iniziale e lo stato finale della trasformazione.
Ecco l'immagine illustrativa del concetto:













Passiamo dal lavoro al calore.
Per il momento, definiamo il calore infinitesimo scambiato da un corpo come:



ove:
  • c indica il calore specifico, ossia il calore che è necessario scambiare con l'unità di massa di una certa sostanza, alla temperatura T, affinché la temperatura vari di 1 K;
  • m = massa del corpo considerato;
  • dT = variazione infinitesima di temperatura.
In particolare, il prodotto cm viene chiamato capacità termica del corpo.
Essendo energia, il calore si misura in joule (J).
Tuttavia, esiste un'altra importante unità di misura, per quanto concerne il calore: la caloria.
La caloria (cal) è definita come la quantità di calore necessaria per portare da 14,5 °C a 15,5 °C la temperatura di 1 grammo di acqua distillata alla pressione atmosferica.
Un multiplo della caloria largamente utilizzato è la kilocaloria (kcal), equivalente ovviamente a 1000 cal.
Bene, andiamo a capire cos'è la termochimica.
In parole povere, la termochimica è quella particolare branca della Chimica che si occupa della variazioni termiche che accompagnano le reazioni.
D'altronde, in termochimica si parla di reazioni



in cui venga sviluppata o assorbita una certa quantità di calore, il cosiddetto calore di reazione (Q); ciò comporta una distinzione tra:

1) reazione esotermica (il prefisso "eso" significa "fuori"), in cui il sistema considerato cede calore all'ambiente:



Tale reazione, siccome è analoga ad un'equazione e, poiché, durante la trasformazione chimica, oltre a C e D, si produce un certo calore Q, può allora essere scritta anche nel seguente modo:



Esempi di reazioni esotermiche sono la combustione della grafite (dunque carbonio puro) e del metano (CH4):






dove:
  • (s) = solido; 
  • (g) = gas; 
  • (l) = liquido.
2) reazione endotermica ("endo" significa "dentro"), nella quale il sistema assorbe calore dall'ambiente:




Pertanto, le molecole così prodotte (C + D) hanno un contenuto termico superiore a quello delle molecole reagenti (A + B).
Esempi di reazioni endotermiche sono:

- la formazione di ossido di azoto (NO) da N2 e O2:



- la decomposizione dell'ammoniaca (NH3) nei gas componenti, H2 e N2:



Ora, andiamo a scoprire un po' di storia della termochimica!
Nella seconda metà del XIX secolo, diversi chimici si interessarono alla misurazione della quantità di calore generato nelle reazioni chimiche.
Tuttavia, già nel 1782 Lavoisier e Laplace si erano muniti di un calorimetro al fine di misurare i calori latenti e i calori specifici di svariate sostanze.
Lo scienziato riconosciuto come fondatore della termochimica è però Germain Ivanovič Hess (1802-1850).
Hess nacque a Ginevra ma trascorse la sua infanzia in Russia, studiando poi medicina all'Università di Dorpat (l'attuale Tartu), dove si laureò nel 1825 con una tesi inerente alla composizione chimica e alle proprietà mediche delle acque minerali russe.
A seguito di un incontro con Berzelius (famoso chimico svedese, che coniò, tra le altre cose, il termine "chimica organica"), la Chimica iniziò ad appassionare seriamente Hess, tanto che costui decise di trasferirsi a Stoccolma per lavorare con lo stesso Berzelius.
Dopo qualche anno, ritornò in Russia, mettendo tutto il suo impegno nella ricerca in campo chimico.
I suoi studi furono influenzati notevolmente dalle idee di Berzelius concernenti l'affinità, ossia la quantità di energia che un atomo neutro libera quando acquista un elettrone.
Hess pensò di valutare l'affinità mediante la misurazione del calore che si produceva nelle reazioni di neutralizzazione di un acido con diverse basi: il risultato delle sue ricerche fu che la quantità di calore prodotta era sempre la medesima, indipendentemente dalla natura delle basi.
Hess arrivò pertanto a formulare il principio chiave della termochimica, noto appunto come legge di Hess, la quale stabilisce che la quantità di calore prodotto o assorbito in una reazione risulta indipendente dal percorso seguito e dal numero di stadi intermedi.
Per fornire un esempio, se nell'acido fosforico (H3PO4) i 3 atomi di idrogeno vengono uno alla volta rimpiazzati da atomi di sodio in 3 stadi successivi di neutralizzazione, il calore prodotto nella reazione globale è esattamente uguale alla somma dei calori di reazione dei 3 stadi parziali.
Ciò fa capire che la legge di Hess altro non è che una differente formulazione del principio di conservazione dell'energia.
Un'altra scoperta di Hess consiste nel fatto che, quando 2 soluzioni saline neutre vengono mescolate, la soluzione risultante resta neutra senza produzione di calore.
I suddetti risultati vennero da lui generalizzati tramite la denominazione di legge di termoneutralità, valida per sali di acidi e basi forti, totalmente dissociati in soluzione.
Pure l'irlandese Thomas Andrews (1812-1885), celebre per la sua scoperta, nel 1860, della temperatura critica nell'ambito della liquefazione dei gas, pose la sua attenzione nei confronti della misura dei calori di neutralizzazione.
Tuttavia, i suoi studi furono totalmente inversi rispetto a quelli di Hess: infatti, Andrews compì misure del calore di neutralizzazione di una base con diversi acidi, ottenendo che la quantità di calore prodotta risultava la stessa in qualsivoglia caso.
Peraltro, il chimico irlandese scoprì anche che la legge di Hess sulla costanza della somma dei calori si applica perfettamente pure ai sali dei metalli in soluzione.
Le appena citate ricerche di Hess e Andrews vennero poi implementate da una serie di accurate misure di calori di neutralizzazione di acidi con basi, da parte dei francesi Pierre-Antoine Favre (1812-1880) e Johann Theobald Silbermann (1806-1859), i quali riuscirono a dimostrare che essi erano la somma di 2 quantità costanti, una dipendente dall'acido, l'altra dalla base.
Nel frattempo, anche Marcellin Pierre Eugène Berthelot (1827-1907) si interessò alla termochimica, tanto da compiere un'immensa quantità di ricerche in merito e da scrivere 2 monumentali libri a riguardo:

1) Essai de mécanique chimique fondée sur la termochimie (1879);
2) Thermochimie (1897).

Berthelot era convinto che le reazioni esotermiche fossero spontanee, mentre riteneva che quelle endotermiche non lo fossero.
Tale congettura, per quanto valida in numerosi casi, non era tuttavia del tutto corretta, in quanto sussistono reazioni spontanee che non producono calore e reazioni che procedono spontaneamente assorbendo calore dall'ambiente esterno.
Un'attività scientifica simile a quella di Berthelot fu sicuramente quella intrapresa dal danese Hans Peter Jørgen Julius Thomsen (1826-1909), il quale scrisse, tra il 1882 e il 1886, un'opera in 4 volumi sulla termochimica: Thermochemische Untersuchungen.
Thomsen e Berthelot erano entrambi convinti che le misure di calore di reazione fossero una misura dell'affinità chimica ed enunciarono indipendentemente il "principio del massimo lavoro", il quale ci dice che, in tutte le reazioni chimiche, il processo che si manifesta è quello accompagnato dalla massima produzione di calore possibile.
Tale principio è certamente applicabile alla stragrande maggioranza delle reazioni chimiche in condizioni standard, ma non designa un principio totalmente generale utilizzabile per collegare gli effetti termici con l'affinità, poiché ignora il contributo dell'entropia (tra poco vedremo che cos'è!).
L'esistenza di reazioni reversibili che generano calore in una direzione e l'assorbono nell'altra fu alla base delle critiche sulle idee di Thomsen e Berthelot.
In particolare, nel 1882, il fisico tedesco Hermann von Helmholtz dimostrò, nell'opera Die Thermodynamik chemischer Vorgänge, che l'affinità è una misura non del calore emesso, bensì del massimo lavoro (o meglio, energia libera) creato in condizioni di reversibilità.
Tali critiche spinsero Berthelot e Thomsen a rinnegare il proprio principio.
Successivamente, il tedesco Nernst dimostrò che il principio di Thomsen-Berthelot risulta completamente accettabile solamente in prossimità dello zero assoluto.
Nel 1906, un ponte tra la termochimica e la termodinamica fu costruito proprio da Walther Hermann Nernst (1864-1941), premio Nobel per la Chimica nel 1920 per la sua scoperta del terzo principio della termodinamica, basata proprio su ricerche di termochimica.
La validità del terzo principio della termodinamica e l'idea che esso rappresentasse una legge fondamentale della natura furono largamente confermate dalle ricerche del chimico fisico americano William Francis Giauque (1895-1982), professore a Berkeley, che con i suoi studenti realizzò un ingente numero di ricerche a bassissime temperature.
In particolare, Giauque e il suo studente Duncan P. MacDougall, studiando l'azione di campi magnetici per valutare l'entropia di sistemi paramagnetici, inventarono nel 1933 la tecnica della demagnetizzazione adiabatica, la quale permette di raggiungere temperature molto vicine allo zero assoluto.
A seguito di questo excursus storico, perveniamo al nocciolo della questione: scopriamo cosa sono l'entalpia e l'entropia.
Cominciamo dall'entalpia!
Possiamo iniziare a dire che l'entalpia è una diretta conseguenza del primo principio della termodinamica.
Ma cosa afferma il primo principio?
Consideriamo un sistema che possa scambiare sia lavoro meccanico che calore con l'ambiente circostante.
Sperimentalmente vale sempre il seguente risultato: se il sistema compie una certa trasformazione dallo stato A allo stato B, scambiando calore e lavoro con l'ambiente, Q e W dipendono dalla trasformazione che unisce i 2 stati termodinamici, mentre la differenza Q - W risulta indipendente dalla trasformazione.
Volendo esprimere il tutto attraverso il linguaggio matematico, chiamando ΔU la variazione di energia interna, il primo principio della termodinamica può esser scritto come:



o, volendo isolare il calore in un membro dell'equazione:




La prima cosa che possiamo constatare è il fatto che il 1° principio della termodinamica è un vero e proprio principio di conservazione dell'energia.
A proposito di energia, è presente una particolare forma di energia, l'energia interna: ma che cos'è precisamente?
L'energia interna non deve essere vista alla stregua dell'energia cinetica e dell'energia potenziale, legate allo stato complessivo di moto di un certo corpo, bensì come una tipologia di energia collegata a proprietà interne del sistema (ad esempio, moto molecolare o forze intermolecolari), dipendenti da coordinate termodinamiche come temperatura del sistema, pressione a cui è sottoposto o volume che occupa.
L'energia interna è dunque una funzione di stato, ovvero una precisa relazione tra coordinate termodinamiche, le cui variazioni forniscono gli scambi energetici del sistema considerato con l'ambiente che lo circonda durante una trasformazione.
Il primo principio della termodinamica pone inoltre in evidenza l'esistenza di un meccanismo di scambio di energia, il quale risulta non esprimibile come un comune lavoro meccanico macroscopico: ci stiamo riferendo ovviamente al calore.
La formulazione matematica del 1° principio ci fornisce quindi la definizione più rigorosa di calore, sia da un punto di vista concettuale sia dal punto di vista del calcolo.
Tenendo presente il primo principio della termodinamica, è facile definire l'entalpia H.
Infatti, nel caso di una trasformazione isobara, cioè che avviene a pressione costante, il calcolo del calore che il sistema considerato assorbe (o cede) dall'ambiente è facilitato sfruttando appunto l'entalpia H, definita dalla seguente equazione:

 

Anche l'entalpia, alla stregua dell'energia interna, è una funzione di stato, poiché sia U che pV sono funzioni solo delle coordinate termodinamiche.
Il termine "entalpia" deriva dal greco enthalpos, che significa letteralmente "portare calore dentro".
Per quanto riguarda una qualsivoglia trasformazione infinitesima, basta differenziare l'uguaglianza precedente per ottenere l'entalpia infinitesima:



Supponendo che la trasformazione considerata sia quasi statica, senza attrito, mischiando la formula del 1° principio della termodinamica con l'equazione precedente, otteniamo:



Supponendo poi che si tratti di una trasformazione a pressione costante (p = costante implica dp = 0), abbiamo che:



Tirando le fila del discorso, la quantità di calore che il sistema fornisce (assorbe) in una trasformazione isobara risulta eguale alla sua diminuzione (aumento) di entalpia.  
Ponendoci nella prospettiva della Chimica, il fatto che l'entalpia sia una funzione di stato significa che H dipende solo dalle condizioni dei reagenti e dei prodotti finali e non dai passaggi intermedi con i quali le sostanze si trasformano.
Riportiamo dunque una nuova formulazione della già citata legge di Hess: la variazione di entalpia di una reazione è la differenza tra l'entalpia finale e quella iniziale del sistema.
In altre parole, essa corrisponde alla differenza tra l'entalpia dei prodotti di reazione e quella dei reagenti:


 
Analizzando una reazione chimica, risultano pertanto possibili 2 casi:

1) ΔH negativa: reazione esotermica. L'energia interna del sistema diminuisce.
2) ΔH positiva: reazione endotermica. L'energia interna del sistema aumenta.

Compiamo un semplice esempio di calcolo di entalpia in ambito chimico.
Poniamo, ad esempio, che vogliamo calcolare l'entalpia di formazione (cioè la variazione di entalpia che accompagna la formazione di una mole di un composto dai suoi elementi) dell'ossigeno atomico.
Sappiamo che l'ossigeno, nell'atmosfera, si presenta in forma biatomica (O2): dobbiamo quindi rompere il doppio legame O = O, il quale possiede un'energia pari a 498 kJ/mol.
Questo è proprio il quantitativo di energia che bisogna fornire all'ossigeno biatomico per ottenere l'ossigeno atomico.
La reazione illustrante il processo è dunque:



L'entalpia risultante è:




Il fatto che l'entalpia di formazione sia positiva significa che l'ossigeno atomico non è stabile, bensì tende a legarsi a un altro elemento per conseguire un minore livello di energia.
Ora focalizziamo la nostra attenzione su un concetto probabilmente ancor più importante ed interessante: l'entropia.
Prima di fornire una definizione di entropia, dobbiamo tuttavia scoprire il secondo principio della termodinamica.
Il suddetto fondamentale principio ha formulazioni diverse ma equivalenti; sveliamo qui l'enunciato di Kelvin-Planck e quello di Clausius.

ENUNCIATO DI KELVIN-PLANCK

"Non è possibile realizzare una macchina termica il cui unico risultato sia quello di trasformare in energia meccanica il calore estratto da una sola sorgente."

ENUNCIATO DI RUDOLF CLAUSIUS

"Non è possibile realizzare una macchina frigorifera il cui unico risultato sia quello di trasferire calore dalla sorgente più fredda a quella più calda."

Visti così, sembrerebbe che i 2 enunciati del secondo principio siano totalmente slegati l'uno dall'altro, essendo dedicati a macchine che funzionano in senso opposto.
Tuttavia, come già anticipato, essi sono indissolubilmente collegati e la verifica dell'uno implica necessariamente la conferma dell'altro.
Proviamo infatti a supporre, per assurdo, che l'enunciato di Clausius sia falso e che quello di Kelvin-Planck sia vero: ciò comporterebbe una contraddizione.
Prendiamo una normale macchina termica che assorbe un certo calore Q2 da una sorgente calda, produce lavoro W e cede una quantità di calore Q1 (minore di Q2) al refrigerante; la quantità




rappresenta il calore di scarto della macchina.
Se non risultasse valido l'enunciato di Clausius, potremmo costruire un frigorifero che trasferisce (senza il supporto di un motore esterno) calore dal refrigerante alla caldaia.
In generale, si avrebbe una macchina il cui unico risultato sarebbe quello di prelevare una quantità di calore Q2 dalla caldaia e di trasformarla completamente in lavoro.
Questo fatto contraddice l'enunciato di Kelvin, ipotizzato sin dall'inizio vero.
Ergo, l'enunciato di Clausius è sempre verificato se è vero l'enunciato di Kelvin-Planck.
Per completezza, svolgiamo anche il ragionamento opposto.
Supponiamo quindi, sempre per assurdo, che l'enunciato di Kelvin sia falso e che quello di Clausius risulti vero; anche qui, come vedremo, si giungerà a una contraddizione.
Consideriamo una macchina che, prelevando calore Q1 da una sorgente, è in grado di trasformarlo totalmente in un lavoro W (ciò può avvenire in quanto abbiamo ipotizzato che l'enunciato di Kelvin non abbia alcun valore), come un meccanismo rotante, ad esempio un mulino.
Incrementando man mano gli attriti è sempre possibile riversare integralmente il calore prodotto entro una sorgente maggiormente calda.
Ne consegue un trasferimento integrale, senza alcun dispendio di energia, di una certa quantità di calore Q1 da una sorgente fredda a una più calda, cozzando contro l'enunciato di Clausius e pervenendo a una contraddizione.
Ergo, l'enunciato di Kelvin-Planck risulta sempre verificato se è vero l'enunciato di Clausius.
Dunque, ricapitalondo brevemente i 2 enunciati equivalenti, non è possibile costruire una macchina il cui fine sia trasformare totalmente il calore in lavoro e, allo stesso tempo, non è possibile realizzare una macchina il cui unico meccanismo consista nel far passare calore da una fonte fredda a una maggiormente calda.
Tenendo presente tutto ciò, spingiamoci verso la nozione di entropia.
Innanzitutto, diciamo che, data una macchina M qualsiasi che scambia calore con n sorgenti, risulta valido il cosiddetto teorema di Clausius:


 



dove Q1,Q2,...,Qn rappresentano i calori scambiati con le sorgenti a temperatura T1,T2,...,Tn.



 









Se lo scambio di calore della macchina M avviene con una serie infinita di sorgenti, allora, chiamato dQ il calore scambiato con la sorgente a temperatura T, l'equazione precedente diviene:





Il particolare simbolo stabilisce che l'integrale risulta esteso a tutto il ciclo (ovvero una trasformazione termodinamica in cui lo stato finale coincide con lo stato iniziale) descritto dalla macchina M.
Le equazioni appena riportate descrivono il teorema di Clausius relativo a una qualsivoglia macchina M.
Ora, se la macchina M risulta reversibile (specifichiamo che una trasformazione reversibile non produce alterazioni permanenti, in quanto è sempre possibile "tornare indietro nel tempo", ossia ripristinare gli stati iniziali del sistema e dell'ambiente con cui esso interagisce), invertiamo tutti i cicli.
Ne consegue che:

- ogni scambio di calore cambia di segno;
- le disuguaglianze precedenti vanno invertite;
- si ha compatibilità fra i 2 casi soltanto se:





Tali uguaglianze esprimono il teorema di Clausius per quanto concerne le macchine reversibili.
Quando invece il processo ciclico appare irreversibile, il teorema di Clausius assume la seguente forma:





Detto ciò, siano A e B due stati qualsiasi di un sistema termodinamico.
Passiamo da uno all'altro per mezzo di 2 diverse trasformazioni reversibili, rappresentate dalle linee 1 e 2 della seguente immagine:













Se immaginiamo di percorrere in senso inverso la trasformazione 2 (la chiameremo dunque -2), abbiamo dato vita ad un ciclo reversibile, il quale si svolge da A a B lungo la prima trasformazione e da B ad A lungo la seconda invertita.
Ricordando il teorema di Clausius inerente alle macchine reversibili, abbiamo che:




Il passaggio finale deriva dalle proprietà delle trasformazioni reversibili, secondo le quali il cambio di verso nella trasformazione causa solamente il cambio di segno degli scambi energetici.
Risulta facile constatare che lungo una qualsivoglia trasformazione reversibile che colleghi gli stati A e B, vale la relazione:





Ci si rende conto che il valore dell'integrale





risulta sempre il medesimo, ossia non dipende dalla particolare trasformazione reversibile scelta per eseguire il calcolo.
Sicché, è possibile porre l'integrale uguale alla variazione di una certa funzione dipendente solo dalle coordinate termodinamiche del sistema nei 2 stati di equilibrio A e B:





La suddetta funzione di stato è proprio l'entropia (dal greco "en"= "dentro" e da "tropé" = "trasformazione").
Ovviamente, possiamo scrivere l'entropia anche in forma infinitesima, differenziando l'equazione precedente:




L'entropia è una grandezza estensiva, ovvero è dotata della proprietà dell'addittività: dati 2 sistemi di entropia S1 e S2, l'entropia complessiva sarà S = S1 + S2.
Diciamo anche che, essendo un particolare rapporto tra calore e temperatura, l'entropia si misura in joule/kelvin (J/K).
Ma perché è così importante il concetto di entropia?
L'entropia rappresenta una misura del disordine dell'Universo e non fa altro che aumentare.
Questa non è altro che una nuova formulazione del secondo principio della termodinamica.
Per capire meglio perché l'entropia aumenta sempre, immaginate di stare situati nella vostra stanza e che vostra madre vi ordini di mettere a posto poiché c'è un disordine incredibile.
















Quando "avrete messo in ordine" la stanza, tutta pulita e bella da vedere, dal punto di vista della Fisica, avrete creato ancor più disordine di prima!
Per quale ragione?
Compiendo tutte le azioni atte a "rimettere in ordine" la stanza, avete smosso un'incredibile quantità di particelle (d'altronde, tutto è composto da particelle), generando un aumento di entropia, e quindi, di disordine!
Un altro esempio illuminante: un pacco di spaghetti crudi (cioè, detto in termini più scientifici, un fascio di bastoncini di pasta allineati) possiede bassa entropia, poiché ha un alto grado di ordine.
Ma quando gli spaghetti vengono buttati in una pentola d'acqua bollente, per cucinarli nella modalità che preferite, essi tendono ad attorcigliarsi e, di conseguenza, l'entropia aumenta!



















Un ulteriore esempio: avete mai giocato da piccoli con i soldatini giocattolo?
La vostra risposta non cambierà certo la seguente considerazione: i soldatini disposti in file belle ordinate avranno bassa entropia, mentre, sparpagliati in modo caotico sul pavimento, acquisteranno un'entropia maggiore!













Ma d'altronde, per capire quanto sia naturale che l'entropia totale di un sistema aumenti sempre, basta considerare di afferrare un piatto di porcellana e gettarlo per terra, frantumandolo in mille pezzi.
Vi chiedo (in modo retorico): è più facile rompere il piatto o ricomporlo esattamente come prima, in seguito alla sua distruzione?




















Dovreste aver dunque capito che l'entropia è un principio chiave dell'Universo.
Giusto per dare un tocco di rigore in più, forniamo la formulazione matematica del 2° principio della termodinamica in termini di entropia:

 

Traslando il tutto in parole, si può constatare che, in un sistema isolato (ricordiamo che designa quello in cui non avvengono scambi con l'ambiente), l'entropia aumenta sempre o, al massimo, rimane uguale a prima; non diminuisce mai!
Andiamo a scoprire come agisce l'entropia nel campo della Chimica.
Nelle reazioni chimiche, l'ordine e il disordine si devono alla struttura stessa delle molecole e un aumento di entropia corrisponde a un incremento del disordine molecolare.
In generale:
  • aumenta il disordine (quindi l'entropia), quando:
- si genera un miscuglio o una soluzione;
- si passa dallo stato solido a quello liquido o a quello aeriforme;
- in una reazione, le molecole dei prodotti sono più piccole e dunque maggiormente numerose di quelle dei reagenti, come avviene ad esempio nelle reazioni di decomposizione;
- si passa a prodotti gassosi da reagenti solidi o liquidi;

Esempi di reazione con variazione di entropia positiva sono:

a) decomposizione del carbonato di calcio:



L'entropia aumenta poiché da ogni molecola di carbonato di calcio se ne formano 2, di cui una gassosa.
Nello specifico, la variazione di entropia è pari a ΔS = +0,17 kJ/mol K;

b) ionizzazione dell'acido cloridrico in una soluzione acquosa:




L'entropia aumenta dato che, in soluzione, il numero delle particelle raddoppia.
  • aumenta l'ordine (diminuisce l'entropia), quando:
- una sostanza cristallizza dalla soluzione satura;
- un vapore condensa, un gas liquefa o un liquido solidifica;
- in una reazione, nel prodotto diminuisce il numero delle molecole, come accade nelle reazioni di sintesi;
- si genera un precipitato (la precipitazione rappresenta il fenomeno di separazione di una certa sostanza solida da una soluzione) da reagenti gassosi o liquidi.

Un esempio lampante di reazione con variazione di entropia negativa è la sintesi dell'ammoniaca:




D'altronde, durante la suddetta reazione, il numero di molecole si dimezza, comportando una diminuzione di entropia equivalente a ΔS = -0,198 kJ/mol K.
Riporto ora un meraviglioso passo tratto dall'articolo "Le origini cosmiche della freccia del tempo" di Sean M. Carroll su Le scienze n.480, illustrante l'entropia:

"Tra gli aspetti innaturali dell'Universo ce n'è uno che spicca: l'asimmetria del tempo. Le leggi microscopiche della Fisica che governano il comportamento dell'Universo non distinguono tra passato e futuro, eppure l'Universo delle origini, caldo, denso, omogeneo, è completamente diverso da quello di oggi, freddo, diradato, eterogeneo. L'Universo, in partenza, era ordinato, ed è diventato sempre più disordinato. L'asimmetria del tempo, la freccia che punta dal passato al futuro, ha un ruolo essenziale nella nostra vita quotidiana: è alla base del fatto che non possiamo trasformare una frittata in un uovo e che ricordiamo il passato ma non il futuro...I fisici esprimono il concetto di asimmetria temporale con il famoso secondo principio della termodinamica: all'interno di un sistema chiuso l'entropia non diminuisce mai...Nel XIX secolo Ludwig Boltzmann spiegò l'entropia in termini di distinzione tra il microstato di un oggetto e il suo macrostato. Per descrivere una tazza di caffè presumibilmente ci riferiremmo al suo macrostato: la sua temperatura, la pressione e altre caratteristiche complessive. Il microstato, invece, descrive con esattezza la posizione e la velocità di ogni atomo del liquido. A un particolare macrostato corrispondono molti microstati diversi: possiamo spostare qualche atomo qua e là, e chi guarda a livello macroscopico non se ne accorgerebbe. L'entropia è il numero di microstati diversi corrispondenti allo stesso macrostato. Quindi ci sono più modi di organizzare un dato numero di atomi in una configurazione ad alta entropia che in una a bassa entropia. Immaginiamo di versare latte nel caffè. Ci sono moltissimi modi di distribuire le molecole in modo che latte e caffè siano completamente mescolati, ma relativamente pochi di disporle in modo che il latte sia separato dal caffè. Quindi la miscela ha un'entropia maggiore. Da questo punto di vista, non è sorprendente che l'entropia tenda a crescere col tempo. Gli stati ad alta entropia sono molti di più di quelli a bassa entropia; quasi ogni cambiamento al sistema porterà a uno stato con entropia maggiore, semplicemente perché è più probabile. Per questo il latte si mescola al caffè mentre non succede mai che se ne separi. Anche se è fisicamente possibile che tutte le molecole del latte si mettano spontaneamente d'accordo per disporsi l'una accanto all'altra, statisticamente è molto improbabile. Se aspettassimo che accadesse spontaneamente con il movimento casuale delle molecole, dovremmo attendere più dell'attuale età dell'Universo osservabile." 

Andiamo adesso a tracciare una brevissima storia dell'entropia!
Il protagonista di tale storia è sicuramente il già numerose volte citato Rudolf Julius Emanuel Clausius (1822-1888), notevolmente influenzato dai lavori di Nicolas Léonard Sadi Carnot e Benoît Paul Émile Clapeyron.
Clausius, professore di Fisica a Berlino, all'Eidgenössische Technische Hochschule (ETH) di Zurigo, a Würzburg e infine a Bonn, analizzò in modo preciso il problema della trasformazione di calore in lavoro, partendo appunto dalle ricerche di Carnot e Clapeyron.
Nel 1850 riformulò in maniera più rigorosa il primo principio della termodinamica e formulò anche l'importante enunciato del 2° principio che abbiamo analizzato.
Nel 1865 Clausius introdusse appunto l'entropia e scelse questo apposito termine in quanto simile a quello di energia, dato che le 2 grandezze risultavano, peraltro, strettamente collegate.
Sempre nel 1865, Clausius definì il concetto di trasformazione irreversibile, mostrando che in tali trasformazioni l'entropia aumenta sempre, e riformulò i 2 principi della termodinamica nel seguente modo:

1) "L'energia dell'Universo è costante";
2) "L'entropia dell'Universo tende a un massimo".

Secondo Clausius la nozione di entropia scaturiva dall'idea che una parte dell'energia spesa per fare lavoro viene persa per dissipazione ed è dunque inutilizzabile.
Tale considerazione era già presente nel lavoro sull'efficienza delle macchine del 1803 di Lazare Carnot, padre di Sadi Carnot, il quale stabiliva che nel moto delle parti di qualsiasi macchina sussistono sempre perdite di lavoro utile, ovvero di energia.
Clausius diede vita anche al concetto di energia totale di un sistema fisico, oggi nota come entalpia, termine però coniato all'inizio del XX secolo dall'olandese Heike Kamerlingh Onnes (1853-1926), famoso per la scoperta dei superconduttori.
Giacché stiamo parlando di entropia, direi di approfondire brevemente un interessantissimo aspetto accennato nell'articolo "Buchi Neri": l'entropia dei buchi neri.
Come scrisse il premio Nobel Subrahmanyan Chandrasekhar:

"I buchi neri sono i più perfetti oggetti macroscopici dell'Universo: i soli elementi necessari per la loro costruzione sono i nostri concetti di spazio e tempo. E poiché la teoria della relatività generale fornisce solo un'unica famiglia di soluzioni per la loro descrizione, sono anche gli oggetti più semplici."

I buchi neri sono, aggiungo io, oggetti spettacolari, maestosi, probabilmente rappresentano la forza della natura più devastante che ci sia.
Ritornando all'entropia, quella di un buco nero risulta proporzionale all'area dell'orizzonte degli eventi del buco nero considerato.
Sussiste infatti la nota formula di Bekenstein-Hawking, che attribuisce al buco nero un'entropia ben definita, equivalente a:




Il bello di questa formula sta nel fatto che non solo è estremamente semplice ma che mette insieme la costante fondamentale della Meccanica Quantistica (la costante di Planck, scritta nella forma di Dirac, ovvero come h tagliato, ħ) e quella della Relatività Generale (la costante di gravitazione universale G di Newton).
Una cosa simpatica sta nel fatto che quel "BH" può riferirsi sia a Bekenstein-Hawking che a "black hole"!
Poi c'è k che è la costante di Boltzmann, una delle costanti fondamentali della termodinamica, c, indicante ovviamente la velocità della luce e, infine, A, cioè l'area dell'orizzonte degli eventi.
Cerchiamo di fornire un'idea degli eccezionali valori di entropia che un buco nero può avere, prendendo come riferimento quello che, negli anni '60, si riteneva fosse il maggior contributo all'entropia dell'Universo.
Stiamo parlando della radiazione cosmica di fondo a 2.7 K, lasciata dal Big Bang.
Tale entropia, in unità naturali, risulta pari a circa 10⁸ o 10⁹ per barione (i barioni, come protoni e neutroni, sono particelle formate da 3 quark).
Adesso, confrontiamo questa cifra con l'entropia dovuta ai buchi neri situati nell'Universo.
In media, l'entropia per barione dovuta ai buchi neri è pari a circa 10²¹, cioè ben 12-13 ordini di grandezza maggiore di quella dovuta alla radiazione cosmica di fondo!
Ergo, i buchi neri sono certamente gli oggetti che comportano il maggior contributo all'entropia totale del nostro Universo!
Ovviamente, qualunque sia l'esatto valore dell'entropia dovuta ai buchi neri, esso è destinato a salire con il trascorrere del tempo.
Adesso, stacchiamoci dai buchi neri e scopriamo un'altra interessante curiosità: il "diavoletto di Maxwell".
Come noto, il fisico scozzese James Clerk Maxwell è colui che elaborò 4 equazioni differenziali alle derivate parziali sintetizzanti l'intero elettromagnetismo.
Tuttavia, è riduttivo pensare che una mente come Maxwell si sia interessata solo all'elettromagnetismo!
Maxwell diede infatti importanti contributi anche alla termodinamica e alla meccanica statistica.
Uno dei tentativi più controversi di violare il secondo principio della termodinamica fu proprio l'esperimento mentale proposto da Maxwell verso il 1860.
Immaginiamo 2 contenitori pieni di gas, posti l'uno accanto all'altro.
Tra i 2 contenitori viene aperto un minuscolo foro, in modo che le particelle di gas possano passare dall'uno all'altro.
Se uno dei 2 è più caldo, le particelle attraverseranno il foro e la temperatura si equilibrerà progressivamente.
Maxwell immaginò che esistesse un diavoletto, un demone microscopico, capace di acciuffare solamente le molecole più veloci presenti in un contenitore, per poi indirizzarle nell'altro.
In tal modo, la velocità media delle molecole di quest'ultimo sarebbe cresciuta, a spese del primo.
Pertanto, Maxwell suppose che fosse possibile trasferire calore dal contenitore più freddo a quello più caldo, o, in altri termini, che potesse sussistere una diminuzione di entropia.




















Da quel momento in poi, diversi fisici si sono scervellati per cercare di trovare una spiegazione del perché il diavoletto di Maxwell non può funzionare.
Molti, tra cui Leó Szilárd nel 1929, hanno asserito che il processo di misura della velocità delle particelle e l'apertura o la chiusura di un filtro di qualsivoglia tipologia avrebbero richiesto lavoro, e dunque energia, con la conseguenza che l'entropia totale del sistema non sarebbe diminuita.



Volevo porre fine alla trattazione riportando una rivisitazione dei principi della termodinamica dalla prospettiva della teoria dei giochi:
  • 1° Principio: non puoi vincere!
  • 2° Principio: puoi solo perdere!
  • 3° Principio: non puoi uscire dal gioco! 
Come ciliegina sulla torta, un divertente video sull'entropia: