giovedì 26 luglio 2012

ENTROPIA ED ENTALPIA: LE BASI TERMODINAMICHE DELLA TERMOCHIMICA

Come dovreste ormai sapere, la Chimica e la Fisica sono le discipline basilari della scienza moderna, quelle da cui si diramano tutte le altre discipline, ciascuna volta a descrivere un pezzetto del nostro meraviglioso mondo o meglio, usando un termine di carattere astronomico, Universo.
Quello che ci proponiamo oggi è di scoprire come la Fisica stia alla base di alcuni processi della "sorella" Chimica.
In particolare, andremo a scoprire come la termodinamica, branca molto importante della Fisica, costituisca un supporto non indifferente alla cosiddetta termochimica.
Ci concentreremo inoltre su 2 concetti chiave: l'entalpia e l'entropia.
Innanzitutto, andiamo a definire cosa sono e in cosa consistono la termodinamica e la termochimica.
La termodinamica è quella branca della Fisica che si occupa di descrivere i fenomeni di riscaldamento e la loro relazione con i fenomeni meccanici, ma anche gli scambi di calore (e dunque, di energia) tra diversi sistemi.
Ecco perché la termodinamica introduce concetti come la temperatura, la quale è in grado di fornirci una misura del grado di agitazione delle particelle all'interno di un corpo.
Più un corpo è caldo, più le sue componenti saranno in agitazione (pensate che quando la temperatura diviene estrema, come nelle stelle, i gas diventano addirittura plasma!).
Di conseguenza, più un corpo è freddo, più le particelle al suo interno tenderanno a rimanere confinate rigidamente "senza" muoversi.
Non è allora un caso se l'acqua liquida diviene vapor acqueo a 100 °C, mentre muta in ghiaccio, una struttura cristallina con atomi disposti in modo ben ordinato, a 0 °C (ciò però non è sempre vero; leggasi l'articolo "Divagazioni circa il ghiaccio").
0 °C e 100 °C designano i parametri di riferimento della scala centigrada o Celsius.
Una curiosità: in realtà, Anders Celsius, originariamente, aveva progettato la sua scala (nel 1742) ponendo a 0 °C l'ebollizione dell'acqua, mentre a 100 °C la sua trasformazione (solidificazione) in ghiaccio!
La sistemazione odierna della scala Celsius, ovvero con i numeri elevati indicanti temperature elevate (ciò avvenne nel 1747), si deve a Linneo, molto più noto per la classificazione delle specie viventi!
Ritornando sotto una prospettiva generale, se per le temperature in senso crescente non esiste un limite ben definito, per quelle che scendono sussiste un preciso valore limite: lo zero assoluto, corrispondente a -273,15 °C o, usando la scala Kelvin, 0 K.




















A tale temperatura, irraggiungibile mediante processi e trasformazioni finite (terzo principio della termodinamica), il moto, o meglio, l'agitazione delle particelle contenute entro il corpo preso in considerazione, cessa (anche se, come abbiamo constatato nell'articolo "La Fisica in montagna (e non solo)!", l'elio costituisce un'eccezione alla regola).
Distinzione assai importante in termodinamica è quella tra sistema, ambiente e universo.
Per illustrare mediante un esempio tale distinzione, consideriamo una pentola piena d'acqua.
Il nostro sistema è appunto la pentola riempita d'acqua, l'oggetto delle nostre osservazioni.
Tutto ciò che la circonda è invece detto ambiente.
L'universo, invece, almeno per quanto concerne la termodinamica, designa l'insieme formato sia dal sistema termodinamico (nell'esempio, la pentola) che dall'ambiente.











Tra l'altro, i sistemi possono essere distinti in 3 categorie principali:

1) aperti: avvengono scambi di energia e materia tra sistema e ambiente;
2) chiusi: avvengono scambi di sola energia fra sistema e ambiente;
3) isolati: non avvengono scambi tra sistema e ambiente.

La stessa pentola d'acqua è un illuminante esempio di sistema aperto!
Infatti, oltre a esserci uno scambio di calore, e dunque di energia, fra la pentola stessa e l'ambiente circostante, sussiste pure uno scambio di materia, in quanto, all'ebollizione, una parte dell'acqua contenuta nella pentola, trasformandosi in vapor d'acqua, giunge nell'ambiente.
Prima di definire cos'è la termochimica, scopriamo meglio, fin d'ora, gli importanti concetti di lavoro termodinamico e di calore.
Se vi ricordate, il lavoro in Fisica è generalmente definito come:



ossia come il prodotto scalare tra la forza e lo spostamento ad essa associato (per maggiori informazioni, recatevi all'articolo "La differenza tra lavoro e fatica").
Definiamo il lavoro infinitesimo come:



ove dx indica uno spostamento infinitesimo.
Ricordando che la pressione è definita come il rapporto tra forza e superficie, p = F/S, possiamo manipolare l'espressione precedente in tal modo:




Dunque, il lavoro infinitesimo può essere visto come il prodotto tra la pressione p e la variazione di volume dV (d'altronde, il prodotto tra una superficie dS e una lunghezza dx ci fornisce un volume!).
Per una certa trasformazione termodinamica finita, il lavoro compiuto dal sistema si ottiene integrando l'equazione precedente:





dove l'integrale risulta appunto esteso a tutta la trasformazione, con A e B indicanti rispettivamente lo stato iniziale e lo stato finale della trasformazione.
Ecco l'immagine illustrativa del concetto:













Passiamo dal lavoro al calore.
Per il momento, definiamo il calore infinitesimo scambiato da un corpo come:



ove:
  • c indica il calore specifico, ossia il calore che è necessario scambiare con l'unità di massa di una certa sostanza, alla temperatura T, affinché la temperatura vari di 1 K;
  • m = massa del corpo considerato;
  • dT = variazione infinitesima di temperatura.
In particolare, il prodotto cm viene chiamato capacità termica del corpo.
Essendo energia, il calore si misura in joule (J).
Tuttavia, esiste un'altra importante unità di misura, per quanto concerne il calore: la caloria.
La caloria (cal) è definita come la quantità di calore necessaria per portare da 14,5 °C a 15,5 °C la temperatura di 1 grammo di acqua distillata alla pressione atmosferica.
Un multiplo della caloria largamente utilizzato è la kilocaloria (kcal), equivalente ovviamente a 1000 cal.
Bene, andiamo a capire cos'è la termochimica.
In parole povere, la termochimica è quella particolare branca della Chimica che si occupa della variazioni termiche che accompagnano le reazioni.
D'altronde, in termochimica si parla di reazioni



in cui venga sviluppata o assorbita una certa quantità di calore, il cosiddetto calore di reazione (Q); ciò comporta una distinzione tra:

1) reazione esotermica (il prefisso "eso" significa "fuori"), in cui il sistema considerato cede calore all'ambiente:



Tale reazione, siccome è analoga ad un'equazione e, poiché, durante la trasformazione chimica, oltre a C e D, si produce un certo calore Q, può allora essere scritta anche nel seguente modo:



Esempi di reazioni esotermiche sono la combustione della grafite (dunque carbonio puro) e del metano (CH4):






dove:
  • (s) = solido; 
  • (g) = gas; 
  • (l) = liquido.
2) reazione endotermica ("endo" significa "dentro"), nella quale il sistema assorbe calore dall'ambiente:




Pertanto, le molecole così prodotte (C + D) hanno un contenuto termico superiore a quello delle molecole reagenti (A + B).
Esempi di reazioni endotermiche sono:

- la formazione di ossido di azoto (NO) da N2 e O2:



- la decomposizione dell'ammoniaca (NH3) nei gas componenti, H2 e N2:



Ora, andiamo a scoprire un po' di storia della termochimica!
Nella seconda metà del XIX secolo, diversi chimici si interessarono alla misurazione della quantità di calore generato nelle reazioni chimiche.
Tuttavia, già nel 1782 Lavoisier e Laplace si erano muniti di un calorimetro al fine di misurare i calori latenti e i calori specifici di svariate sostanze.
Lo scienziato riconosciuto come fondatore della termochimica è però Germain Ivanovič Hess (1802-1850).
Hess nacque a Ginevra ma trascorse la sua infanzia in Russia, studiando poi medicina all'Università di Dorpat (l'attuale Tartu), dove si laureò nel 1825 con una tesi inerente alla composizione chimica e alle proprietà mediche delle acque minerali russe.
A seguito di un incontro con Berzelius (famoso chimico svedese, che coniò, tra le altre cose, il termine "chimica organica"), la Chimica iniziò ad appassionare seriamente Hess, tanto che costui decise di trasferirsi a Stoccolma per lavorare con lo stesso Berzelius.
Dopo qualche anno, ritornò in Russia, mettendo tutto il suo impegno nella ricerca in campo chimico.
I suoi studi furono influenzati notevolmente dalle idee di Berzelius concernenti l'affinità, ossia la quantità di energia che un atomo neutro libera quando acquista un elettrone.
Hess pensò di valutare l'affinità mediante la misurazione del calore che si produceva nelle reazioni di neutralizzazione di un acido con diverse basi: il risultato delle sue ricerche fu che la quantità di calore prodotta era sempre la medesima, indipendentemente dalla natura delle basi.
Hess arrivò pertanto a formulare il principio chiave della termochimica, noto appunto come legge di Hess, la quale stabilisce che la quantità di calore prodotto o assorbito in una reazione risulta indipendente dal percorso seguito e dal numero di stadi intermedi.
Per fornire un esempio, se nell'acido fosforico (H3PO4) i 3 atomi di idrogeno vengono uno alla volta rimpiazzati da atomi di sodio in 3 stadi successivi di neutralizzazione, il calore prodotto nella reazione globale è esattamente uguale alla somma dei calori di reazione dei 3 stadi parziali.
Ciò fa capire che la legge di Hess altro non è che una differente formulazione del principio di conservazione dell'energia.
Un'altra scoperta di Hess consiste nel fatto che, quando 2 soluzioni saline neutre vengono mescolate, la soluzione risultante resta neutra senza produzione di calore.
I suddetti risultati vennero da lui generalizzati tramite la denominazione di legge di termoneutralità, valida per sali di acidi e basi forti, totalmente dissociati in soluzione.
Pure l'irlandese Thomas Andrews (1812-1885), celebre per la sua scoperta, nel 1860, della temperatura critica nell'ambito della liquefazione dei gas, pose la sua attenzione nei confronti della misura dei calori di neutralizzazione.
Tuttavia, i suoi studi furono totalmente inversi rispetto a quelli di Hess: infatti, Andrews compì misure del calore di neutralizzazione di una base con diversi acidi, ottenendo che la quantità di calore prodotta risultava la stessa in qualsivoglia caso.
Peraltro, il chimico irlandese scoprì anche che la legge di Hess sulla costanza della somma dei calori si applica perfettamente pure ai sali dei metalli in soluzione.
Le appena citate ricerche di Hess e Andrews vennero poi implementate da una serie di accurate misure di calori di neutralizzazione di acidi con basi, da parte dei francesi Pierre-Antoine Favre (1812-1880) e Johann Theobald Silbermann (1806-1859), i quali riuscirono a dimostrare che essi erano la somma di 2 quantità costanti, una dipendente dall'acido, l'altra dalla base.
Nel frattempo, anche Marcellin Pierre Eugène Berthelot (1827-1907) si interessò alla termochimica, tanto da compiere un'immensa quantità di ricerche in merito e da scrivere 2 monumentali libri a riguardo:

1) Essai de mécanique chimique fondée sur la termochimie (1879);
2) Thermochimie (1897).

Berthelot era convinto che le reazioni esotermiche fossero spontanee, mentre riteneva che quelle endotermiche non lo fossero.
Tale congettura, per quanto valida in numerosi casi, non era tuttavia del tutto corretta, in quanto sussistono reazioni spontanee che non producono calore e reazioni che procedono spontaneamente assorbendo calore dall'ambiente esterno.
Un'attività scientifica simile a quella di Berthelot fu sicuramente quella intrapresa dal danese Hans Peter Jørgen Julius Thomsen (1826-1909), il quale scrisse, tra il 1882 e il 1886, un'opera in 4 volumi sulla termochimica: Thermochemische Untersuchungen.
Thomsen e Berthelot erano entrambi convinti che le misure di calore di reazione fossero una misura dell'affinità chimica ed enunciarono indipendentemente il "principio del massimo lavoro", il quale ci dice che, in tutte le reazioni chimiche, il processo che si manifesta è quello accompagnato dalla massima produzione di calore possibile.
Tale principio è certamente applicabile alla stragrande maggioranza delle reazioni chimiche in condizioni standard, ma non designa un principio totalmente generale utilizzabile per collegare gli effetti termici con l'affinità, poiché ignora il contributo dell'entropia (tra poco vedremo che cos'è!).
L'esistenza di reazioni reversibili che generano calore in una direzione e l'assorbono nell'altra fu alla base delle critiche sulle idee di Thomsen e Berthelot.
In particolare, nel 1882, il fisico tedesco Hermann von Helmholtz dimostrò, nell'opera Die Thermodynamik chemischer Vorgänge, che l'affinità è una misura non del calore emesso, bensì del massimo lavoro (o meglio, energia libera) creato in condizioni di reversibilità.
Tali critiche spinsero Berthelot e Thomsen a rinnegare il proprio principio.
Successivamente, il tedesco Nernst dimostrò che il principio di Thomsen-Berthelot risulta completamente accettabile solamente in prossimità dello zero assoluto.
Nel 1906, un ponte tra la termochimica e la termodinamica fu costruito proprio da Walther Hermann Nernst (1864-1941), premio Nobel per la Chimica nel 1920 per la sua scoperta del terzo principio della termodinamica, basata proprio su ricerche di termochimica.
La validità del terzo principio della termodinamica e l'idea che esso rappresentasse una legge fondamentale della natura furono largamente confermate dalle ricerche del chimico fisico americano William Francis Giauque (1895-1982), professore a Berkeley, che con i suoi studenti realizzò un ingente numero di ricerche a bassissime temperature.
In particolare, Giauque e il suo studente Duncan P. MacDougall, studiando l'azione di campi magnetici per valutare l'entropia di sistemi paramagnetici, inventarono nel 1933 la tecnica della demagnetizzazione adiabatica, la quale permette di raggiungere temperature molto vicine allo zero assoluto.
A seguito di questo excursus storico, perveniamo al nocciolo della questione: scopriamo cosa sono l'entalpia e l'entropia.
Cominciamo dall'entalpia!
Possiamo iniziare a dire che l'entalpia è una diretta conseguenza del primo principio della termodinamica.
Ma cosa afferma il primo principio?
Consideriamo un sistema che possa scambiare sia lavoro meccanico che calore con l'ambiente circostante.
Sperimentalmente vale sempre il seguente risultato: se il sistema compie una certa trasformazione dallo stato A allo stato B, scambiando calore e lavoro con l'ambiente, Q e W dipendono dalla trasformazione che unisce i 2 stati termodinamici, mentre la differenza Q - W risulta indipendente dalla trasformazione.
Volendo esprimere il tutto attraverso il linguaggio matematico, chiamando ΔU la variazione di energia interna, il primo principio della termodinamica può esser scritto come:



o, volendo isolare il calore in un membro dell'equazione:




La prima cosa che possiamo constatare è il fatto che il 1° principio della termodinamica è un vero e proprio principio di conservazione dell'energia.
A proposito di energia, è presente una particolare forma di energia, l'energia interna: ma che cos'è precisamente?
L'energia interna non deve essere vista alla stregua dell'energia cinetica e dell'energia potenziale, legate allo stato complessivo di moto di un certo corpo, bensì come una tipologia di energia collegata a proprietà interne del sistema (ad esempio, moto molecolare o forze intermolecolari), dipendenti da coordinate termodinamiche come temperatura del sistema, pressione a cui è sottoposto o volume che occupa.
L'energia interna è dunque una funzione di stato, ovvero una precisa relazione tra coordinate termodinamiche, le cui variazioni forniscono gli scambi energetici del sistema considerato con l'ambiente che lo circonda durante una trasformazione.
Il primo principio della termodinamica pone inoltre in evidenza l'esistenza di un meccanismo di scambio di energia, il quale risulta non esprimibile come un comune lavoro meccanico macroscopico: ci stiamo riferendo ovviamente al calore.
La formulazione matematica del 1° principio ci fornisce quindi la definizione più rigorosa di calore, sia da un punto di vista concettuale sia dal punto di vista del calcolo.
Tenendo presente il primo principio della termodinamica, è facile definire l'entalpia H.
Infatti, nel caso di una trasformazione isobara, cioè che avviene a pressione costante, il calcolo del calore che il sistema considerato assorbe (o cede) dall'ambiente è facilitato sfruttando appunto l'entalpia H, definita dalla seguente equazione:

 

Anche l'entalpia, alla stregua dell'energia interna, è una funzione di stato, poiché sia U che pV sono funzioni solo delle coordinate termodinamiche.
Il termine "entalpia" deriva dal greco enthalpos, che significa letteralmente "portare calore dentro".
Per quanto riguarda una qualsivoglia trasformazione infinitesima, basta differenziare l'uguaglianza precedente per ottenere l'entalpia infinitesima:



Supponendo che la trasformazione considerata sia quasi statica, senza attrito, mischiando la formula del 1° principio della termodinamica con l'equazione precedente, otteniamo:



Supponendo poi che si tratti di una trasformazione a pressione costante (p = costante implica dp = 0), abbiamo che:



Tirando le fila del discorso, la quantità di calore che il sistema fornisce (assorbe) in una trasformazione isobara risulta eguale alla sua diminuzione (aumento) di entalpia.  
Ponendoci nella prospettiva della Chimica, il fatto che l'entalpia sia una funzione di stato significa che H dipende solo dalle condizioni dei reagenti e dei prodotti finali e non dai passaggi intermedi con i quali le sostanze si trasformano.
Riportiamo dunque una nuova formulazione della già citata legge di Hess: la variazione di entalpia di una reazione è la differenza tra l'entalpia finale e quella iniziale del sistema.
In altre parole, essa corrisponde alla differenza tra l'entalpia dei prodotti di reazione e quella dei reagenti:


 
Analizzando una reazione chimica, risultano pertanto possibili 2 casi:

1) ΔH negativa: reazione esotermica. L'energia interna del sistema diminuisce.
2) ΔH positiva: reazione endotermica. L'energia interna del sistema aumenta.

Compiamo un semplice esempio di calcolo di entalpia in ambito chimico.
Poniamo, ad esempio, che vogliamo calcolare l'entalpia di formazione (cioè la variazione di entalpia che accompagna la formazione di una mole di un composto dai suoi elementi) dell'ossigeno atomico.
Sappiamo che l'ossigeno, nell'atmosfera, si presenta in forma biatomica (O2): dobbiamo quindi rompere il doppio legame O = O, il quale possiede un'energia pari a 498 kJ/mol.
Questo è proprio il quantitativo di energia che bisogna fornire all'ossigeno biatomico per ottenere l'ossigeno atomico.
La reazione illustrante il processo è dunque:



L'entalpia risultante è:




Il fatto che l'entalpia di formazione sia positiva significa che l'ossigeno atomico non è stabile, bensì tende a legarsi a un altro elemento per conseguire un minore livello di energia.
Ora focalizziamo la nostra attenzione su un concetto probabilmente ancor più importante ed interessante: l'entropia.
Prima di fornire una definizione di entropia, dobbiamo tuttavia scoprire il secondo principio della termodinamica.
Il suddetto fondamentale principio ha formulazioni diverse ma equivalenti; sveliamo qui l'enunciato di Kelvin-Planck e quello di Clausius.

ENUNCIATO DI KELVIN-PLANCK

"Non è possibile realizzare una macchina termica il cui unico risultato sia quello di trasformare in energia meccanica il calore estratto da una sola sorgente."

ENUNCIATO DI RUDOLF CLAUSIUS

"Non è possibile realizzare una macchina frigorifera il cui unico risultato sia quello di trasferire calore dalla sorgente più fredda a quella più calda."

Visti così, sembrerebbe che i 2 enunciati del secondo principio siano totalmente slegati l'uno dall'altro, essendo dedicati a macchine che funzionano in senso opposto.
Tuttavia, come già anticipato, essi sono indissolubilmente collegati e la verifica dell'uno implica necessariamente la conferma dell'altro.
Proviamo infatti a supporre, per assurdo, che l'enunciato di Clausius sia falso e che quello di Kelvin-Planck sia vero: ciò comporterebbe una contraddizione.
Prendiamo una normale macchina termica che assorbe un certo calore Q2 da una sorgente calda, produce lavoro W e cede una quantità di calore Q1 (minore di Q2) al refrigerante; la quantità




rappresenta il calore di scarto della macchina.
Se non risultasse valido l'enunciato di Clausius, potremmo costruire un frigorifero che trasferisce (senza il supporto di un motore esterno) calore dal refrigerante alla caldaia.
In generale, si avrebbe una macchina il cui unico risultato sarebbe quello di prelevare una quantità di calore Q2 dalla caldaia e di trasformarla completamente in lavoro.
Questo fatto contraddice l'enunciato di Kelvin, ipotizzato sin dall'inizio vero.
Ergo, l'enunciato di Clausius è sempre verificato se è vero l'enunciato di Kelvin-Planck.
Per completezza, svolgiamo anche il ragionamento opposto.
Supponiamo quindi, sempre per assurdo, che l'enunciato di Kelvin sia falso e che quello di Clausius risulti vero; anche qui, come vedremo, si giungerà a una contraddizione.
Consideriamo una macchina che, prelevando calore Q1 da una sorgente, è in grado di trasformarlo totalmente in un lavoro W (ciò può avvenire in quanto abbiamo ipotizzato che l'enunciato di Kelvin non abbia alcun valore), come un meccanismo rotante, ad esempio un mulino.
Incrementando man mano gli attriti è sempre possibile riversare integralmente il calore prodotto entro una sorgente maggiormente calda.
Ne consegue un trasferimento integrale, senza alcun dispendio di energia, di una certa quantità di calore Q1 da una sorgente fredda a una più calda, cozzando contro l'enunciato di Clausius e pervenendo a una contraddizione.
Ergo, l'enunciato di Kelvin-Planck risulta sempre verificato se è vero l'enunciato di Clausius.
Dunque, ricapitalondo brevemente i 2 enunciati equivalenti, non è possibile costruire una macchina il cui fine sia trasformare totalmente il calore in lavoro e, allo stesso tempo, non è possibile realizzare una macchina il cui unico meccanismo consista nel far passare calore da una fonte fredda a una maggiormente calda.
Tenendo presente tutto ciò, spingiamoci verso la nozione di entropia.
Innanzitutto, diciamo che, data una macchina M qualsiasi che scambia calore con n sorgenti, risulta valido il cosiddetto teorema di Clausius:


 



dove Q1,Q2,...,Qn rappresentano i calori scambiati con le sorgenti a temperatura T1,T2,...,Tn.



 









Se lo scambio di calore della macchina M avviene con una serie infinita di sorgenti, allora, chiamato dQ il calore scambiato con la sorgente a temperatura T, l'equazione precedente diviene:





Il particolare simbolo stabilisce che l'integrale risulta esteso a tutto il ciclo (ovvero una trasformazione termodinamica in cui lo stato finale coincide con lo stato iniziale) descritto dalla macchina M.
Le equazioni appena riportate descrivono il teorema di Clausius relativo a una qualsivoglia macchina M.
Ora, se la macchina M risulta reversibile (specifichiamo che una trasformazione reversibile non produce alterazioni permanenti, in quanto è sempre possibile "tornare indietro nel tempo", ossia ripristinare gli stati iniziali del sistema e dell'ambiente con cui esso interagisce), invertiamo tutti i cicli.
Ne consegue che:

- ogni scambio di calore cambia di segno;
- le disuguaglianze precedenti vanno invertite;
- si ha compatibilità fra i 2 casi soltanto se:





Tali uguaglianze esprimono il teorema di Clausius per quanto concerne le macchine reversibili.
Quando invece il processo ciclico appare irreversibile, il teorema di Clausius assume la seguente forma:





Detto ciò, siano A e B due stati qualsiasi di un sistema termodinamico.
Passiamo da uno all'altro per mezzo di 2 diverse trasformazioni reversibili, rappresentate dalle linee 1 e 2 della seguente immagine:













Se immaginiamo di percorrere in senso inverso la trasformazione 2 (la chiameremo dunque -2), abbiamo dato vita ad un ciclo reversibile, il quale si svolge da A a B lungo la prima trasformazione e da B ad A lungo la seconda invertita.
Ricordando il teorema di Clausius inerente alle macchine reversibili, abbiamo che:




Il passaggio finale deriva dalle proprietà delle trasformazioni reversibili, secondo le quali il cambio di verso nella trasformazione causa solamente il cambio di segno degli scambi energetici.
Risulta facile constatare che lungo una qualsivoglia trasformazione reversibile che colleghi gli stati A e B, vale la relazione:





Ci si rende conto che il valore dell'integrale





risulta sempre il medesimo, ossia non dipende dalla particolare trasformazione reversibile scelta per eseguire il calcolo.
Sicché, è possibile porre l'integrale uguale alla variazione di una certa funzione dipendente solo dalle coordinate termodinamiche del sistema nei 2 stati di equilibrio A e B:





La suddetta funzione di stato è proprio l'entropia (dal greco "en"= "dentro" e da "tropé" = "trasformazione").
Ovviamente, possiamo scrivere l'entropia anche in forma infinitesima, differenziando l'equazione precedente:




L'entropia è una grandezza estensiva, ovvero è dotata della proprietà dell'addittività: dati 2 sistemi di entropia S1 e S2, l'entropia complessiva sarà S = S1 + S2.
Diciamo anche che, essendo un particolare rapporto tra calore e temperatura, l'entropia si misura in joule/kelvin (J/K).
Ma perché è così importante il concetto di entropia?
L'entropia rappresenta una misura del disordine dell'Universo e non fa altro che aumentare.
Questa non è altro che una nuova formulazione del secondo principio della termodinamica.
Per capire meglio perché l'entropia aumenta sempre, immaginate di stare situati nella vostra stanza e che vostra madre vi ordini di mettere a posto poiché c'è un disordine incredibile.
















Quando "avrete messo in ordine" la stanza, tutta pulita e bella da vedere, dal punto di vista della Fisica, avrete creato ancor più disordine di prima!
Per quale ragione?
Compiendo tutte le azioni atte a "rimettere in ordine" la stanza, avete smosso un'incredibile quantità di particelle (d'altronde, tutto è composto da particelle), generando un aumento di entropia, e quindi, di disordine!
Un altro esempio illuminante: un pacco di spaghetti crudi (cioè, detto in termini più scientifici, un fascio di bastoncini di pasta allineati) possiede bassa entropia, poiché ha un alto grado di ordine.
Ma quando gli spaghetti vengono buttati in una pentola d'acqua bollente, per cucinarli nella modalità che preferite, essi tendono ad attorcigliarsi e, di conseguenza, l'entropia aumenta!



















Un ulteriore esempio: avete mai giocato da piccoli con i soldatini giocattolo?
La vostra risposta non cambierà certo la seguente considerazione: i soldatini disposti in file belle ordinate avranno bassa entropia, mentre, sparpagliati in modo caotico sul pavimento, acquisteranno un'entropia maggiore!













Ma d'altronde, per capire quanto sia naturale che l'entropia totale di un sistema aumenti sempre, basta considerare di afferrare un piatto di porcellana e gettarlo per terra, frantumandolo in mille pezzi.
Vi chiedo (in modo retorico): è più facile rompere il piatto o ricomporlo esattamente come prima, in seguito alla sua distruzione?




















Dovreste aver dunque capito che l'entropia è un principio chiave dell'Universo.
Giusto per dare un tocco di rigore in più, forniamo la formulazione matematica del 2° principio della termodinamica in termini di entropia:

 

Traslando il tutto in parole, si può constatare che, in un sistema isolato (ricordiamo che designa quello in cui non avvengono scambi con l'ambiente), l'entropia aumenta sempre o, al massimo, rimane uguale a prima; non diminuisce mai!
Andiamo a scoprire come agisce l'entropia nel campo della Chimica.
Nelle reazioni chimiche, l'ordine e il disordine si devono alla struttura stessa delle molecole e un aumento di entropia corrisponde a un incremento del disordine molecolare.
In generale:
  • aumenta il disordine (quindi l'entropia), quando:
- si genera un miscuglio o una soluzione;
- si passa dallo stato solido a quello liquido o a quello aeriforme;
- in una reazione, le molecole dei prodotti sono più piccole e dunque maggiormente numerose di quelle dei reagenti, come avviene ad esempio nelle reazioni di decomposizione;
- si passa a prodotti gassosi da reagenti solidi o liquidi;

Esempi di reazione con variazione di entropia positiva sono:

a) decomposizione del carbonato di calcio:



L'entropia aumenta poiché da ogni molecola di carbonato di calcio se ne formano 2, di cui una gassosa.
Nello specifico, la variazione di entropia è pari a ΔS = +0,17 kJ/mol K;

b) ionizzazione dell'acido cloridrico in una soluzione acquosa:




L'entropia aumenta dato che, in soluzione, il numero delle particelle raddoppia.
  • aumenta l'ordine (diminuisce l'entropia), quando:
- una sostanza cristallizza dalla soluzione satura;
- un vapore condensa, un gas liquefa o un liquido solidifica;
- in una reazione, nel prodotto diminuisce il numero delle molecole, come accade nelle reazioni di sintesi;
- si genera un precipitato (la precipitazione rappresenta il fenomeno di separazione di una certa sostanza solida da una soluzione) da reagenti gassosi o liquidi.

Un esempio lampante di reazione con variazione di entropia negativa è la sintesi dell'ammoniaca:




D'altronde, durante la suddetta reazione, il numero di molecole si dimezza, comportando una diminuzione di entropia equivalente a ΔS = -0,198 kJ/mol K.
Riporto ora un meraviglioso passo tratto dall'articolo "Le origini cosmiche della freccia del tempo" di Sean M. Carroll su Le scienze n.480, illustrante l'entropia:

"Tra gli aspetti innaturali dell'Universo ce n'è uno che spicca: l'asimmetria del tempo. Le leggi microscopiche della Fisica che governano il comportamento dell'Universo non distinguono tra passato e futuro, eppure l'Universo delle origini, caldo, denso, omogeneo, è completamente diverso da quello di oggi, freddo, diradato, eterogeneo. L'Universo, in partenza, era ordinato, ed è diventato sempre più disordinato. L'asimmetria del tempo, la freccia che punta dal passato al futuro, ha un ruolo essenziale nella nostra vita quotidiana: è alla base del fatto che non possiamo trasformare una frittata in un uovo e che ricordiamo il passato ma non il futuro...I fisici esprimono il concetto di asimmetria temporale con il famoso secondo principio della termodinamica: all'interno di un sistema chiuso l'entropia non diminuisce mai...Nel XIX secolo Ludwig Boltzmann spiegò l'entropia in termini di distinzione tra il microstato di un oggetto e il suo macrostato. Per descrivere una tazza di caffè presumibilmente ci riferiremmo al suo macrostato: la sua temperatura, la pressione e altre caratteristiche complessive. Il microstato, invece, descrive con esattezza la posizione e la velocità di ogni atomo del liquido. A un particolare macrostato corrispondono molti microstati diversi: possiamo spostare qualche atomo qua e là, e chi guarda a livello macroscopico non se ne accorgerebbe. L'entropia è il numero di microstati diversi corrispondenti allo stesso macrostato. Quindi ci sono più modi di organizzare un dato numero di atomi in una configurazione ad alta entropia che in una a bassa entropia. Immaginiamo di versare latte nel caffè. Ci sono moltissimi modi di distribuire le molecole in modo che latte e caffè siano completamente mescolati, ma relativamente pochi di disporle in modo che il latte sia separato dal caffè. Quindi la miscela ha un'entropia maggiore. Da questo punto di vista, non è sorprendente che l'entropia tenda a crescere col tempo. Gli stati ad alta entropia sono molti di più di quelli a bassa entropia; quasi ogni cambiamento al sistema porterà a uno stato con entropia maggiore, semplicemente perché è più probabile. Per questo il latte si mescola al caffè mentre non succede mai che se ne separi. Anche se è fisicamente possibile che tutte le molecole del latte si mettano spontaneamente d'accordo per disporsi l'una accanto all'altra, statisticamente è molto improbabile. Se aspettassimo che accadesse spontaneamente con il movimento casuale delle molecole, dovremmo attendere più dell'attuale età dell'Universo osservabile." 

Andiamo adesso a tracciare una brevissima storia dell'entropia!
Il protagonista di tale storia è sicuramente il già numerose volte citato Rudolf Julius Emanuel Clausius (1822-1888), notevolmente influenzato dai lavori di Nicolas Léonard Sadi Carnot e Benoît Paul Émile Clapeyron.
Clausius, professore di Fisica a Berlino, all'Eidgenössische Technische Hochschule (ETH) di Zurigo, a Würzburg e infine a Bonn, analizzò in modo preciso il problema della trasformazione di calore in lavoro, partendo appunto dalle ricerche di Carnot e Clapeyron.
Nel 1850 riformulò in maniera più rigorosa il primo principio della termodinamica e formulò anche l'importante enunciato del 2° principio che abbiamo analizzato.
Nel 1865 Clausius introdusse appunto l'entropia e scelse questo apposito termine in quanto simile a quello di energia, dato che le 2 grandezze risultavano, peraltro, strettamente collegate.
Sempre nel 1865, Clausius definì il concetto di trasformazione irreversibile, mostrando che in tali trasformazioni l'entropia aumenta sempre, e riformulò i 2 principi della termodinamica nel seguente modo:

1) "L'energia dell'Universo è costante";
2) "L'entropia dell'Universo tende a un massimo".

Secondo Clausius la nozione di entropia scaturiva dall'idea che una parte dell'energia spesa per fare lavoro viene persa per dissipazione ed è dunque inutilizzabile.
Tale considerazione era già presente nel lavoro sull'efficienza delle macchine del 1803 di Lazare Carnot, padre di Sadi Carnot, il quale stabiliva che nel moto delle parti di qualsiasi macchina sussistono sempre perdite di lavoro utile, ovvero di energia.
Clausius diede vita anche al concetto di energia totale di un sistema fisico, oggi nota come entalpia, termine però coniato all'inizio del XX secolo dall'olandese Heike Kamerlingh Onnes (1853-1926), famoso per la scoperta dei superconduttori.
Giacché stiamo parlando di entropia, direi di approfondire brevemente un interessantissimo aspetto accennato nell'articolo "Buchi Neri": l'entropia dei buchi neri.
Come scrisse il premio Nobel Subrahmanyan Chandrasekhar:

"I buchi neri sono i più perfetti oggetti macroscopici dell'Universo: i soli elementi necessari per la loro costruzione sono i nostri concetti di spazio e tempo. E poiché la teoria della relatività generale fornisce solo un'unica famiglia di soluzioni per la loro descrizione, sono anche gli oggetti più semplici."

I buchi neri sono, aggiungo io, oggetti spettacolari, maestosi, probabilmente rappresentano la forza della natura più devastante che ci sia.
Ritornando all'entropia, quella di un buco nero risulta proporzionale all'area dell'orizzonte degli eventi del buco nero considerato.
Sussiste infatti la nota formula di Bekenstein-Hawking, che attribuisce al buco nero un'entropia ben definita, equivalente a:




Il bello di questa formula sta nel fatto che non solo è estremamente semplice ma che mette insieme la costante fondamentale della Meccanica Quantistica (la costante di Planck, scritta nella forma di Dirac, ovvero come h tagliato, ħ) e quella della Relatività Generale (la costante di gravitazione universale G di Newton).
Una cosa simpatica sta nel fatto che quel "BH" può riferirsi sia a Bekenstein-Hawking che a "black hole"!
Poi c'è k che è la costante di Boltzmann, una delle costanti fondamentali della termodinamica, c, indicante ovviamente la velocità della luce e, infine, A, cioè l'area dell'orizzonte degli eventi.
Cerchiamo di fornire un'idea degli eccezionali valori di entropia che un buco nero può avere, prendendo come riferimento quello che, negli anni '60, si riteneva fosse il maggior contributo all'entropia dell'Universo.
Stiamo parlando della radiazione cosmica di fondo a 2.7 K, lasciata dal Big Bang.
Tale entropia, in unità naturali, risulta pari a circa 10⁸ o 10⁹ per barione (i barioni, come protoni e neutroni, sono particelle formate da 3 quark).
Adesso, confrontiamo questa cifra con l'entropia dovuta ai buchi neri situati nell'Universo.
In media, l'entropia per barione dovuta ai buchi neri è pari a circa 10²¹, cioè ben 12-13 ordini di grandezza maggiore di quella dovuta alla radiazione cosmica di fondo!
Ergo, i buchi neri sono certamente gli oggetti che comportano il maggior contributo all'entropia totale del nostro Universo!
Ovviamente, qualunque sia l'esatto valore dell'entropia dovuta ai buchi neri, esso è destinato a salire con il trascorrere del tempo.
Adesso, stacchiamoci dai buchi neri e scopriamo un'altra interessante curiosità: il "diavoletto di Maxwell".
Come noto, il fisico scozzese James Clerk Maxwell è colui che elaborò 4 equazioni differenziali alle derivate parziali sintetizzanti l'intero elettromagnetismo.
Tuttavia, è riduttivo pensare che una mente come Maxwell si sia interessata solo all'elettromagnetismo!
Maxwell diede infatti importanti contributi anche alla termodinamica e alla meccanica statistica.
Uno dei tentativi più controversi di violare il secondo principio della termodinamica fu proprio l'esperimento mentale proposto da Maxwell verso il 1860.
Immaginiamo 2 contenitori pieni di gas, posti l'uno accanto all'altro.
Tra i 2 contenitori viene aperto un minuscolo foro, in modo che le particelle di gas possano passare dall'uno all'altro.
Se uno dei 2 è più caldo, le particelle attraverseranno il foro e la temperatura si equilibrerà progressivamente.
Maxwell immaginò che esistesse un diavoletto, un demone microscopico, capace di acciuffare solamente le molecole più veloci presenti in un contenitore, per poi indirizzarle nell'altro.
In tal modo, la velocità media delle molecole di quest'ultimo sarebbe cresciuta, a spese del primo.
Pertanto, Maxwell suppose che fosse possibile trasferire calore dal contenitore più freddo a quello più caldo, o, in altri termini, che potesse sussistere una diminuzione di entropia.




















Da quel momento in poi, diversi fisici si sono scervellati per cercare di trovare una spiegazione del perché il diavoletto di Maxwell non può funzionare.
Molti, tra cui Leó Szilárd nel 1929, hanno asserito che il processo di misura della velocità delle particelle e l'apertura o la chiusura di un filtro di qualsivoglia tipologia avrebbero richiesto lavoro, e dunque energia, con la conseguenza che l'entropia totale del sistema non sarebbe diminuita.



Volevo porre fine alla trattazione riportando una rivisitazione dei principi della termodinamica dalla prospettiva della teoria dei giochi:
  • 1° Principio: non puoi vincere!
  • 2° Principio: puoi solo perdere!
  • 3° Principio: non puoi uscire dal gioco! 
Come ciliegina sulla torta, un divertente video sull'entropia:



domenica 15 luglio 2012

PERCHÉ IL PEPERONCINO "BRUCIA" LA LINGUA?

Spesso, nei nostri piatti, facciamo uso di una particolare spezia, il peperoncino, che crea un "bruciore", un pizzicore sulla nostra lingua!













Ma perché ciò accade?
Una risposta soddisfacente e rigorosa la può fornire la Chimica!
Infatti, i composti chimici responsabili della sensazione di bruciore innescata dal peperoncino sono i cosiddetti capsaicinoidi, con particolare riferimento alla capsaicina.
La formula bruta della capsaicina è C18H27NO3.
La sua formula di struttura è invece la seguente:















Come si può ben constatare, la sua struttura presenta un atomo di azoto (N) accanto a un atomo di carbonio (C), quest'ultimo unito mediante un doppio legame con un atomo di ossigeno (O).
Inoltre, vi è un singolo anello aromatico (o anello benzenico, che è la struttura esagonale in cui ogni vertice corrisponde a un atomo di carbonio legato ad un atomo d'idrogeno, e con 3 legami doppi C=C alternati!) al quale è collegata una catena di atomi di carbonio.
Possiamo peraltro asserire che questo tipo di struttura è consonante anche con un altro composto chimico, la piperina, tipica del pepe nero e di quello bianco.
Infatti, la formula bruta della piperina è C17H19NO3, mentre la formula di struttura è:











Molti potrebbero essere curiosi di sapere se esiste un indice, una scala che misuri la piccantezza di un peperoncino o di una tipologia di pepe.
Voglio creare un po' di suspance e dunque andrò a svelare tra poco la risposta alla suddetta curiosità; ora andiamo invece a scoprire brevemente l'interessante storia del pepe e del peperoncino.
Il pepe viene ricavato dalla pianta tropicale Piper nigrum, originaria dell'India, che si presenta alla stregua di una liana robusta, sublegnosa, la quale può raggiungere i 6 metri di altezza.
Quando questa pianta ha un'età compresa tra 2 e 5 anni, essa inizia a produrre piccoli frutti di colore rossastro, che assumono una conformazione pressoché sferica.
Nelle giuste condizioni, un Piper nigrum può continuare la sua attività produttiva per circa 40 anni e, durante ogni stagione, può produrre ben 10 kg di pepe!
Circa 3/4 di tutto questo pepe prodotto viene venduto come pepe nero, il quale si ottiene tramite una fermentazione fungina di bacche di pepe non ancora mature.
Anche il pepe bianco, il quale è ottenuto dai frutti maturi essiccati a cui viene tolto il cosiddetto pericarpo, ovvero la polpa e la buccia, riscuote un notevole successo commerciale.
Una percentuale decisamente più esigua di pepe viene venduta alla stregua di pepe verde.
Le minuscole bacche verdi, raccolte non appena incominciano a maturare, vengono poste in salamoia.
Al contrario, ulteriori tipologie di colore di un pepe non si trovano direttamente in natura, ma vengono prodotte colorando artificialmente il normale pepe oppure cogliendo "frutti" da altre specie di piante (ne costituisce un esempio il pepe rosa, detto anche falso pepe, derivante dall'albero sempreverde Schinus molle).














Oggi, i maggiori produttori di pepe, oltre la già citata India, sono il Brasile, l'Indonesia e la Malaysia.
È opinione comune il fatto che il pepe sia stato introdotto in Europa da mercanti arabi, e che vi sia giunto passando per le antiche vie delle spezie, cioè per Damasco e per il mar Rosso.
Nel V secolo a.C., i Greci conoscevano il pepe e lo utilizzavano per scopi medici piuttosto che gastronomici, spesso come antidoto per i veleni.
Secoli dopo, invece, i Romani sfruttarono tale spezia, in cucina, per 2 motivi principali:

1) per conservare il cibo: a quel tempo non esistevano ovviamente i frigoriferi; dunque, usavano il pepe e altre spezie per coprire il sapore di cibi guasti e per rallentare l'ulteriore deterioramento;
2) per esaltare i sapori: il pepe veniva utilizzato specialmente per fornire maggiore sapore ai cibi essiccati, affumicati e salati.

Durante il Medioevo la maggior parte dei traffici dell'Europa con l'Oriente si verificava attraverso Baghdad e Costantinopoli (l'attuale Istanbul), in cui le merci orientali pervenivano seguendo la riva meridionale del mar Nero.
Da Costantinopoli le spezie venivano imbarcate per Venezia, la quale, nel Basso Medioevo e nel Rinascimento, esercitò un dominio quasi assoluto sugli scambi commerciali.
Nel Quattrocento il monopolio veneziano del commercio delle spezie era così incredibile da spingere altri Paesi a prendere in considerazione la possibilità di rinvenire vie alternative per l'India e, in particolare, una rotta marittima che circumnavigasse l'Africa.
Tra questi "altri Paesi" c'era pure la Spagna, la quale aveva iniziato ad interessarsi al commercio delle spezie e, soprattutto, del pepe.
Nel 1492, come ben noto, il navigatore genovese Cristoforo Colombo, sicuro di una via alternativa probabilmente più corta per raggiungere il confine orientale dell'India navigando verso occidente, riuscì a convincere i sovrani Ferdinando il Cattolico e Isabella di Castiglia a finanziare una spedizione verso l'India.
Sappiamo benissimo che Colombo riuscì a sbarcare in un "nuovo mondo", ma non era l'India, bensì l'America!
Egli, strenuamente convinto di essere arrivato in India, denominò (erroneamente!) quelle terre Indie occidentali e i suoi abitanti indiani.
La cosa interessante sta nel fatto che, nel corso del viaggio verso le Indie occidentali, Colombo trovò ad Haiti un'altra spezia piccante, il peperoncino rosso, e decise di riportarla con sé in Spagna.
La nuova spezia avrebbe, in seguito, viaggiato verso est con i portoghesi attorno all'Africa, fino alla vera India e ancora oltre.
In meno di 50 anni il peperoncino si diffuse in tutto il globo, tanto che oggi molte persone non possono farne a meno nella loro cucina!
A differenza del pepe, il peperoncino rosso non è prodotto da una singola specie di pianta, bensì da diverse tipologie del genere Capsicum.
Bene, è venuto il momento di rispondere al quesito lasciato in sospeso!
Sì, esiste un'apposita scala atta a misurare la piccantezza dei vari tipi di spezie.
Colui che la ideò fu il farmacista statunitense Wilbur Scoville nel 1912 ed essa assunse quindi la denominazione di Scala organolettica Scoville.
Per dar vita a tale scala, Scoville riunì un comitato di bravi giudici, educandoli a diluire gradualmente estratti di pepi piccanti fin quando la sensazione di piccantezza fosse divenuta non più percepibile.
Il pepe più piccolo da loro misurato, quello dell'Avana (habanero), risultò essere compreso tra 200.000 e 300.000 unità Scoville (SHU).
Essi rinvenirono anche il valore:
  • del pepe di Caienna, il quale risultò essere pari a 35.000 SHU;
  • del popolare peperoncino jalapeño (Capsicum annuum), che prende il nome dalla città di Xalapa, il quale risultò essere pari a circa 4000 SHU.
Pensate al peperoncino più piccante con cui vi siate mai imbattuti; il suo valore in unità Scoville non è niente in confronto al valore della capsaicina pura, che vanta un eccezionale punteggio pari a 16 milioni di unità Scoville!
Ma qual è il peperoncino più piccante del mondo?
Esso è il cosiddetto "Scorpione di Trinidad" ("Trinidad Scorpion Butch Taylor"), originario del distretto di Moruga in Australia.
Lo ha identificato, nel febbraio 2012, il Chili Pepper Institute dell'Università del New Mexico.
Il motivo della particolare denominazione deriva in parte dal nome del suo produttore, appunto Butch Taylor, e in parte dalla sua particolare forma simile a quella del pungiglione di uno scorpione.
Il suo grado di piccantezza è stato stimato corrispondente all'incredibile valore di 1.463.700 SHU!
Per immaginare l'elevatissima piccantezza del suddetto peperoncino, basti pensare che un normale peperoncino usato nelle nostre cucine ha un valore SHU pari a circa 5000 (anche se la piccantezza di un peperoncino calabrese è stimata eguale a circa 15.000 SHU)!
Non vi consiglio pertanto di masticare lo "Scorpione di Trinidad", se non volete "andare a fuoco"!






  
 







Come ciliegina sulla torta, vi lascio 2 video concernenti delle intepretazioni al piano di brani dei Red Hot Chili Peppers: