slideshow 16 slideshow 1 slideshow 2 slideshow 3 slideshow 4 slideshow 5 slideshow 6 slideshow 7 slideshow 8 slideshow 0 slideshow 9 slideshow 10 slideshow 11 slideshow 12 slideshow 13 slideshow 14 slideshow 15

BLOG: LA CHIMICA E LA SOCIETA'

Condividi contenuti La Chimica e la Società
Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.
Aggiornato: 3 settimane 1 giorno fa

Dalle forze di van der Waals all’adesione.1. L’effetto Casimir.

26 giugno, 2019 - 08:28

Claudio Della Volpe

In un libro (THE CASIMIR EFFECT Physical Manifestations of Zero-Point Energy

2001, WSP) dedicato al tema dell’effetto Casimir, l’autore K. Milton scrive

It might seem to the reader that the Casimir effect is an esoteric aspect of quantum mechanics of interest only to specialists. That this is not the case should be apparent from the duality of this effect with van der Waals forces between molecules. The structure of gross matter is therefore intimately tied to the Casimir effect.

In altri termini quelle che i chimici hanno sempre chiamato forze di van der Waals, sono di fatto al cuore della meccanica quantistica più sofisticata e sarebbe più giusto chiamarle forze di Casimir-Polder.

Hendrik Casimir, 1909-2000

Vediamo di darci un’occhiata.

C’era una volta l’equazione di stato dei gas ideali, una delle prime e più conosciute leggi di comportamento della materia, basata sia sull’esperienza sperimentale che sulla teoria cinetica dei gas. Credo non ci sia relazione più conosciuta e studiata da chi si avvicina alla chimica.

PV=nRT

Fu proposta nel 1834 da Émile Clapeyron, come summa sperimentale e teorica di secoli di studio del comportamento della materia in fase gassosa.

Nel 1873 J. D. van der Waals ne propose una modifica importante Over de Continuïteit van den Gas – en Vloeistoftoestand, Sulla continuità dello stato liquido e gassoso); per la formulazione di questa legge lo studioso fu insignito del Premio Nobel per la fisica nel 1910.

L’articolo fu tradotto e commentato in inglese su Nature nel 1874 da J. Clerk-Maxwell.

Questa modifica introduceva una nuova equazione:

I due parametri a sinistra nell’equazione sono un’assoluta novità; b è il covolume, ossia il volume occupato dalle molecole o dagli atomi in fase gassosa, che bisogna sottrarre al volume totale del recipiente per avere il volume libero a disposizione delle molecole in movimento. van der Waals pone questo valore pari a 4 volte il volume delle molecole come tali; si tratta, come nota Maxwell, di una idea che in qualche modo ha basi empiriche; oggi diremmo che le molecole non sono oggetti rigidi come li immaginiamo a volte.

Per esempio, il valore oggi accettato per il covolume dell’acqua è 30cm3/mole, mentre il volume molare dell’acqua liquida è solo 18cm3/mole; le molecole allo stato liquido sono “compresse” rispetto allo stato gassoso: le molecole e gli atomi sono oggetti soffici, non sfere dure.

Ma la parte più interessante è l’altro parametro; che esprime di quanto dobbiamo aumentare numericamente la pressione del gas per rispettare un comportamento ideale. Questo equivale a dire che fra di esse si esercita una sorta di pressione negativa, una pressione interna, direbbe oggi la teoria cinetica, che si oppone alla pressione traslazionale o mozionale (come la chiamano alcuni), che riduce la pressione che il gas esercita sulle pareti esterne. Ci sono dunque delle forze agenti fra le molecole che, pur incapaci di tenerle insieme quando sono allo stato gassoso, ne riducono le capacità di muoversi, ne riducono la pressione esercitata; c’è fra di loro una forza di attrazione come fra i pianeti del sistema solare e il Sole.

Dal punto di vista sperimentale i parametri di van der Waals sono legati alle condizioni critiche, ossia alle condizioni in cui la funzione di van der Waals ha un flesso e che delimita il confine oltre il quale il gas entra in equilibrio con la fase liquida.

Dal punto di vista teorico come si affronta la cosa? Come sono correlati i parametri con il potenziale di interazione?

Devo dire che c’è una certa ambiguità nelle definizioni che si trovano in giro; ma in questo post chiameremo forze di van der Waals tutte le forze che dipendono da interazioni dipolari sia che coinvolgano dipoli fissi, come una molecola d’acqua o di monossido di carbonio, che dipoli indotti, come un atomo di elio sottoposto ad un campo elettrico di qualunque origine; dunque le tre combinazioni dipolo-dipolo (forze di Keesom), dipolo-dipolo indotto (forze di Debye) e dipolo indotto-dipolo indotto (forze di London) saranno tutte considerate nell’insieme denominato forze di van der Waals o forze di dispersione.

Le energie di interazione fra atomi conseguenti alle forze di van der Waals variano con l’inverso della sesta potenza della distanza: W=-A/r6, dove A è una costante.

Se volete una dimostrazione esatta di come si arrivi a questa conclusione potete guardarvi questo link.

In sostanza questo tipo di interazione è la componente attrattiva nella rappresentazione che spesso viene data della interazione biatomica, definita curva di Lennard-Jones. Ovviamente se la energia di interazione o potenziale di interazione (il potenziale ricordiamo che è una energia per unità di “carica” del campo di interazione) varia con l’inverso della sesta potenza della distanza, allora la forza varierà con l’inverso della settima potenza poiché F=dV/dr (dove F è la forza).

Un aspetto di cui si parla poco è che le forze di van der Waals possono essere anche repulsive, dipendono dalla combinazione fra tutte le attrazioni e le repulsioni; nel grafico seguente la cosa è correlata esplicitamente ai parametri macroscopici, meglio di quanto non possa fare la curva di Lennard-Jones fra due atomi.

Questa rappresentazione è la base di molti dei discorsi e delle descrizioni semplificate che si fanno e c’è un errore a cui voglio accennare: questa descrizione vale nell’interazione fra DUE particelle, come appunto avviene in un un gas di van der Waals in cui la distanza fra le molecole è grande. Ora usare questo tipo di analisi in fase condensata è sbagliato. In fase condensata dove le distanze fra le particelle sono molto inferiori avviene che non si possa più usare un modello di calcolo “ a coppie” di particelle, in cui il minimo è ben definito.

Succede una cosa che potremmo esemplificare con questa immagine e che significa che l’uso del termine “interazioni polari” è spesso un abuso concettuale.

Ma di questo argomento e delle sue conseguenze sulle interazioni in fase condensata parleremo in un altro prossimo post. Anche perchè un aspetto qui non considerato con precisione è quello delle variazioni dei potenziali conseguenti al considerare forze fra oggetti macroscopici in generale. Altrove potete trovare una definizione più precisa: forze di Lifshitz-van der Waals, a seguire ad un fondamentale articolo di Lifshitz sul tema delle interazioni dipolari fra corpi macroscopici in genere, successivo a quello di cui parlamo oggi qui (E.M. Lifshitz, The theory of molecular attractive forces between solid bodies, Zh. Exsp. Teor. Fiz. 29, 83-94 (1955)

e E.M. Lifshitz, The theory of molecular attractive forces between solid bodies, Sov. Phys. JETP 2, 73-83 (1956)).

Ma ne riparleremo.

Torniamo alle forze di van der Waals.

Le forze di van der Waals per come sono state introdotte ed analizzate e per come sono conosciute mediamente dal chimico, sono una forma semplificata della situazione effettiva.

Hendrik Casimir è stato un fisico olandese (1909-2000) che ha lavorato presso il laboratorio Philips ad Eindhoven, uno dei più prestigiosi laboratori di fisica del mondo; pur lavorando presso una azienda privata, Casimir ha sviluppato concezioni teoriche generali e fondamentali. Nel 1947 Hendrik Casimir e Dirk Polder proposero l’esistenza di una forza fra due atomi polarizzabili e fra un’atomo di questo tipo ed una piastra conduttrice chiamata forza di Casimir–Polder. Voi mi direte ma questa è roba vecchia, la conosciamo già, è la forza di London!

Può essere interessante capire la differenza fra le forze di London ipotizzate già nel 1937 fra due atomi e il punto di vista di Casimir-Polder.

La differenza come vedete già dai titoli è che London considera piccole distanze e non tiene conto dell’effetto del campo e della sua dinamica nel tempo; il campo è ritardato, si espande a velocità finita ed i suoi effetti si propagano a velocità finita; dunque mentre London ragiona come in una azione a distanza, Casimir accetta il fatto basilare che il campo elettromagnetico viaggi e si modifichi a velocità finita, quella della luce. Questa impostazione che “ritarda” la trasmissione del segnale è appunto chiamata “ritardo”, retardation in inglese.

Questa è certamente una correzione di secondo ordine per così dire ma non così piccola come si può immaginare. Il titolo del lavoro di Casimir e Polder ha a che fare proprio con la differenza di cui parliamo.

La conclusione di Casimir e Polder è la seguente:

Dunque come vedete, a piccole distanze le cose non cambiano, l’approssimazione di London è accettabile, ma quando si considerano distanze più grandi le interazioni variano più velocemente.

A questo punto interviene l’imponderabile. Dopo una conversazione fra Casimir e Bohr sul lavoro pubblicato, Bohr suggerisce che il fenomeno previsto da Casimir e Polder abbia a che fare con la cosiddetta energia di punto zero e questo catalizza un secondo lavoro a nome del solo Casimir che gli dà fama perenne. (http://www.dwc.knaw.nl/DL/publications/PU00018547.pdf) Come vedete il lavoro effettivo (più vecchio di qualche settimana) è citato in questo mostrato in figura, ma non sono riuscito a scaricarlo; il suggerimento di Bohr è riportato in varie cronache ma non corrisponde a qualcosa di scritto, è tradizione orale che ci sia stato!

Cosa è questa benedetta energia di punto zero? E’ una di quelle cose che i chimici si trovano scodellata dalla fisica teorica e con la quale devono fare i conti: piccola, sottile, imprevedibile e scotta come un laser UV.

Giusto per chiarire se vi andate a leggere il lavoro di London del 1937 l’energia di punto zero è già presente.

Bella questa descrizione qualitativa ma chiarissima: l’energia di punto zero viene dalla natura profonda della MQ: gli oggetti quantistici non stanno mai fermi!

Ora una nota può servire; alcuni presentano questa energia di punto zero come derivante dalla relazione di indeterminazione fra energia e tempo; ma questa è una approssimazione concettuale forte; come dire per brevi istanti di tempo il primo principio può essere violato! Falso! La MQ non prevede la violazione del primo principio.

Se fosse così esisterebbero due operatori quello dell’energia, l’hamiltoniano e quello del tempo che dovrebbero essere nel medesimo rapporto degli altri operatori connessi dalle relazioni di indeterminazione, i due operatori delle relazioni di indeterminazione tecnicamente sono coniugati, ma non commutano (ossia la differenza fra le loro due applicazioni in ordine invertito è pari a iħ).

MA QUESTO E’ FALSO!! Per la buonissima ragione che un operatore tempo non c’è in MQ. Dunque se si scrive che il prodotto ΔExΔt è soggetto alla relazione di indeterminazione si sta forzando la MQ. (ringrazio per questa nota il collega Stefano Siboni del mio dipartimento con cui collaboro da sempre). Il tempo della MQ è un parametro, è un tempo assoluto e questo cari colleghi è uno dei punti deboli della MQ.

Meglio la chiara e generale interpretazione di London. Gli oggetti quantistici non stanno mai fermi e dunque hanno un’energia di punto zero.

Questa situazione mi ricorda molto il caso dell’equilibrio. L’equilibrio per un chimico è un fenomeno dinamico, anche all’equilibrio due fasi si scambiano materia, fra reagenti e prodotti, fra gas e liquido per esempio, ma anche fra un elettrodo e una soluzione anche a corrente netta nulla c’è uno scambio di cariche, misurabile (è la cosiddetta corrente di scambio); questo è in totale contrasto con l’idea dell’equilibrio meccanico. Per la meccanica all’equilibrio non succede nulla, per la chimica succede sempre qualcosa. In una visione classica ad energia zero non succede nulla, in una visione quantistica gli oggetti non stanno mai fermi e l’energia non è esattamente zero.

Dal punto di vista sperimentale l’effetto Casimir inteso come l’attrazione fra piastre metalliche a piccola distanza (qualche nanometro) è difficile da misurare precisamente, ma la misura è stata fatta ripetutamente ed è in perfetto accordo con la teoria. Nel 1997 lo ha misurato Steve K. Lamoreaux del Los Alamos National Laboratory e poi Umar Mohideen e Anushree Roy della Università di California, Riverside. In pratica hanno usato una piastra metalllica ed una superficie sferica con raggio molto grande. Infine nel 2001 un gruppo padovano (Giacomo Bressi, Gianni Carugno, Roberto Onofrio e Giuseppe Ruoso) ha fatto la prima misura fra microrisonatori e dunque fra lastre piane.

Possiamo interpretare l’effetto in questo modo, ma tenete presente che si tratta sempre di una interpretazione non matematica; il vuoto non è tale a causa dell’energia di punto zero, ossia del principio di indeterminazione; dunque il vuoto dello spazio non è vuoto assoluto, ma è un “vuoto quantistico”, ossia una schiuma effervescente di particelle virtuali in coppie materia-antimateria che si affacciano all’esistenza e scompaiono continuamente; questo materiale è tantissimo nella media statistica ed esercita l’equivalente di una pressione; dato che la probabilità di esistenza o se volete il principio di indeterminazione dipende dai confini del sistema considerato, se limitiamo questi confini riduciamo la probabilità di esistenza di queste coppie “virtuali”; dunque fra due piastre metalliche ci sarà minore probabilità e pressione e le due piastre sperimenteranno una forza netta di attrazione che è pari (a qualche nanometro) ad 1 atmosfera! Pazzesco! L’effetto della pressione del vuoto!

https://physicsworld.com/a/the-casimir-effect-a-force-from-nothing/

Non sto a raccontarvi le altre cose: esiste un effetto Casimir repulsivo, esiste un effetto Casimir dinamico e tutto ciò dipende dalla combinazione fra energia di punto zero, ossia principio di indeterminazione e vuoto. Le forze di Casimir-Polder sono l’equivalente “ritardato” delle forze di van der Waals, e spiegano buona parte dell’adesione fra corpi solidi; ma non tutta. Ne ho parlato altrove e ve ne riparlerò, anche perchè sull’adesione ci ho lavorato anni. E la differenza viene dalla vecchia amica teoria acido-base (versione Lewis).

Potremo mai usare l’effetto Casimir per produrre energia dal “nulla”? Al momento pensiamo di no. Ma la MQ è imprevedibile!! Finchè dura beninteso, dopo tutto è solo una teoria ed ha il difettuccio di usare un tempo assoluto.

Nel frattempo cominciamo a sostituire al termine forze di van der Waals il termine più ampio e preciso: forze di Casimir-Polder (ed in futuro anche forze di Lifshitz-van der Waals, ma prima scriverò un altro post sul tema delle forze di adesione fra corpi macroscopici).

(continua)

http://www.lescienze.it/news/2013/02/16/news/luce_vuoto_quantistico_particelle_virtuali_fotoni_effetto_casimir_dinamico-1511221/

Lamoreaux, S. K. (1997). “Demonstration of the Casimir Force in the 0.6 to 6 μm Range”. Physical Review Letters. 78 (1): 5–8

Mohideen, U.; Roy, Anushree (1998). “Precision Measurement of the Casimir Force from 0.1 to 0.9 µm”. Physical Review Letters. 81 (21): 4549–4552. arXiv:physics/9805038

Bressi, G.; Carugno, G.; Onofrio, R.; Ruoso, G. (2002). “Measurement of the Casimir Force between Parallel Metallic Surfaces”. Physical Review Letters. 88 (4): 041804. arXiv:quant-ph/0203002

La famigerata durezza dell’acqua

24 giugno, 2019 - 08:04

Mauro Icardi

Quando parliamo della durezza di un’acqua facciamo riferimento al contenuto di sali di calcio e magnesio, presenti in forma di carbonati, bicarbonati, solfati, cloruri e nitrati. La durezza dipende dall’origine superficiale o profonda delle acque e dalla geologia dell’area di captazione. In funzione dei diversi gradi di durezza, espressa comunemente in equivalenti di carbonato di calcio (mg/L CaCO3 o grado francese °f), si riconoscono diversi tipi di acque con diversa durezza. La durezza si può distinguere in totale, permanente e temporanea.

La durezza totale è la somma della durezza temporanea e di quella permanente. Viene espressa in base al contenuto totale di calcio e magnesio, calcolato come CaCO3 (scala in gradi francesi °f), o come CaO (scala in gradi tedeschi, °t): 1 grado francese = 10 mg/l di CaCO3, 1 grado tedesco = 10 mg/l di CaO .

La durezza permanente è dovuta a sali di calcio e magnesio che non si decompongono per riscaldamento, come i carbonati, solfati e cloruri.

Il termine durezza temporanea si riferisce a quei sali solubili (idrogenocarbonati, HCO3–) che per ebollizione dell’acqua si trasformano in sali insolubili (carbonati, CO32-) che precipitano:

Ca(HCO3)2 (aq)   ⇌   CaCO3 (s)   +   CO2(g)   +   H2O (l)

DUREZZA TEMPORANEA = DUREZZA TOTALE – DUREZZA PERMANENTE

Utilizzando la scala di durezza in gradi francesi (quella solitamente di uso più comune) la valutazione della qualità di un acqua si può esprimere con questa tabella.

Una tabella simile a questa normalmente si trova sulle confezioni di detersivo, per determinare il dosaggio ottimale di prodotto.

Le acque dure possono ridurre l’efficacia dell’azione dei saponi e detersivi e causare incrostazioni su elementi idraulici e macchinari, dovute a precipitazione dei sali, rendendo in alcuni casi utile il ricorso a processi di addolcimento delle acque, realizzato con diversi trattamenti tra cui scambio ionico od osmosi inversa.

Esistono vari tipi di resine che vengono utilizzate nei trattamenti delle acque, e a seconda del tipo di ioni che scambiano vengono classificate in: cationiche o anioniche.

 

Le resine a scambio cationico rimuovono dall’acqua gli ioni positivi calcio (Ca++) e magnesio (Mg++) scambiandoli con lo ione sodio (Na+).

Un funzionamento analogo hanno le resine a scambio anionico utilizzate ad esempio per rimuovere il nitrato (NO3–), che viene trattenuto dalla resina e scambiato con lo ione cloruro (Cl–).

Tornando alla durezza, ed alle incrostazioni calcaree, non è inusuale che caldaie per produzione di acqua calda sanitaria e riscaldamento domestico, risultino ancora perfettamente funzionanti a livello di bruciatore, ma di fatto fortemente ostruite da calcare per quanto riguarda il bollitore di accumulo, oppure i tubi di circolazione dell’acqua.

La determinazione analitica della durezza dell’acqua è ancora un’analisi che si esegue con i mai dimenticati metodi di una volta. Il principio è quello della titolazione complessometrica degli ioni calcio e magnesio, disciolti nel campione di acqua.

Il campione di acqua viene tamponato a pH 10 e successivamente titolato con una soluzione di sale disodico dell’acido etilendiamminotetracetico (EDTA) in presenza di nero eriocromo T come indicatore.

il campione da titolare assume un colore rosso-violetto che al raggiungimento del punto equivalente (quando tutti gli ioni calcio e magnesio sono stati complessati dell’EDTA) vira al blu. Questa tecnica che può sembrare obsoleta, in un immaginario del laboratorio di analisi ormai dominato dalle apparecchiature di analisi strumentale, è invece la metodica di analisi ufficiale emanate dell’Istituto superiore di sanità per le acque destinate al consumo umano.

Nella legislazione in vigore, per il parametro “durezza” viene data solo l’indicazione di un range di valori consigliati, e pertanto il mancato rispetto di questi valori non rappresenta una vera e propria non conformità e dovrà, di volta in volta, essere valutato ai fini dell’emanazione del giudizio di idoneità. La composizione in sali minerali che conducono ad una durezza di 10 – 15 °f rappresenta il miglior contenuto raccomandabile a livello sanitario.

E a proposito di implicazioni a livello sanitario, una pubblicazione del 2007 suggerisce che, un valore adeguato di durezza delle acque destinate al consumo umano, rappresenti un fattore protettivo nei confronti dell’insorgenza di malattie cardiovascolari. Lo studio per altro suggeriva altresì di approfondire il ruolo del parametro durezza, così come quello di altri micronutrienti che si assumono con l’acqua potabile, nella valutazione del rischi cardiovascolare. Che è legato a diversi altri fattori, quali quelli metabolici, genetici, ed allo stile di vita.

Qui il link della pubblicazione.

http://old.iss.it/binary/itti/cont/Notiziario%20ISS%20durezza%20acqua.1179820668.pdf

Per concludere credo che occorra ricordare un principio fondamentale: parametri e i rispettivi limiti parametrici, così come il recepimento nella normativa nazionale, sono basati sulle conoscenze scientifiche disponibili, e tengono conto del principio di precauzione, al fine di garantire che le acque possano essere utilizzate e consumate in condizioni di sicurezza nell’intero arco della vita. In generale, i valori parametrici individuati si fondano sugli orientamenti stabiliti dall’Organizzazione mondiale della Sanità (WHO, o OMS).

(Nota del curatore. Su alcuni siti il grado francese è ancora indicato con la °F maiuscola che è un errore, perchè quello è il simbolo del grado Fahreneit °F; per questa perla si veda il sito Culligan, al quale avevamo segnalato la questione ma senza effetto, https://www.culligan.it/la-durezza-dellacqua/ il simbolo acccettato del grado francese è °f o °fH)

Mary Elvira Weeks (1892-1972)

21 giugno, 2019 - 08:24

Rinaldo Cervellati

 

Non sapere cosa sia accaduto nei tempi passati, sarebbe come restare per sempre un bambino  (Cicerone)

Coloro che non ricordano il passato sono condannati a ripeterlo (George Santayana)

Nell’anno dedicato al 150° anniversario della Tavola Periodica mi sembra opportuno ricordare la figura di Mary Elvira Weeks, chimico e storica della chimica che scrisse fra il 1932 e il 1933 la serie di 21 articoli sulla scoperta degli elementi per il Journal of Chemical Education, poi raccolta   nel ponderoso volume Discovery of the Elements che dal 1935 al 1968 ha visto sette edizioni e numerose ristampe.

Mary Elvira nacque il 10 aprile 1892 a Lyons, una cittadina di poche migliaia di abitanti nella Contea di Walworth, Wisconsin. Frequentò il Ripon College, ottenendo il B.A. (Bachelor of Arts) in chimica nel 1913. Si recò quindi all’Università del Wisconsin, dove nel 1914 ottenne il Master in chimica lavorando con J. Howard Mathews[1]. Durante i successivi sette anni ha lavorato come insegnante di chimica in scuole secondarie superiori e analista in laboratori industriali.

Nel 1921 divenne istruttrice di chimica all’Università del Kansas, dove continuò il suo lavoro di ricerca per il dottorato che completò poco tempo dopo. Nel 1927 fu promossa assistant professor e, dieci anni dopo, associate professor. Anche se effettuava alcune ricerche sperimentali oltre ai suoi pesanti doveri di insegnamento, i suoi veri interessi erano storico-linguistici, quindi iniziò a combinare questi talenti spostando i suoi studi dalla ricerca sperimentale a quella in storia della chimica.Mary Elvira Weeks

Alla Kansas University conobbe Frank B. Dains[2] che aveva accumulato una splendida collezione di immagini di chimici famosi. Infatti, dopo aver conseguito il dottorato a Chicago nel 1898, Dains aveva trascorso un anno a Berlino e Friburgo e, com’era consuetudine tra gli studenti americani, aveva visitato numerosi chimici e chiesto foto. Dains continuò a collezionare immagini durante il resto della sua carriera ma a causa di un intenso programma di ricerca in chimica organica non aveva mai pubblicato nulla sulla sua collezione.

Elvira Weeks combinò il suo doppio interesse per la chimica e la linguistica preparando una collezione di articoli sulla scoperta degli elementi, che furono pubblicati come una serie di 21 articoli sul Journal of Chemical Education negli anni 1932-1933. La popolarità di questi articoli incoraggiò la Chemical Education Publishing Company di Easton (Pennsylvania) a raccogliere la serie in un libro: Discovery of the Elements (1° edizione 1934). Gli articoli e il libro furono generosamente illustrati con le immagini della collezione Dains, successivamente integrata da immagini raccolte da Weeks. Il libro infine ha visto sette edizioni; le ultime con la collaborazione di Henry M. Leicester[3].

Discovery of Elements 6th Edition

In realtà Discovery of the Elements è, per molti aspetti, una storia della chimica che si sviluppa attorno al tema principale della scoperta degli elementi. Vi sono lunghe interessanti digressioni su altre ricerche dei chimici che hanno scoperto nuovi elementi.

Nonostante il successo dei suoi scritti, il Dipartimento di Chimica della Kansas University non era disposto a premiarla per la sua “opera letteraria”. Le facoltà di chimica erano inclini a dare premi alle indagini sperimentali di laboratorio piuttosto che a ricerche storiche, a prescindere da quanto fossero accurate[4]. Weeks infatti rimase assistant professor per dieci anni prima della promozione a associate professor. Dopo altri sette anni come professore associato, decise di abbandonare l’insegnamento per sfruttare meglio i suoi interessi storici e linguistici. Nel 1944, Weeks divenne associato di ricerca in letteratura scientifica presso la biblioteca scientifica Kresge-Hooker in fase di sistemazione alla Wayne State University di Detroit. Alla Kresge-Hooker ebbe finalmente l’opportunità di utilizzare al meglio i suoi talenti.

All’avvicinarsi del 75° anniversario della sua fondazione (1876) l’American Chemical Society decise che sarebbe stata un’ottima iniziativa scrivere e pubblicare una storia della Società. Nel 1944 affidò questo incarico a Charles A. Browne, membro dell’ACS fin dagli ultimi anni del diciannovesimo secolo, un chimico con esperienza nel mondo accademico (dottorato a Göttingen, 1901), industriale e governativo e uno dei fondatori della Divisione ACS di Storia della Chimica (HIST). Browne, durante la sua carriera come direttore del New York Sugar Research Laboratory, e successivamente come capo chimico dell’Ufficio USA di Chimica e Suoli, aveva maturato una vivace vocazione per la storia della chimica. Era quindi la persona giusta per scrivere la storia della Società e accettò questo incarico. Browne morì all’inizio del 1947 all’età di 76 anni con l’organizzazione del libro impostata e nove capitoli completati. Diversi mesi prima aveva persuaso Weeks a diventare co-autore. Weeks si trovò dunque responsabile per la maggior parte degli undici capitoli che restavano da scrivere e per la raccolta del materiale supplementare. Il volume A History of the American Chemical Society-Seventy-five Eventful Years, di Charles Albert Browne e Mary Elvira Weeks fu pubblicato nel 1952.

Mary Elvira Weeks si ritirò nel 1954 ma continuò a vivere nella sua casa di Detroit lavorando part-time come traduttrice scientifica. Nel 1967 ricevette il Dexter Award, premio assegnato dall’American Chemical Society in riconoscimento di una straordinaria carriera di contributi in storia della chimica.

Weeks era per natura una persona amichevole ma molto riservata, capace comunque di affrontare impegni di notevole portata. Morì il 20 giugno 1975 dopo diversi mesi in una casa di riposo.

Per la stesura di questo post ho attinto dalle seguenti opere:

A.J. Ihde, A Quarter Century of Dexter Awards, 1981, unpublished manuscript, estratto in

http://acshist.scs.illinois.edu/awards/Dexter%20Papers/WeeksDexterBioJJB1.pdf

A.J, Ihde, The History of The Dexter Awards. Part III: The Second Decade, Bulletin for the History of Chemistry, 1989, 3, 11–12.

[1] Joseph Howard Mathews (1881-1970) chimico fisico americano, professore universitario ed esperto di identificazione delle armi da fuoco. Nel 1914 Mathews aveva da poco completato il dottorato di ricerca in chimica a Harvard sotto la guida di Theodore W. Richards, primo americano a vincere il Premio Nobel “per le sue accurate determinazioni dei pesi atomici”. Mathews è stato preside del Dipartimento di Chimica dell’Università di Wisconsin-Madison per 33 anni, dal 1919 al 1952.

[2] Frank Burnett Dains (1869-1948) chimico organico americano ottenne il B.Sc. nel 1890 e l’M.Sc. nel 1981, entrambi alla Wesleyan University. Nel 1898 ottenne il dottorato di ricerca all’università di Chicago. Entrò nel Dipartimento di Chimica della Kansas University nel 1911, raggiungendo lo status di professore ordinario nel 1914. Si ritirò nel 1942. La collezione dei suoi scritti, foto e disegni è conservata all’University of Kansas Libraries, a Lawrence.

[3] Henry Marshall Leicester (1906 – 1991), statunitense, è stato un biochimico e storico della chimica. Particolarmente interessato alla storia della chimica in Russia, ha pubblicato diverse biografie di chimici russi sul Journal of Chemical Education e in varie enciclopedie. Tradusse anche opere di chimica classica russa, come quelle di Mikhail Vasilyevich Lomonosov (1711-1765) considerato il “Leonardo da Vinci russo”, del quale era considerato un esperto negli Stati Uniti. Dal 1951 al ritiro nel 1971 è stato professore di biochimica presso la Dental School dell’Università del Pacifico.

[4] Le cose sono molto migliorate negli USA, mentre in Italia non è cambiato quasi nulla, resta il micidiale pregiudizio per cui chi si occupa di ricerca in storia (o in didattica) della chimica è un fallito nella ricerca scientifica.

Il chimico e l’intelligenza, un ricordo di H. Christopher Longuet-Higgins

19 giugno, 2019 - 06:39

Claudio Della Volpe

Quasi tutti i chimici sanno che c’è stato un famoso musicista che era anche chimico; beh in effetti egli si riteneva un chimico, e fu anche famoso, a contatto con i grandi chimici della sua epoca, ma coltivava la musica come passione. Poi la storia ha deciso che Borodin è stato prima una grande musicista (autore delle Danze Poloviciane e del Principe Igor) e poi un chimico analitico che si occupò delle reazioni delle aldeidi.
Ma oggi voglio parlarvi invece di un altro chimico di cui avete sentito certamente parlare almeno per una delle sue scoperte avvenute addirittura prima della laurea e che al colmo della sua carriera di chimico e fisico teorico abbandonò la chimica per dedicarsi alle “scienze cognitive”, alla musica ed alla percezione visiva, alle applicazioni della nascente intelligenza artificiale al tema della composizione musicale e della visione, un chimico che pubblicò, su riviste famose, sia di argomenti chimici che musicali e percettivi.
Sto parlando di Hugh Christopher Longuet-Higgins. La sua vita e la sua attività scientifica porterebbero a intitolare questo breve ricordo: l’intelligenza di un chimico, visto il carattere poliedrico e profondo delle sue ricerche.
Christopher nacque nella parrocchia di Lenham, nel Kent, secondo dei tre figli di un parroco. La sua famiglia era di origini ugonotte (i protestanti francesi). In realtà fu poi ateo per il resto della vita. Studiò alla Pilgrims’ School e quindi al Winchester College di Winchester.Si trattava di un ambiente prestigioso come attestano i nomi di parecchi dei suoi compagni di studi: Freeman Dyson e Michael Dewar fra gli altri. Insieme con Dyson costruì modelli dei poliedri. Vinse il premio per la matematica nel 1941 in forte concorrenza con Dyson.

Nel 1941 vinse anche una borsa di studio per il Balliol College di Oxford. Seguì il corso di chimica, ma fece anche esami di musica e fu organista al Balliol. Ebbe come insegnante di chimica Ronnie Bell con il quale pubblicò, ancora studente, il lavoro di chimica per cui è più famoso proponendo la struttura corretta del diborano, un composto chimico la cui struttura non era interpretabile con il modello allora in uso del legame di valenza. Si era nel 1943, in piena II guerra mondiale.

Il legame a tre centri (e 2 elettroni), come viene definito, è divenuto un classico della chimica; c’è da dire che la struttura adgeuata (ma senza le finezze della meccanica quantistica) era stata già proposta nel 1921 (W. Dilthey, Über die Konstitution des Wassers, in Angew. Chem., vol. 34, nº 95, 1921, p. 596, DOI:10.1002/ange.19210349509. ma questo sarà un altro post.)Iniziò il PhD e lo completò all’Università di Oxford sotto la supervisione di Charles Coulson, il celeberrimo autore di “Valence bond”. Coulson era un cristiano metodista, mentre Longuet-Higgins era ateo; ne seguirono dibattiti pubblici sul tema della religione cui entrambi parteciparono su sponde opposte. Seguì un’attività di post-dottorato all’Università di Chicago e all’Università di Manchester.

Nel 1947 Longuet-Higgins sviluppò la teoria degli orbitali delle molecole organiche coniugate ottenendo teoricamente risultati che erano stati conosciuti sperimentalmente già da molti decenni. Mostrò come le proprietà dei sistemi coniugati possono essere derivate combinando nella trattazione degli orbitali molecolari il comportamento degli orbitali di non legame. Formulò una teoria che descriveva le proprietà termodinamiche delle miscele che più tardi estese alle soluzioni di polimeri. Fece anche ricerche sulle proprietà ottiche delle molecole ad elica e sui loro spettri elettronici.

Nel 1952 fu nominato professore di fisica teorica al King’s College di Londra; nel 1954 diventò professore di chimica teorica all’Università di Cambridge e membro del Corpus Christi College (Cambridge). In questo periodo diede importanti contributi alla chimica teorica.
Dal 1954, usò tecniche matematiche per predire comportamenti chimici. Per esempio nel 1962 previde che il ciclobutadiene (che non era ancora stato sintetizzato) sarebbe potuto esistere come legando di un atomo di un metallo di transizione; tre anni più tardi, nel 1965, per la prima volta questo composto fu sintetizzato da Rowland Pettit della University of Texas, sebbene egli non riuscisse a isolarlo.
Applicò la teoria dei gruppi per definire gli elementi di simmetria delle molecole non rigide, come nel caso dell’idrazina (N2H4) e così fu capace di classificare i singoli livelli quantici della molecola.
All’inizio degli anni 70 maturò un cambiamento radicale della sua vita. Da affermato chimico teorico si trasformò in un esploratore dell’intelligenza aritificiale e delle sue applicazioni alle arti umane: musica e immagine. Egli era probabilmente arrivato a questo salto sulla base della sua esperienza come utente dei computer dell’epoca; tuttavia non ci considerò mai un ricercatore di AI ma piuttosto di “scienza cognitiva” , un termine che inventò lui stesso, intendendo che si occupava di come l’uomo guarda all’Universo atttorno a lui.
Si spostò prima all’Università di Edinburgo e poi, insieme ad altri scienziati nel 1974, fondò il Centro per le ricerche su Percezione e Cognizione alla Università del Sussex, Brighton. Qui sotto due dei lavori che pubblicò su Nature su temi di scienza cognitiva, sia di musica che di visione.

I suoi contributi al problema della rappresentazione tridimensionale nella visione sono ormai un fatto acquisito in tutte le applicazioni.

In particolare nell’articolo sulla visione egli introduce “il metodo degli otto punti” che serve a ricostruire un oggetto da una sua visione binoculare, dunque una rappresentazione del processo che il nostro cervello compie effettivamente.

Una breve rappresentazione del suo punto di vista sui temi musicaliLonguet-Higgins (1979): —

You’re browsing, let us imagine, in a music shop, and come across a box of faded pianola rolls. One of them bears an illegible title, and you unroll the first foot or two, to see if you can recognize the work from the pattern of holes in the paper. Are there four beats in the bar, or only three? Does the piece begin on the tonic, or some other note? Eventually you decide that the only way of finding out is to buy the roll, take it home, and play it on the pianola. Within seconds your ears have told you what your eyes were quite unable to make out—that you are now the proud possessor of a piano arrangement of “Colonel Bogey“.

Andò in pensione nel 1988 e morì nel 2004. Costituisce un esempio raro di scienziato abile sia nei temi puramente naturalistici che umanistici e di una capacità e visione culturale amplissima, come è difficile trovare oggi attorno a noi. Ai miei occhi il fatto che se ne parli poco è segno della povertà culturale dei nostri tempi, mascherata dalla parossistica preoccupazione per il numero delle pubblicazioni.

Referenze e testi consultati.

https://en.wikipedia.org/wiki/Christopher_Longuet-Higgins   dove si trova anche una lista pressocché completa di lavori; una lista sicuramente completa è su: https://royalsocietypublishing.org/doi/10.1098/rsbm.2006.0012

Gregory, R. L.; Murrell, J. N. (2006). “Hugh Christopher Longuet-Higgins. 11 April 1923 — 27 March 2004: Elected FRS 1958”. Biographical Memoirs of Fellows of the Royal Society. 52: 149–166. doi:10.1098/rsbm.2006.0012.

http://www.quantum-chemistry-history.com/Lo-Hi2Ue.htm

Longuet-Higgins, H. C.; Bell, R. P. (1943). “64. The Structure of the Boron Hydrides”. Journal of the Chemical Society (Resumed). 1943: 250–255. doi:10.1039/JR9430000250.

 Longuet-Higgins, Hugh Christopher (1947). Some problems in theoretical chemistry by the method of molecular orbitals. bodleian.ox.ac.uk (DPhil thesis). University of Oxford.

  Venn Cambridge University database Archived 14 June 2010 at the Wayback Machine

  H. C. Longuet Higgins; U. Öpik; M. H. L. Pryce; R. A. Sack (1958). “Studies of the Jahn-Teller effect .II. The dynamical problem”. Proc. R. Soc. A. 244 (1236): 1–16. Bibcode:1958RSPSA.244….1L. doi:10.1098/rspa.1958.0022.See page 12

  Longuet-Higgins, H. C.; Abrahamson, E. W. (1965). “The Electronic Mechanism of Electrocyclic Reactions”. Journal of the American Chemical Society. 87 (9): 2045. doi:10.1021/ja01087a033.

 Longuet-Higgins, H.C. (1963). “The symmetry groups of non-rigid molecules”. Molecular Physics. 6 (5): 445–460. Bibcode:1963MolPh…6..445L. doi:10.1080/00268976300100501.

Longuet-Higgins, H. C. (1981). “A computer algorithm for reconstructing a scene from two projections”. Nature. 293 (5828): 133–135. Bibcode:1981Natur.293..133L. doi:10.1038/293133a0.

Elementi della tavola periodica: Nickel, Ni.

17 giugno, 2019 - 08:32

Rinaldo Cervellati

Il nickel (Ni) (nichel o nichelio) è l’elemento n. 28 della Tavola Periodica, la sua abbondanza nella crosta terrestre è di circa 26,6 ppm (parti per milione), per confronto quella del più abbondante zinco è circa 72 ppm. Sull’origine del suo nome vi sono opinioni contrastanti, secondo alcuni deriverebbe dal diminutivo del nome svedese Nicolaus (Nickel, che significa folletto) [1], secondo altri dal tedesco kupfernichel, col significato di “rame del diavolo”.

Sebbene siano stati ritrovati bronzi risalenti al 3500 a.C. contenenti fino al 2% di nickel e alcuni manoscritti cinesi del 1700-1400 a.C. riportino che il paitung (“rame bianco”) era diffuso in Oriente, il metallo fu isolato dal suo minerale niccolite dal chimico tedesco Axel Frederik Cronsted nel 1751. La niccolite è un minerale costituito principalmente da arseniuro di nickel (NiAs) con piccole quantità di cobalto, antimonio, ferro e zolfo. Il nome deriva dal latino scientifico del minerale, Niccolum, il che fa propendere per l’origine nordica svedese per il metallo.

A sinistra: niccolite minerale; a destra: nickel metallo

Il nickel è un metallo bianco argenteo di aspetto lucido. È duro, malleabile, duttile, ferromagnetico, discreto conduttore di calore ed elettricità. Lo stato di ossidazione più comune del nickel è +2 ma sono stati osservati anche complessi di nickel negli stati di ossidazione 0, +1 e +3.

Il nichel si trova come costituente nella maggior parte dei meteoriti e spesso serve come uno dei criteri per distinguere un meteorite da altri minerali. I meteoriti di ferro, o sideriti, possono contenere ferro in lega contenente dal 5 al 20% di nickel. Commercialmente si ottiene dalla pentlandite (solfuro di ferro e nichel in rapporto 1:1 Fe:Ni) della regione Sudbury dell’Ontario, un distretto che produce gran parte del nichel del mondo. Si pensa che il deposito di Sudbury sia il risultato di un antico impatto di meteoriti. Un altro tipo di riserva nickelifera è costituito da lateriti in cui i minerali principali sono limonite (un idrossido di ferro e nickel) e garnierite (un silicato idrato di nichel).

Si stima che, dalle zone emerse in cui si è osservato almeno 1% di concentrazione di nichel, le risorse di nichel disponibili siano almeno 130 milioni di tonnellate, circa il doppio delle riserve già note. Il 60% è in lateriti e il 40% in depositi di solfuri.

Tuttavia il 45% delle riserve totali note di nickel si trova in Australia e Nuova Caledonia. Altri giacimenti di nichel si trovano in Russia, Cuba, Indonesia e altrove.

Mappa delle riserve mondiali di minerali di nickel (2005)

Vaste risorse di nickel si trovano nei noduli di manganese sul fondo degli oceani. La difficoltà di trovare nuovi depositi di lateriti e solfuri nelle usuali zone di sfruttamento sta conducendo all’esplorazione in Africa centro-orientale e nel subartico.

Nel 1967 nei pressi di Canala in Nuova Caledonia è stato scoperto un minerale costituito quasi esclusivamente da nickel contenente tracce di cobalto e di ferro. A questo minerale è stato il nome nickel (nativo) [2, p.348]. Successivamente, nel 1975, nel letto di un fiume del Sud Westland, in Nuova Zelanda, furono trovati detriti contenenti scaglie o granuli di nickel nativo (Ni 96.3%, Fe 1.77%, Co 0.69%) di dimensioni fino a 75 mm. La località del ritrovamento è circa 13 km a valle di una zona ricca di awaruite, un minerale costituito essenzialmente da leghe di nickel e ferro a composizione variabile da Ni2Fe a Ni3Fe. È stato dimostrato che il contenuto di nichel dei granuli detritici aumenta con la distanza dai depositi di awaruite. Ciò dà credito all’ipotesi che granuli e scaglie siano di origine naturale formatisi per lenta lisciviazione dell’awaruite a bassa temperatura nel corso dei millenni, da cui il nome nickel nativo [3]. Il nickel nativo non ha applicazioni pratiche.

Circa il 47% del nichel primario consumato è impiegato per la fabbricazione di acciaio inossidabile e altre leghe di acciaio, il 41% in leghe non ferrose e superleghe, il 7% in galvanoplastica e il 5% in altri usi. L’industria siderurgica degli Stati Uniti ha prodotto circa 2,4 milioni di tonnellate di acciaio inossidabile al nichel nel 2018, quasi il 20% in più rispetto al 2017. Le vendite di superleghe a base di nickel per motori a reazione continuano ad aumentare [4].

Fra gli altri impieghi i più importanti sono: batterie ricaricabili, catalizzatori e altri prodotti chimici, materiali per placcature e per coniare monete.

Alcuni impieghi del nichel (oltre che negli acciai)

A quest’ultimo proposito piace ricordare che le prime monete di rame-nickel furono emesse nel regno indo-greco nel II secolo a.C., mentre la prima moneta di nickel puro fu coniata nel 1881.

Col nome nichelino (nickel) si indica popolarmente la moneta statunitense da cinque cent, ossia cinque centesimi di dollaro. Dal 1938 al 2003 il disegno del nichelino ha sempre presentato al dritto il profilo del presidente degli Stati Uniti Thomas Jefferson e sul retro il Monticello, ossia la tenuta presidenziale di Thomas Jefferson. Negli anni 2004 e 2005 il Monticello fu sostituito da disegni commemorativi ma nel 2006 si tornò all’impressione originaria, mentre nel lato dritto della moneta continua a figurare l’immagine di fronte del Presidente Jefferson. Dal 1866 al 1938 si sono succeduti vari tipi di nichelino con leghe ed effigi diverse.

Il “nichelino” USA dal 2006

In Italia le monete da 50 e 100 lire erano fatte di acmonital (acronimo per acciaio monetario italiano) o di cupronichel, due leghe metalliche contenenti nickel. È contenuto nelle monete da 1 e 2 euro. Altri stati usano o hanno usato nickel per le loro monete.

Monete da 1 euro

Molti enzimi del tipo idrogenasi contengono nickel oltre agli aggregati ferro-zolfo. I siti nickel in queste idrogenasi hanno il compito di ossidarsi piuttosto che di sviluppare idrogeno: sono state presentate prove a sostegno dell’ipotesi che i centri nickel siano i reali siti attivi di questa classe di enzimi. Alcuni studi clinici hanno ipotizzato un qualche ruolo del nickel nell’organismo umano escludendone comunque il rischio di carenze, è comunque essenziale per alcuni microorganismi costituenti la flora intestinale dei vertebrati. Il nickel è pertanto classificato come oligoelemento ultra-traccia, da assumere eventualmente in quantità dell’ordine del microgrammo/giorno.

Sono comunque in commercio fiale contenenti un’associazione di gluconato di cobalto e zinco insieme a solfato di nickel (circa 76 microgrammi/fiala) consigliato come integratore per tutte le disfunzioni endocrine!

Sopra certi livelli il nickel è tossico, il valore limite di soglia, cioè la concentrazione ambientale dei prodotti chimici aerodispersi al di sotto delle quali si ritiene che la maggior parte dei lavoratori possa rimanere esposta nella vita lavorativa senza alcun effetto negativo per la salute, è di 0.05 mg/m3 settimana per il nickel e i suoi composti.

Purtroppo il nickel è uno tra i più potenti allergizzanti e il fatto che sia frequentemente presente in oggetti di uso comune (oggetti di bigiotteria, utensili da cucina, forbici, monete, piercing, ecc.) rende particolarmente diffusa la relativa dermatite da contatto. I sintomi comprendono eczema nel punto di contatto sotto forma di puntini o vescicole, prurito, rossore, bruciore o dolore, gonfiore. Pertanto, in alcuni categorie di oggetti (ad es. bottoni, gioielli, orologi) la presenza di nickel è stata limitata per legge sotto una soglia piuttosto restrittiva. L’Unione Europea regola per decreto la quantità di nichel che può essere contenuta in prodotti che sono a contatto con la pelle. In un articolo pubblicato dalla rivista Nature alcuni ricercatori svizzeri hanno però riportato che le monete da 1 e 2 euro eccedono il limite imposto dalla UE [5].

In una piccola percentuale di pazienti allergici si riscontrano anche disturbi sistemici, per esempio gastrointestinali, in questo caso si parla di allergia sistemica al nichel. Questi pazienti dovrebbero evitare gli alimenti contenenti nickel, tra i quali troviamo legumi (fagioli, lenticchie, piselli), frutta secca (arachidi, nocciole, noci), cacao e derivati.

I metalli vengono riciclati non solo per il loro valore commerciale ma anche perché la riciclabilità è una loro qualità intrinseca. Ciò è particolarmente vero per i metalli non ferrosi, un gruppo che include il nickel. Il nickel è uno dei più apprezzati metalli comuni non ferrosi e probabilmente è il materiale più riciclato. Gli esperti del settore stimano che 4,4-4,6 milioni di tonnellate all’anno di rottami della lavorazione degli acciai e altre leghe al nickel vengano raccolti per riciclare circa 350.000 tonnellate del metallo (circa un quarto della domanda totale). Questo nickel riciclato è riutilizzato principalmente dall’industria siderurgica.

L’industria di trasformazione dei rottami contenenti nickel è composta di quattro o cinque grandi aziende operanti a livello internazionale per garantire che gli scarti siano raccolti da ogni angolo del globo.

Le batterie contengono una varietà di materiali che possono essere riutilizzati come materia prima secondaria. Esistono metodi e tecniche consolidati per il riciclaggio della maggior parte delle batterie contenenti piombo, nichel-cadmio e mercurio. Per le nuove batterie al nichel-idruro e al litio, i metodi di riciclaggio sono tuttavia nelle fasi iniziali di sviluppo.

Schema riciclaggio nickel

Secondo il Nickel Institute: “L’efficienza del riciclaggio del nickel è una delle più alte” [6].

Afferma lo stesso Istituto: “In riferimento all’anno 2010, circa il 68% di tutto il nickel disponibile dagli scarti viene riciclato e inizia un nuovo ciclo di vita; un altro 15% entra nel ciclo degli acciai al carbonio. Tuttavia, circa il 17% continua a finire in discarica, principalmente in prodotti metallici e nei rifiuti di apparecchiature elettriche ed elettroniche, ma la richiesta di nickel riciclato è in continuo aumento” [6].

Infine, al nickel è dedicato uno dei racconti del libro Il Sistema Periodico di Primo Levi. Nichel descrive il primo lavoro di Primo Levi, subito dopo la laurea, nei laboratori chimici di una miniera.

Opere consultate

CRC, Handbook of Chemistry and Physics, 85th, p. 4-20

https://it.wikipedia.org/wiki/Nichel

Bibliografia

[1] O. Lurati, Toponymie et géologie., Quaderni di semantica, 2008, XXIX(2), 437-452.

[2] M. Fleischer, New Mineral Names., The American Mineralogist, 1968, 53, 348-353

[3] G.A. Challis, Native nickel from the Jerry River, South Westland, New Zealand: an example of natural refining., Mineralogic Magazine, 1975, 40, 247-251

[4] U.S. Geological Survey, Mineral Commodity Summaries, febbraio 2019

[5] F.O. Nestle et al., High nickel release from 1- and 2-euro coins., Nature, 2002, 419, 132.

[6] https://www.nickelinstitute.org/policy/nickel-life-cycle-management/nickel-recycling/

I cicli biogeochimici degli elementi.

14 giugno, 2019 - 07:30

Claudio Della Volpe

L’idea di quest’anno di pubblicare post sugli elementi della tavola periodica sta avendo un certo successo; tuttavia devo dire che pochi di coloro che hanno contribuito hanno accettato lo spirito del mio invito completamente e in particolare una cosa che nella mia proposta era basilare: riportare per ogni elemento il ciclo biogeochimico e l’impatto del ciclo industriale su quello naturale.

E’ un argomento che mi affascina e che non è molto conosciuto né presente in letteratura e che fra l’altro ha a che fare col titolo e il soggetto del nostro blog; tutti conoscono i cicli degli elementi “maggiori” i cosiddetti “grandi nutrienti”, come il carbonio, l’azoto, il fosforo, l’ossigeno o lo zolfo casomai ma si fermano qua. Invece i cicli biogeochimici sono presenti per tutti gli elementi; come ho scritto recentemente (C&I 2019 n. 3) i cicli biogeochimici possono essere visti come parte degli ipercicli su cui Manfred Eigen (premio Nobel per la chimica nel 1967) ha basato la sua visione della vita; i cicli biogeochimici come volano degli ipercicli biologici e nel medesimo tempo come dissipatori del flusso di energia libera che dal Sole si scarica sulla Terra in ragione di decine di migliaia di terawatt.

Come scrisse nel suo libro Weather Prediction by Numerical Process (p 66) il fisico Lewis Fry Richardson

Big whirls have little whirls that feed on their velocity,

and little whirls have lesser whirls and so on to viscosity.

Grandi vortici hanno vortici più piccoli che si nutrono della loro velocità,

                        e piccoli vortici hanno vortici più piccoli e così via fino alla viscosità.

https://svs.gsfc.nasa.gov/vis/a000000/a003800/a003827/

Lo stesso meccanismo di degradazione dell’energia libera che funziona nei fluidi funziona dappertutto: “vortici han vortici più piccoli”.

Sembra una frase leonardesca: esprime qua come il flusso di energia solare si articola non solo sul piano meccanico dai grandi venti che coprono costantemente grandi zone di superficie ai piccoli venti regolari come l’Ora del Garda, dalle grandi correnti oceaniche alle onde che vi bagnano l’ombrellone, ma anche dai grandi cicli degli elementi ai processi chimici dentro la cellula vivente; la cascata dissipativa prosegue costantemente da quando la Terra esiste.

Il flusso dal Sole è di circa 174.000 terawatt (122.000 dopo albedo), ma quello netto che la macchina termodinamica terrestre, il sistema della biosfera, il Sistema Terra considerato come una macchina termica accoglie ed usa trasformandolo in “lavoro ordinato”, strutture è molto più basso, circa 6000 terawatt, come ho provato a calcolare in un post precedente).

In questa ottica l’economia umana è il metabolismo della nostra particolare specie; l’economia non è solo costrutto storicamente determinato, ma parte da una base biofisica, è ecological economics, come scriveva già tanti anni fa Enzo Tiezzi, una delle menti chimiche italiane più brillanti a cui va il mio grato ricordo sempre. E questo purtroppo nessun economista del Sole-24 ore lo capisce. E anche parecchi colleghi fanno spallucce!

Questo metabolismo ha inglobato i metalli facendo partire l’epoca che chiamiamo preistorica già oltre 7000 anni fa con il cosiddetto calcolitico, l’età del rame; dunque prima le rocce e la pietra, da sempre, godendo del lascito delle razze umane che ci hanno preceduto e affiancato, poi il carbonio, l’azoto e il fosforo con la scoperta dell’agricoltura circa 10-12000 anni fa e poi il rame, il bronzo, il ferro e così via.

Il nostro metabolismo sociale è stato questo.

A proposito dell’economia scriveva un filosofo ottocentesco:

«il lavoro non è la fonte di ogni ricchezza. La natura è la fonte dei valori d’uso (…) altrettanto quanto il lavoro»…..“dal punto di vista di una più elevata formazione economica della società, la proprietà privata del globo terrestre da parte di singoli individui apparirà così assurda come la proprietà privata di un uomo da parte di un altro uomo». “I beneficiari dei frutti della terra, infatti, sono soltanto «i suoi usufruttuari – e hanno il dovere di tramandarla migliorata, come boni patres familias, alle generazioni successive».

Appunto, la Natura! Come stanno le cose?

In un bel lavoro del 2009 (GLOBAL BIOGEOCHEMICAL CYCLES, VOL. 23, GB2001, doi:10.1029/2008GB003376, 2009) gli autori scrivono:

Sebbene i metalli servano come “nutrienti tecnologici” senza i quali la società moderna non può funzionare, essi non hanno ricevuto la stessa attenzione su scala globale dei “grandi nutrienti” C, N, S e P. Solo il ciclo globale completo del rame, comprendente sia i depositi che i flussi sia naturali che antropogenici è stato ricostruito quantitativamente [Rauch and Graedel, 2007]. (si tratta di un lavoro che è stato citato in un post precedente dedicato al rame)

Il lavoro è dotato di magnifiche tavole di cui vi riporto un esempio:

Il ciclo globale del Nickel:

E conclude con alcune considerazioni estremamente importanti ma non del tutto nuove per i lettori di questo blog:

La dimensione crescente della riserva in uso ha anche ripercussioni sul futuro delle sorgenti della risorsa metallica, poiché più metallo sarà ragionevolmente estratto dalle discariche dello stock in uso adesso attraverso il riciclo. Questo recupero non necessariamente ridurrà la pressione sulla estrazione del metallo da minerale, perché la maggior parte dei depositi metallici rimane molto concentrato rispetto agli stock in uso ed il minerale è necessario per i crescenti livelli di consumo e per compensare per le perdite del riciclo. Comunque , la stabilizzazione della popolazione mondiale ragionevolmente costituirà il primo passo per equilibrare il ciclo metallico mondiale. Enfasi dovrà essere messa sulla comprensione della quantità, la forma, e la distribuzione spaziale degli stock di metalli in uso poiché questa riserva diventerà importante in modo crescente come risorsa metallica cui attingere.

I nostri risultati complessivi indicano che l’azione dell’umanità è diventata un agente geomorfico (NdT relativo cioè alla morfologia della superficie terrestre) significativo attraverso la mobilizzazione dei metalli.

Flussi totali naturali ed antropogenici al presente esistono al medesimo ordine di grandezza per tutti i metalli investigati.

Il più grande movimento di masse nel sistema naturale (produzione crostale e subduzione, erosione dei sedimenti e loro denudazione, e deposizione oceanica) eccede di un ordine di grandezza o più il maggiore movimento di masse antropogenico (estrazione mineraria, produzione metallica e consumo del metallo) solo per Al e Fe. D’altronde Cu è l’unico metallo per il quale il flusso antropogenico eccede quello naturale per un ordine di grandezza o più.

Questa equivalenza degli ordini di grandezza si paragona bene con quello dei “grandi nutrienti”, dove la mobilizzazione del C da parte di attività umane è meno di un’ordine di grandezza rispetto a quello naturale, N e S sono approssimativamente gli stessi, mentre la mobilizzazione del P eccede quella naturale per più di mezzo ordine di grandezza. Queste perturbazioni dei cicli naturali globali dei metalli risultano nella riallocazione delle masse di metalli dai sedimenti superficiali ai margini continentali e dalle masse di minerali agli stock di metalli in uso.

Questo è l’Antropocene! I nostri “cicli”  (che sono “aperti”, non sono cicli ) dominano la situazione e questo sconvolge la biosfera; dobbiamo dedicare maggiore atttenzione a questi processi e cercare quanto più possibile di chiuderli come la Natura ha sempre fatto; non esistono discariche planetarie di metalli e rischiamo dunque di  trasformare la Terra in una pattumiera. Il primo passo è studiare e conoscere la situazione, per poterla adeguatamente trasformare. Ecco perché inserire il ciclo biogeochimico nei post sugli elementi è importante.

Voi che ne dite?

Ascoltare le richieste dei giovani.

12 giugno, 2019 - 07:53

Mauro Icardi

Il 24 Maggio, invitato dai giovani di “Friday for future “, ho partecipato insieme a loro alla manifestazione per il clima. Devo premettere che avrei partecipato ugualmente. Ma la richiesta di intervenire, e fare un breve intervento di una decina di minuti dopo il corteo per le strade di Varese , mi ha permesso di stabilire un contatto con loro. Ho risposto alla loro richiesta senza alcuna esitazione.

Quando sono salito sul palco non ho parlato di acqua. Ho voluto invece parlare di tempo. Il tempo che non possiamo più perdere, relativamente ai problemi ambientali e climatici.

E del tempo trascorso da quando l’umanità, o per meglio dire una parte di essa, ha iniziato a interrogarsi su un tema fondamentale. Cioè se è reale la possibilità di poter crescere economicamente, senza alcun limite. In un pianeta che invece è limitato. Un pianeta finito, inteso come spazio. Anche se la frase si presta a ad altre tristi considerazioni.

Ho voluto raccontare loro la vicenda che portò alla pubblicazione del “Rapporto sui limiti dello sviluppo”.

Di come, seppure molto giovane (avevo dieci anni quando lessi la notizia su un trafiletto di poche pagine sul numero domenicale del quotidiano “La stampa”, il 4 Marzo del 1972), quella notizia abbia finito per essere quello che ho definito il mio imprinting culturale.

I ragazzi in piazza mi hanno ascoltato con attenzione ed interesse. Forse anche perplessi che tutto quello che oggi li spinge a scendere in piazza, a protestare, a cercare di risvegliare la coscienza, sia singola, sia collettiva, non sia di fatto una cosa successa ora. E’ invece da quasi cinquant’anni che i problemi ambientali aspettano soluzioni. Alcune regole di comportamento personale erano già state suggerite. Per esempio evitare l’uso sconsiderato di imballaggi in plastica, oppure quello di usare l’automobile con intelligenza e parsimonia. Questi suggerimenti, due in un elenco che ne comprendeva quindici, erano contenuti in un libro di biologia pubblicato nella prima metà degli anni 70, e da adottarsi per gli istituti di scuola superiore.

Terminata la manifestazione del mattino, ho voluto rimanere con loro ancora qualche ora. Ascoltarli e dialogare. Senza cadere nella retorica, la loro generazione è quella che rischia di pagare un dazio alle scelte non ponderate che la mia generazione, e quelle che l’hanno preceduta hanno fatto.

Ho voluto invitarli sia all’impegno personale, che allo studio. Studio e comprensione che non devono essere limitati al loro percorso formativo e scolastico. Ma che deve, secondo il mio parere, continuare praticamente ogni giorno. In questo modo potranno rispondere a chi, superficialmente, definisce queste manifestazioni una scusa per perdere ore di lezione.

Questa partecipazione è solo un primo passo. Cercherò, per quanto mi sarà possibile di continuare ad ascoltarli, e di fare un pezzo di strada al loro fianco. Come sempre ho ricevuto, forse più di quanto ho potuto dare. Ma credo, così come proprio in questi giorni ha dichiarato Vandana Shiva, che abbiano bisogno di essere ascoltati. Aiutati a capire dinamiche che spesso forse comprendono, ma che possono anche metterli in difficoltà. Aiutarli ad apprezzare impegno, etica e sobrietà Credo che sia un impegno importante nei loro confronti. Ma da quel che ho potuto cogliere, credo che si possa essere ragionevolmente ottimisti.

Ghiaccio superionico ottenuto in laboratorio

10 giugno, 2019 - 06:28

Rinaldo Cervellati

L’acqua solida in condizioni normali si presenta in forma amorfa o di cristalli esagonali chiamati ghiaccio Ih, forma cristallina tipica di quasi tutto il ghiaccio presente nella biosfera.Varietà di forme di ghiaccio esagonale

Quasi tutto perché in alta atmosfera si possono trovare piccole quantità della forma cristallina cubica, chiamata ghiaccio Ic, che però è metastabile. Il ghiaccio Ic, in cui la configurazione degli atomi di ossigeno è simile a quella degli atomi di carbonio nel reticolo cristallino del diamante, si può produrre in laboratorio a temperature fra -140 e -50°C, ma si trasforma nella forma Ih sopra -30°C.

In laboratorio sono state ottenute almeno altre 17 forme cristalline di ghiaccio lavorando a diverse temperature e pressioni, un elenco con le corrispondenti caratteristiche si può trovare nel riferimento [1].

Fin dal 1988 calcoli teorici avevano previsto che l’acqua, sottoposta a pressioni estreme superiori a 100´103 atmosfere e temperature oltre 2000 K, poteva diventare superionica con un “mare” di protoni (ioni di idrogeno) che diffondono attraverso il reticolo solido dell’ossigeno.

Tuttavia la conferma sperimentale si è avuta solo lo scorso febbraio con la pubblicazione di una ricerca effettuata da un gruppo di scienziati del Lawrence Livermore National Laboratory, CA, coadiuvati dal Laboratory for Laser Energetics dell’Università di Rochester, NY, (M. Millot, F. Coppari et al., Nanosecond X-ray diffraction of shock-compressed superionic water ice., Nature, 2019, DOI: 10.1038/s41586-019-1114-6). Gli scienziati suppongono che questa particolare forma di ghiaccio possa giocare un ruolo chiave nella struttura di pianeti come Urano e Nettuno.

La notizia è stata riportata da Chemistry & Engineering newsletter nel numero del 16 maggio scorso [2], ma un’anticipazione è stata data dal notiziario on-line dell’Istituto Nazionale di Astrofisica (INAF) che contiene anche un’ intervista a Federica Coppari, responsabile della ricerca insieme a Marius Millot [3].

Federica Coppari, italiana, dopo la laurea e un master in Fisica all’Università di Camerino ha ottenuto il dottorato in Fisica all’Université Pierre et Marie Curie di Parigi, poi si è trasferita negli USA, dove attualmente è ricercatrice nel Lawrence National Laboratory a Livermore.

Federica Coppari

Marius Millot, francese, dopo il dottorato in Fisica ottenuto nell’Université Paul Sabatier di Tolosa, si è trasferito negli USA dove attualmente è responsabile di ricerca al Lawrence National Laboratory.

Marius Millot

L’intervista a Coppari è stata effettuata da Lorenzo Pizzuti, dell’INAF.

Alla prima domanda su in cosa consiste il ghiaccio superionico e in quali condizioni si ottiene, Coppari ha detto:

La condizione di superionicità è un particolare stato della materia in cui gli ioni pesanti si presentano sotto forma solida, mentre quelli leggeri sono in stato liquido. Nel caso dell’acqua, l’ossigeno occupa delle posizioni ben definite dalla struttura cristallina, mentre gli idrogeni non occupano delle posizioni fisse, ma si muovono liberamente.

Struttura del ghiaccio superionico [3]

Nel lavoro che abbiamo pubblicato abbiamo visto che il ghiaccio superionico è stabile tra circa 100 e 200 miliardi di Pascal e tra 2000 e 4000 gradi Kelvin.

A proposito della domanda su come sono riusciti a ottenere il ghiaccio superionico, Coppari ha risposto:

Per ottenerlo abbiamo preso un campione di acqua (l’acqua che conosciamo, per intenderci), l’abbiamo compressa usando un particolare dispositivo chiamato cella a incudini di diamante[1] fino a formare il ghiaccio chiamato Ice VII: una struttura più densa del 60 per cento rispetto al ghiaccio che abbiamo in frigorifero. Siamo poi andati a fare i nostri esperimenti di compressione shock all’Omega Laser facility, nel Laboratory for Laser Energetics di Rochester. In pratica, abbiamo messo la cella a incudini di diamante in una camera apposita, poi abbiamo focalizzato 2000 Joule di energia laser su uno dei diamanti per formare un’onda d’urto che si propaga attraverso la cella, comprimendo e scaldando l’acqua ulteriormente».

Immagine dall’esperimento di compressione, ottenuta con il laser per studiare le proprietà dell’acqua superionica [3].

Pizzuti ha poi chiesto quali differenze ci sono fra il nostro normale giaccio di freezer e questa nuova forma superionica. Ecco la risposta:

Il ghiaccio che troviamo sulla Terra, stabile a basse temperature e a pressioni ambiente ha struttura cristallina esagonale. Cambiando le condizioni di pressione e temperatura il ghiaccio può diventare acqua (scaldando) o assumere una struttura cristallina diversa (comprimendo). Ecco perché all’interno di pianeti tipo Urano e Nettuno, nei quali ci aspettiamo pressioni di centinaia di miliardi di Pascal e migliaia di gradi Kelvin, l’acqua avrà una struttura e delle proprietà sicuramente diverse da quelle del ghiaccio che usiamo per fare il mojito! Probabilmente l’interno dei pianeti non sarà formato da acqua pura, ma da composti e misture di carbonio, idrogeno, ossigeno e azoto. Lo studio delle proprietà dell’acqua pura alle condizioni che ci aspettiamo all’interno di questi pianeti è comunque un primo passo verso una comprensione più approfondita dei meccanismi che hanno portato alla formazione di questi pianeti.

Infine, alla domanda sulle implicazioni e gli sviluppi futuri della ricerca, Coppari ha risposto:

Le implicazioni si possono identificare su diversi fronti: per quanto riguarda la fisica fondamentale, è la prima osservazione sperimentale che questo stato della materia, predetto sulla base di calcoli teorici più di 30 anni fa, esiste nell’acqua. Un’altra implicazione per le scienze riguarda il campo magnetico di questi pianeti, che è intimamente legato a come si sono formati ed evoluti. La visione di molti planetologi è che Urano e Nettuno siano caratterizzati da una struttura interna formata da fluidi convettivi. Altri hanno invece postulato una struttura a strati, con un sottile strato fluido e un mantello di ghiaccio superionico per spiegare le anomalie del campo magnetico di questi pianeti. La scoperta che il ghiaccio è in effetti superionico alle condizioni interne di Urano e Nettuno dà credito a questa teoria. Anche gli sviluppi futuri sono molteplici. Una domanda ovvia è: qual è l’effettiva struttura dell’ossigeno nell’acqua superionica? Con esperimenti di diffrazione X si potrà rispondere a tale quesito. Ulteriori sviluppi riguardano l’esplorazione del diagramma di fase dell’acqua a più alte pressioni per vedere fino a dove si estende il dominio di stabilità del ghiaccio superionico. Non tralasciamo, ovviamente, lo studio delle misture di C-H-O-N [carbonio-idrogeno-ossigeno-azoto] per avere un’idea più precisa di cosa succede all’interno di questi pianeti.

Robert Car, un fisico teorico che ha studiato il ghiaccio superionico all’Università di Princeton è impressionato dal controllo sperimentale che ha consentito al gruppo di ricerca non solo di raggiungere quelle temperature e pressioni, ma anche di effettuare misure di diffrattometria a raggi X. Marius Millot è intenzionato a continuare il progetto di ricerca per indagare il ghiaccio superionico a diverse pressioni e temperature e per effettuare studi simili sull’ammoniaca solida.

Riferimenti

[1] https://it.wikipedia.org/wiki/Cristalli_di_ghiaccio

[2] S. Lemonick, Scientists make superionic ice,

https://cen.acs.org/physical-chemistry/Scientists-make-superionic-ice/97/i20?utm_source=NonMember&utm_medium=Newsletter&utm_campaign=CEN

[3] L. Pizzuti, Quant’è strano un mojito su Urano, https://www.media.inaf.it/2018/02/09/ghiaccio-urano-nettuno-coppari/

[1] Dispositivo che permette di generare pressioni altissime e di studiare il comportamento di un materiale sottoposto a tali condizioni. Originariamente ideata per essere usata in apparati sperimentali in cui era prevista l’osservazione ottica di quanto avveniva nel campione, è stata successivamente resa polivalente per ogni tipo di studio in cui il campione sottoposto a pressione è riscaldato e irraggiato con vari tipi di radiazione elettromagnetica (raggi X o gamma o infrarossi, luce di sincrotrone ecc.). Il dispositivo è stato utilizzato anche per ottenere in laboratorio il primo composto dell’elio, Na2He, di cui parleremo in un prossimo post.

NdP: http://www.lescienze.it/news/2019/05/11/news/ghiaccio_nero_caldo-4403157/

New high-pressure phases of ice   P Demontis, R LeSar, ML Klein  Physical review letters 60 (22), 2284  (questo lavoro ha ricevuto finora solo 58 citazioni ma probabilmente è il più importante lavoro sull’acqua degli ultimi decenni).

 

I modelli sconfitti. 2.

7 giugno, 2019 - 07:25

Claudio Della Volpe.

(la prima parte del post è qui)

Stiamo raccontando la storia dei modelli atomici del primo novecento e siamo arrivati a questo punto ad una proposta di atomo che incomincia ad avere caratteri rivoluzionari; il prossimo modello è intitolato a G. A. Schott(8).

Schott è stato un vero e proprio “maestro” della teoria elettromagnetica, un conoscitore tecnicamente approfondito delle equazioni di Maxwell e degli effetti che dipendono dal movimento delle cariche.

Ha tentato fino alla sua morte nel 1937 di opporsi alla teoria quantistica della materia cercando di sviluppare un approccio classico che tenesse fede ai necessari impegno sperimentali.

Anche se la teoria quantistica di Planck è del 1900 il primo attacco alla teoria classica per quanto riguarda la struttura atomica è solo del 1913, col modello planetario di Bohr, in cui si realizzano due punti di vista estremi: orbite elettroniche prive di emissione radiativa ed una espressione quantizzata per i salti energetici.

Schott è stato l’estremo campione della teoria classica della fisica; ha basato la sua difesa su una teoria “ad hoc” ma non priva di stimoli che riprenderemo appena dopo.

In particolare egli sostiene che la soluzione può venire da una struttura interna dell’elettrone che preveda che l’elettrone non sia una particella puntiforme e che esso invece si espanda sia pur a velocità bassa. E’ un’idea che riprende quella di Jeans dell'”elettrone strutturato”. Questa proposta contrasterebbe con la conservazione dell’energia e dunque l’autore è costretto a considerare uno stress interno all’elettrone causato dalla pressione esercitata dall’etere. Infine Schott propone sulla base di alcuni calcoli che questo fenomeno di interazione fra etere e elettrone sia all’origine della gravità.

La sua teoria non riesce comunque a riprodurre la relazione di Rydberg, ma getta le basi di un’idea interessante per spiegare il comportamento non-radiativo del sistema atomico: la espansione dell’elettrone, vedremo fra un momento.

Risale al 1910 il modello dell’archione, di J. Stark.(9)

Ancora una volta vediamo che la lingua può giocare un ruolo essenziale nella divulgazione delle teorie; questo è un lavoro in tedesco dunque meno accessibile sia allora che oggi allo scienziato medio. In questo originale lavoro non sufficientemente celebrato si introduce di fatto l’idea del protone, che viene chiamato “archione”.

As was determined, a chemical atom can contain several positive quanta, separable from each other, with which a mass is connected on the order of that of the hydrogen atom; we may not exclude after the current conditions of our experience the possibility that this also for the smallest chemical atom, which applies for hydrogen atom. As Archion we define now the individual which possesses an electrical charge equal that of the positive elementary quantity and whose mass afflicted with this charge cannot be made smaller, without the individual destroyed as such too. The designation positive quantity is to only characterize the size of the electrical charge, not those with it linked mass. The word Archion is, similar to the word electron, the statement about the charge and that statement about the minimum mass connected with the charge association towards.

Secondo l’idea di Stark l’archione possiede un momento dipolare magnetico, che consentirebbe all’archione di legarsi testa coda con un altro archione, allineandosi per formare un circolo chiuso che darebbe forma e struttura all’atomo come tale. La relativa debolezza dell’attrazione magnetica fra archioni sarebbe aiutata dalla opportuna presenza di elettroni che diminuirebbero la repulsione fra archioni. Ancora una volta questa proposta non risponde all’esigenza di prevedere la formula di Rydberg.

A questo punto nel medesimo 1910 viene pubblicato un articolo da parte di Ehrenfest che segna un punto a favore della meccanica classica ed anche un seme per il futuro problema della creazione di materiali per l’invisibilità, oggi si direbbe metamateriali per l’invisibilità. Solita sfiga , è in tedesco, ma rimedio mettendo l’immagine qua, non si sa mai qualche volenteroso……Questo articolo (10) non ebbe assolutamente il peso e l’impatto che avrebbe meritato.

Uno dei problemi fondamentali, abbiamo visto è quello della stabilità del modello atomico, e la domanda che ci si pone è: ma esiste nell’ambito della teoria di Maxwell un modo per evitare che un sistema di cariche in movimento accelerato emetta una radiazione elettromagnetica e dunque che la sua energia diminuisca? Si può passare ad una visione che impedisca di ricorrere a scelte radicali, ossia la MQ?

La traduzione grossolana del titolo sarebbe: “Movimenti elettrici senza radiazione elettromagnetica”, oggi si direbbe radiationless o nonradiating sources (potenza dell’inglese altro che impronunciabile ungleichformige!!!!!).

In questo brevissimo testo di una sola pagina (una modalità veramente wittgensteiniana) l’intuizione geniale di Ehrenfest è che possono esistere distribuzioni di cariche in accelerazione che non emettono radiazione. Una la vedete rappresentata nel piccolo filmino (in inglese gif) qua sotto (cliccate su quella che sembra una riga), una lamina infinita piana con densità di carica omogenea che accelera verticalmente, cioè perpendicolarmente a se stesso; dato che il campo elettromagnetico è TRASVERSALE, un tale movimento perpendicolare alla superficie NON corrisponde all’emissione di radiazione! Bellissima intuizione!

Lamina orizzontale d carica oscillante.

Tenete presente che al momento della pubblicazione di questo articolo geniale Bohr non aveva ancora scritto nulla sul suo modello e che i due modelli quello “dei Thomson” e di Nagaoka pongono al centro il problema della stabilità del moto di cariche elettriche. Dunque proposta perfettamente centrata. Articolo “economico” in linea con i tempi: dopo tutto il Tractatus di Wittgenstein è solo del 1921, il libro filosofico più breve del mondo, la scrittura essenziale; qua abbiamo l’idea geniale in una sola pagina. E questa E’ un’idea geniale, un seminal paper secolare.

Se il moto del sistema di cariche è perpendicolare alla superficie onde elettromagnetiche non si possono generare.

Perchè questo sistema non irradia? Perchè è un sistema infinito non puntiforme come l’esempio che si fa sempre; ovviamente sistemi infiniti non ne esistono; ma la soluzione finita c’è, la vedete nel secondo filmato qua sotto; una sfera uniformemente carica il cui raggio oscilli!!

Abbiamo la medesima situazione e non ci sono campi elettromagnetici emissibili da questo sistema che ricorda ovviamente l’elettrone autoespandente del campione dell’anti MQ: Schott!

Come se non bastasse Ehrenfest traccia la proprietà generale che un sistema di cariche accelerate deve possedere per non emettere un campo.

La condizione in modo riassuntivo recita: supponiamo di avere nella zona A indicata in figura una disposizione di cariche la quale generi un potenziale che al confine con la zona B va costantemente al valore presente in B; in B il laplaciano (come indicato nell’equazione) è costante, ossia in media il campo elettrico ha divergenza nulla, ha valore costante (se non vi ricordate cosa è il laplaciano non vi preoccupate, ve lo riassumo io in forma non rigorosa, è la media dei valori dei vettori in uscita da un punto).

.

mentre in A il campo elettrico è espresso dall’equazione seguente e

, , .

e H = 0; queste scelte garantiscono un comportamento non radiativo.

Ecco qua, in una paginetta, risolto in modo originale il problema della stabilità che aveva ossessionato per 10 anni i fisici classici; ma non bastò!

Accidenti agli articoli in tedesco! La MQ ha vinto per una questione di lingua? Certamente una diffusione di queste idee più ampia avrebbe reso inutili almeno nell’immediato le scelte radicali della MQ fatte solo tre anni dopo da Bohr, avrebbe aperto altre prospettive. Ma così non è stato.

Salto la storia dell’esperimento di Geiger-Marsden, gli studenti di Rutheford, dato che ne ho parlato in un post precedente. Quell’esperimento impose un modello “planetario”; ma nella descrizione di Rutheford (11) non ci sono commenti su come gli elettroni si muovano;

Considering the evidence as a whole, it seems simplest to suppose that the atom contains a central charge distributed through a very small volume, and that the large single deflexions are due to the central charge as a whole, and not to its constituents. At the same time, the experimental evidence is not precise enough to negative the possibility that a small fraction of the positive charge may be carried by satellites extending some distance from the centre.

Rutheford sapeva che quel movimento degli elettroni inteso in modo tradizionale avrebbe reso l’atomo instabile

The question of the stability of the atom proposed need not be considered at this stage, for this will obviously depend upon the minute structure of the atom, and on the motion of the constituent charged parts.

ma non coglie nessuno dei suggerimenti originali fatti da Schott o da Erhenfest, forse non li conosceva? Certo non li cita. Non so, non ho trovato commenti in merito. Sta di fatto, ma pochi lo ricordano, che Rutheford si tira indietro sulla questione della stabilità.

Alla fine il vincitore risultò N. Bohr (12)

Che modello di interazione aveva Bohr? Secondo questo lavoro (13) che ritraccia la storia del modello Nagaoka il modello Rutheford, quello di Bohr e di Nagaoka condividevano lo stesso tipo di potenziale e di interazione fra nucleo ed elettroni. Rimaneva il problema della stabilità.

Le regole nuove che Bohr ha suggerito per risolvere le contraddizioni di Rutheford, la solita instabilità elettromagnetica degli elettroni in rotazione attorno al nucleo piccolo e lontano, sono su un altro piano:

  1. Gli elettroni possono muoversi solo in orbite stabili che possiedono un momento angolare quantizzato.
  2. Un elettrone può cedere la sua energia solo tutta in una volta saltando da uno stato n ad uno n-1.

In queste regole Bohr ha riversato quello che Jeans aveva immaginato fosse necessario, ed era, h, la costante di Planck.

A questo punto i fisici avevano un modo di riprodurre finalmente la formula di Rydberg e tutti i sofisticati e sottili ragionamenti del decennio precedente furono in gran parte dimenticati.

Ma non del tutto, perchè qualcuno continuò a combattere contro i quanti.

Sto parlando ovviamente di Schott. Nel 1933 egli dimostrò un nuovo modo di costruire un sistema non radiativo(14).

Una carica sferica uniforme di raggio α sottoposta ad un moto periodico di periodo T non produrrà radiazioni se si soddisfa la seguente condizione :dove m è un intero piccolo e c la velocità della luce. Il fenomeno è mostrato in figura.Nel 1933 la teoria quantistica si era già rafforzata in modo tale che Schott non tentò assolutamente di costruire un modello atomico basato sul fenomeno appena scoperto, ma dato che nel 1930 si era scoperta una nuova forma di radiazione senza carica elettrica (che poi Chadwick dimostrerà essere il neutrone) Schott ipotizzò che il neutrone potesse farsi risalire alla sua scoperta. Il neutrone dunque come una collezione di una o più sfere non radianti.

Having now established the principal result of our investigation, we may perhaps be permitted to indulge in a little speculation, and, though models of the atom and its constituents, especially classical ones, are out of fashion, enquire whether such models, constructed out of charged sphere, like the one considered above, may not, after all, be of use in the elucidation of atomic problems… Obviously it does not help to account for Bohr’s radiationless electron orbits, for, if one of our spheres were used as a model of the electron, the radiationless orbits of its centre would be far too small, since they would lie entirely inside the electron, as we saw in the last section.

But this very fact suggests that, if two of our spheres were taken as models of the electron and proton, it might prove possible to use them to construct a permanent model of the neutron, possibly also permanent models of atomic nuclei; for we require radiationless orbits of nuclear dimensions, which can be provided by our spheres, if they are of such dimensions, and have no spin.

La teoria matematica usata per il calcolo è così elegante che si è pensato non potesse essere inutile; come ho scritto altrove: la bellezza è verità e la verità è bellezza, seguendo Keats.

In effetti questa teoria è diventata la base di partenza per lo studio di sistemi radiationless, senza emissione, le cosiddette nonradiating sources, che hanno dato la spinta alla ricerca sui cosiddetti metamateriali invisibili a indice di rifrazione negativo, ma questa è un’altra storia che vi racconterò in un altro post ed è anche un importante argomento non di magia ma di fisica e chimica dei metamateriali (15).

Concludiamo dicendo questo; i modelli atomici prequantistici sono stati numerosi; molti più di quanti ne ricordiamo comunemente; alcuni di essi contenevano idee matematiche e fisiche di notevole interesse; oggi quei modelli “erronei” rivivono in teorie fisiche diverse dalle originali e ci insegnano che forse il mondo potrebbe essere diverso da come lo rappresentiamo e lo raccontiamo.

Sappiamo che due teorie basilari come la relatività e la MQ presentano problemi di compatibilità; non abbiamo ancora una soluzione per questo problema, forse sia la MQ che la relatività sono “sbagliate”, sono casi particolari di altro. E forse proprio nei “modelli sconfitti” possiamo trovare suggerimenti per superare i problemi; e certamente possiamo trovare in essi lo spirito indomito di scienziati creativi e misconosciuti che vale la pena di ricordare con orgoglio. Attenti a parlare di modelli sconfitti e di modelli vincitori. Nel calorico c’era l’intuizione dell’entropia, nell’intuizione di Ehrenfest e Schott c’è il mondo dell’invisibilità.

Non tutto ciò che viene sconfitto è destinato a perire.

Riferimenti

  • 8) A. Schott, “On the electron theory of matter and the explanation of fine spectrum lines and of gravitation,” Phil. Mag., Ser. 6, Vol. 12 (1906), 21-29.)
  • 9) Stark, Prinzipien der Atomdynamik: Die Elektrischen Quanten (Leipzig, Verlag von S. Hirsel, 1910)
  • 10) Phys. Z. 11 (1910), 708-709) titolo:  “Ungleichförmige Elektrizitätsbewegungen ohne Magnet- und Strahlungsfeld”.
  • 11) Ernest Rutherford, The Scattering of α and β Particles by Matter and the Structure of the Atom – April 1911, Philos. Mag, 21:669-688,[
  • 12) Niels Bohr, “On the Constitution of Atoms and Molecules (Part 1 of 3),” Phil. Mag. 26 (1913), 1-25; sono tre articoli il primo si scarica liberamente gli altri no ed è una vergogna; abbasso il copyright che è in realtà un modo di coprire il selvaggio accumulo di profitto delle grandi case editoriali.
  • 13) https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4989051/
  •  14) A. Schott, “The electromagnetic field of a moving uniformly and rigidly electrified sphere and its radiationless orbits,” Phil. Mag. Vol. 15, Ser. 7 (1933), 752-761.
  • 15) https://skullsinthestars.com/2008/04/19/invisibility-physics-acceleration-without-radiation-part-i/

I modelli sconfitti.1.

5 giugno, 2019 - 11:24

Claudio Della Volpe

Si dice comunemente (ma non so chi l’abbia detto o scritto per primo): la storia la scrivono i vincitori. Credo che ciò avvenga almeno sul breve periodo; sui tempi lunghi le cose poi si chiariscono, almeno spesso è così. Ma potrebbe meravigliare scoprire che questo meccanismo possa dominare anche in campo scientifico, dove la ricerca viene spesso vista (in modo erroneo) come il progresso da una idea vincente ad una migliore. Le cose non stanno così, sono molto più complesse e contraddittorie.

Uno degli argomenti dove si potrebbe raccontare qualcosa di interessante è quello dei modelli dell’atomo.

Comunemente la vulgata ci riporta che storicamente si sono succeduti il modello del plum pudding di Thomson, il cosiddetto panettone, l’esperimento di Rutheford con le particelle alfa e infine il nuovo modello atomico di Bohr. Anche io ho raccontato un po’ questa vulgata in un post di qualche tempo fa. Ma le cose stanno veramente così?

In un blog molto affascinante, che ho scoperto di recente, ho trovato un po’ di post che fanno vedere le cose diversamente.

In uno dei post si elencano ben 8 modelli atomici (della maggior parte dei quali non ero a conoscenza), ma soprattutto si introduce un discorso, una ipotesi di lavoro che cercava di spiegare un fenomeno basilare che ha spinto a introdurre la quantizzazione e per il quale c’è una alternativa; una volta che ve lo avrò indicato vi farà cadere dalla sedia. Dunque tenetevi forte; il punto del post sarà: sarebbe potuta esistere una alternativa alla meccanica quantistica? E ancor più cosa ci insegna questa possibile alternativa?

Ci sono alcuni fenomeni alla base dell’attuale modello atomico e della visione quantistica della realtà:

  • I fenomeni di emissione/assorbimento della luce: le righe degli spettri, un fenomeno scoperto da Fraunhofer nel lontano 1814 (quello del congresso di Vienna, la restaurazione antinapoleonica);  potete osservarlo facilmente usando un reticolo di diffrazione da pochi euro, nello spettro solare ci sono righe scure in posizioni fisse che oggi interpretiamo come dovute all’assorbimento della radiazione di corpo nero in uscita dal Sole alle sole lunghezze d’onda corrispondenti a salti quantici ben definiti. In modo analogo le righe di emissione si hanno quando si porta all’incandescenza un elemento, come avviene nel saggio alla fiamma; in quel caso le righe non sono scure ma molto luminose e la loro lunghezza d’onda misurata con l’equazione del reticolo, corrisponde alla medesima bloccata nell’atmosfera solare. Per alcuni elementi come l’idrogeno alla fine dell’800 era possibile avere le lunghezze d’onda espresse da serie matematiche in cui la variabile era un numero intero (serie di Rydberg) ; questo fenomeno era al giro del secolo del tutto ben conosciuto ed indispensabile da interpretare. A questo fenomeno dobbiamo aggiungere la questione dello spettro di corpo nero, il fatto che la probabilità di emettere energia non sia equipartita fra le frequenze ma abbia un massimo che dipende dalla temperatura (effetto Wien); la teoria di Planck della quantizzazione è del 1900. Ed infine l’effetto fotoelettrico studiato da Hertz e Lenard (che ritroveremo più avanti come modellatore di atomi) per cui l’emissione di elettroni da metalli avviene tramite radiazione UV; nei dettagli il fenomeno dipende dalla differenza di potenziale applicata ma funziona solo da un certo potenziale in poi (detto potenziale d’arresto): il potenziale d’arresto non dipendeva dall’intensità della luce incidente, sorprendendo lo sperimentatore, che si aspettava il contrario.
  • La seconda classe di fenomeni sono quelli del comportamento chimico, espressi dalla tavola periodica, di cui festeggiamo quest’anno il 150esimo anniversario; la possibilità rappresentata da Mendeleev nel 1869 di schematizzare le proprietà dei vari elementi raggruppandoli in quelli che oggi chiamiamo gruppi e periodi, proprietà simili o variabili in modo semplice; tale schema obbliga ad una struttura atomica che sia altrettanto schematica e prevedibile in base ad un parametro unico, che oggi chiamiamo numero atomico, ossia il numero di elettroni o di protoni.
  • Ed infine l’esistenza di particelle elementari di carica opposta; l’esistenza di elettricità di carica opposta era stata teorizzata fin dal 1734 e ne abbiamo parlato anche qui (l’elettricità resinosa e vitrea, di Charles François de Cisternay du Fay); nel 1897 J.J. Thomson (da non confondere con William Thomson, primo Lord Kelvin)) scoprì i raggi catodici, nel 1919 Rutheford scoprì il protone.

Queste tre classi di fenomeni sono da includere nella struttura dell’atomo in modo “naturale”, devono essere previsti dalla teoria.

Il modello di J.J. Thomson è stato preceduto dal modello del “dinamide”, dynamid, proposto da Lenard(1). Il modello del dinamide è sbagliato ma probabilmente è poco conosciuto prima di tutto perchè oggi esiste solo l’inglese mentre questa proposta come altre è scritta in tedesco.

Lenard, che vinse il Nobel per la fisica nel 1905 per il suo lavoro sui raggi catodici, era un convinto assertore del nazismo. Egli fece molte osservazioni importanti sul comportamento degli elettroni: dimostrò che l’assorbimento degli elettroni dipendeva più dalla massa di materiale che non dalla sua specifica composizione o dalle sue proprietà chimiche, suggerendo quindi che la composizione atomica fosse basata sui medesimi mattoni, sulla loro quantità più che sulla loro qualità; inoltre egli dimostrò che le forze di interazione erano essenzialmente elettriche e che queste forze comandavano le interazioni chimiche. Ne seguiva un modello illustrato nella immagine seguente in cui il blocco base di tutta la materia era il dinamide ossia una coppia di cariche positive e negative legate fra di loro. Le forze che tenevano insieme i dinamidi non erano spiegate ma la teoria rendeva conto della struttura della tavola periodica e della presenza di elettroni negli atomi anche se non era in grado di spiegare la formula di Rydberg degli spettri dell’idrogeno; infine le componenti positive avrebbero dovuto essere egualmente estraibili di quelle negative dall’atomo ma ciò non avveniva.

Il modello di Thomson fu presentato l’anno dopo (2).

L’idea originale del modello di JJ fu in effetti suggerita dall’altro Thomson ossia William, Lord Kelvin mentre il ruolo fondamentale di JJ fu di fare dei calcoli quantitativi che dimostrassero la stabilità del sistema. Non si confonda questa proposta di Lord Kelvin con quell’altra del 1867 dell’atomo come vortice di etere, che pure ha avuto una serie di emuli successivi ed è stata presa a base della teoria delle stringhe (https://en.wikipedia.org/wiki/William_Thomson,_1st_Baron_Kelvin – Kelvin’s_vortex_theory_of_the_atom). Non parlerò qui del vortice di etere e dei modelli “magnetici come quello di Mayer(1878) (3). Qua parliamo invece di una proposta fatta dal Thomson più famoso cioè William, del plum pudding model e ripresa dall’altro, J.J per valutarne la stabilità. Devo dire che non sono stato capace di trovare il testo originale di Kelvin e che non ci sono citazioni nel lavoro di JJ, ma moltissimi testi riportano questa dualità; se si tratta di una mera confusione non sono in grado di dire; non c’è nemmeno una lista completa dei lavori di William da verificare. Suppongo che sia così, è ragionevole ma potrebbe essere anche sbagliato. Chi vuole può provare a cercare un libro dedicato a questi problemi (4). Più avanti vi mostro un lavoro che fa riferimento alla proposta di William.

La stabilità era in effetti una questione molto importante nei primi modelli atomici. Per esempio Jean Baptiste Perrin avrebbe proposto un modello nucleo-planetario in anticipo (anche in questo caso non si trova il lavoro originale di Perrin, ma solo vari riferimenti a questa idea) nel quale gli elettroni negativi ruotavano attorno al nucleo, ma la difficoltà che cito qui la prima volta era che questo sistema era instabile; se una carica puntiforme si muove di moto accelerato genera un campo elettromagnetico variabile e dissipa energia, dunque prima o poi cade nel nucleo. Riparleremo di questo problema della instabilità dovuta a radiazione elettromagnetica.

La soluzione di Kelvin o di J.J. Thomson fu di sostituire il nucleo positivo con una distribuzione ampia ed omogenea di cariche positive in cui gli elettroni erano mescolati, come i canditi nel panettone. La forza elettrica nell’interno della sfera uniforme di carica aumenta con la distanza dal centro, mentre DIMINUISCE all’esterno di tale distribuzione, esattamente come avviene per la gravità: se scavate un tunnel che passi dentro la Terra, classico problema di fisica, la forza di attrazione diminuisce andando verso il centro a causa dell’effetto di tutti gli strati più esterni.

(Ovviamente la sfera è tenuta insieme da forze NON ELETTRICHE)

Nel 1906 J.J. concluse da una analisi dei raggi X riemessi dai gas e dall’assorbimento dei raggi beta dai solidi che il numero di elettroni era approssimativamente eguale al numero atomico. Forse analizzando i possibili modi di vibrazione degli elettroni in questa configurazione si sarebbe potuta avere una descrizione spettrale fedele alle formule conosciute.

La combinazione fra le forze di attrazione e di repulsione avrebbe prodotto un anello di elettroni in stabile equilibrio ad un certo raggio. J.J. Thomson provvide una serie di calcoli a questo scopo suggerendo che la stabilità dipendesse dalla velocità degli elettroni e che sotto una certa velocità la stabilità fosse rotta manifestandosi come radioattività. Thomson vinse il premio Nobel nel 1906

in recognition of the great merits of his theoretical and experimental investigations on the conduction of electricity by gases.”

Come si vede questi aspetti di calcolo non sono ben rappresentati dalla figura classica del plum pudding model e per certi aspetti si mescolano col modello seguente.

Nel 1904 lo studioso di origine giapponese Hantaro Nagaoka propose il modello “saturniano”, (5) rappresentato nella figura seguente.

La proposta di Nagaoka riprendeva un lavoro del 1859 di James Clerk Maxwell, che aveva dimostrato che gli anelli di Saturno erano sufficientemente stabili e composti da una serie relativamente piccola di oggetti; i disturbi inevitabili dell’orbita causavano solo delle oscillazioni ma non la distruzione dell’anello. Nagaoka applicò la medesima idea matematica, ma considerando che i corpi in rotazione non si attraevano come i componenti dell’anello di Saturno, ma si respingevano.

Egli dimostrò matematicamente che le oscillazioni dell’anello di elettroni producevano linee spettrali e una struttura a bande continua, che in presenza di un campo magnetico si sarebbe prodotto un effetto di splitting (analogo all’effetto Zeeman) e propose che la radioattività dipendesse da effetti repulsivi fra anelli di elettroni diversi attorno al medesimo atomo. Questa proposta, nonostante il notevole successo esplicativo che includeva gli spettri, non ebbe molta risonanza.

Nel 1906 arrivò una proposta (6) di uno dei maggiori scienziati del secolo Lord Rayleigh; nel suo caso l’idea è di considerare un numero di elettroni così alto da poter analizzare il loro comportamento come un fluido di elettroni continuo.

Come si vede qui Rayleigh fa riferimento ad un suggerimento di Kelvin rispetto al modello del plum-pudding, una conferma che conforta, ma rimane il problema di una citazione ad uno scritto di Kelvin. Inoltre Rayleigh considera un numero così elevato di elettroni da poterli considerare un fluido elettronico a cui attribuisce un paio di proprietà tipiche dei fluidi e diverse da quelle finora considerate. Il fluido elettronico di Rayleigh è irrotazionale, ossia non c’è nessun elemento che ruota attorno all’asse passante per il centro di massa dell’elemento stesso. Questo semplifica molto i calcoli ed unito alla supposta incompressibilità ne facilita la modellazione matematica. Il fluido elettronico, dunque, oscilla ma non ruota attorno al centro e lo fa con frequenze discrete e calcolabili, ma che non risultano essere quelle di Rydberg, difficoltà che Rayleigh cerca di superare considerandole come “battimenti” di frequenze molto più elevate. Rayleigh arriva anche alla conclusione che occorrono probabilmente altre condizioni per giustificare che le frequenze di oscillazione siano solo quelle rilevate, un’idea che in qualche modo è in accordo con le richiesta della MQ. Le idee di Rayleigh sono potenti, eliminano la necessità di una regolare rotazione ma indicano la necessità di nuove condizioni. Geniale.

Un paio di anni dopo continua il fermento di nuove intuzioni. Il modello di Jeans è quello dell’elettrone vibrante.(7)

Si tratta più che di un modello organico di una serie di suggerimenti per modificare il modello di Rayleigh. Scrive Jeans:

… may I mention that in the Phil. Mag. for Nov. 1901, I attacked a problem similar in many respects to that which forms the main substance of Lord Rayleigh’s paper? The actual premises upon which I worked were different from those of Lord Rayleigh – his positive sphere being represented, in my work, by a crowd of positive electrons, and the definiteness of structure, which he obtains by regarding this sphere as rigidly fixed, being obtained in my work by using a law more general than ee’/r^2.

Cercando delle condizioni distabilità che supportino il modello di Rayleigh, Jeans conclude che:

If this were so, these frequencies would depend only on the constituents of the atom and not on the actual type of motion taking place in the atom. Thus if we regard the atom as made up of point-charges influencing one another according to the usual electrodynamical laws, the frequencies could depend only on the number, masses, and charges of the point-charges and on the aether-constant V. What I wish to point out first is that it is impossible, by combining these quantities in any way, to obtain a quantity of the physical dimensions of a frequency.

In brief, no equation involving charge, mass, and aether-constant V will ever result in a frequency. Since we know that atoms are emitting light with definite frequency, something is missing in the description.

E suggerisce

It seems, then, that we must somehow introduce new quantities – electrons must be regarded as something more complex than point-charges. And when we have once been driven to surrendering the simplicity of the point-charge view of the electron, is there any longer any objection to putting the most obvious interpretation on the line-spectrum, and regarding its frequencies as those of isochronous vibrations about a position of statical equilibrium?

In simple words, if we imagine that the electron itself not as a point charge but as an object with its own internal structure, then the frequencies of light emitted from atoms could result from vibrations within this ‘structured electron’.

Come si vede Jeans arriva molto vicino alla necessità di una nuova fisica in cui l’elettrone sia un oggetto che vibra come un pendolo, il che ammetterete che è una sorprendente e rivoluzionaria conclusione che partorisce interamente dai geniali tentativi di risolvere i problemi rimanendo all’interno della fisica tradizionale.

Riferimenti

  1. Lenard, “Über die Absorption der Kathodenstrahlen verschiedener Geschwindigkeit,” Ann. Physik 12 (1903), 714-744.

2. Mag., Ser. 6, Vol. 7 (1904), 237-26

     3. http://galileo.phys.virginia.edu/classes/252/more_atoms.html

  • 4. Alex Keller, The Infancy of Atomic Physics: Hercules in his Cradle.
  • 5. H. Nagaoka, “Kinetics of a system of particles illustrating the line and the band spectrum and the phenomena of radioactivity,” Phil. Mag., Ser. 6, Vol. 7 (1904), 445-455.)
  • 6. Lord Rayleigh, “On electrical vibrations and the constitution of the atom,” Phil. Mag., Ser. 6, Vol. 11 (1906), 117-123.)

      7. J.H. Jeans, “On the constitution of the atom,” Phil. Mag., Ser. 6, Vol. 11 (1906), 604-607.)

 

(continua)

Sintetizzate le più piccole ciclodestrine

3 giugno, 2019 - 09:08

Rinaldo Cervellati

La notizia è stata riportata da Cella Arnaud nel numero del 12 aprile di Chemistry & Engeering newsletter con il sottotitolo: Un ponte fra ligandi mantiene l’insieme in una posizione che dà luogo a strutture flessibili.

Le ciclodestrine (CD) sono una famiglia di oligosaccaridi ciclici, costituiti da un anello macrociclico di subunità di glucosio unite da legami α-1,4 glucosidici. Le ciclodestrine sono prodotte dall’amido mediante conversione enzimatica. Esse sono composte da 5 o più unità α-D-glucopiranoside collegate 1→ 4, come nell’amilosio (un frammento di amido). La ciclodestrina più grande contiene 32 unità 1,4-anidroglucopiranoside. Le ciclodestrine tipiche contengono un numero di monomeri di glucosio che vanno da sei a otto unità in un anello.

Ciclodestrina a 8 unità

Secondo il numero di unità di glucosio contenute nell’anello sono chiamate α– (6 unità), β− (7 unità) e γ- (8 unità) –ciclodestrina rispettivamente.

Data la struttura spaziale delle molecole di zucchero, si viene in realtà a realizzare una struttura tronco conica (toroide). Questi toroidi, immersi in un solvente, espongono i gruppi ossidrili secondari e quelli primari dalle aperture più grandi e più piccole rispettivamente. A causa di questa disposizione, l’interno dei toroidi è considerevolmente meno idrofilo rispetto all’ambiente esterno. Ciò si traduce nella possibilità per le ciclodestrine di ospitare molecole idrofobiche all’interno della cavità e di essere solubili in acqua. Ne risulta anche l’abilità di indurre un incremento di solubilità in acqua delle sostanze idrofobiche ospitate nella cavità. Quando una molecola di polarità e dimensioni opportune viene ospitata nella cavità della ciclodestrina si forma un cosiddetto complesso di inclusione.  Come conseguenza di questa capacità le ciclodestrine sono abbondantemente usate in molti prodotti industriali, tecnologici e analitici. Il loro effetto citotossico trascurabile le porta a un largo impiego come efficaci vettori nei cosmetici e nelle preparazioni farmaceutiche. Trovano impiego anche negli imballaggi, nell’insaporimento di cibi, nei processi di separazione, nella tutela dell’ambiente, nella fermentazione e nella catalisi.

Tutto ciò è stato ampiamente discusso da Claudio Della Volpe nel post sulla molecola C2 della pubblicità: https://ilblogdellasci.wordpress.com/2016/10/24/le-molecole-della-pubblicita-2c/

La novità sta nel fatto che un gruppo di ricercatori giapponesi, coordinati dal prof. Hidetoshi Yamada (Dept of Chemistry, Kwansei Gakuin University), sono riusciti a sintetizzare le ciclodestrine più piccole, a 4 e 3 unità di glucosio nell’anello (D. Ikuta et al., Conformationally supple glucose monomers enable synthesis of the smallest cyclodextrins, Science, 2019, DOI: 10.1126/science.aaw3053).

Hidetoshi Yamada

Poiché queste ciclodestrine a 3 e 4 unità zuccherine hanno una dimensione dell’anello troppo piccola per permettere la conformazione più stabile del glucopiranosio, la sintesi a partire da quest’ultimo non è possibile. Il fattore principale del successo nella sintesi effettuata dal gruppo giapponese è stata la formazione di un anello glucopiranoside conformazionalmente controbilanciato fra le forme equatoriale e assiale.

EDB = ponte molecolare fra O3 e O6

La flessibilità è stata fornita mediante l’inserimento di un ponte fra gli atomi di ossigeno O3 e O6 del glucosio. Questa elasticità consente la generazione degli opportuni conformeri, anche se deformati, per la sintesi del trimero e del tetramero ciclici CD3 e CD4:

Sebbene i ricercatori siano stati in grado di ottenere CD3 e CD4, la sintesi ha funzionato meglio per il trimero che per il tetramero. Tuttavia essi sono riusciti a sintetizzare solo quantità limitate di entrambi gli oligomeri. Yamada e colleghi stanno lavorando per aumentare la resa della reazione e per ottenere quantità diciclodestrine a livello di grammi.

Riferendosi alle applicazioni generali delle ciclodestrine, Yamada e collaboratori terminano augurandosi che la cavità più piccola di CD4 possa consentire l’inclusione selettiva di molecole con dimensioni inferiori a quelle ospitate dalle CD attualmente disponibili.

TRA FRONTIERE E CONFINI. Recensione

31 maggio, 2019 - 09:18

Eleonora Aquilini*

Recensione:  di INSEGNARE E APPRENDERE CHIMICA

 

Il libro di Valentina Domenici “Insegnare e apprendere chimica”(Mondadori, 2018, p.XIV-338 euro 23.80), è sicuramente una novità di rilievo per chi si occupa di didattica della chimica.

Mancava, infatti, un testo di riferimento che facesse il punto sulle teorie e le pratiche che costituiscono il panorama della didattica nazionale e internazionale. Uno strumento importante per studenti che affrontano per la prima volta il problema dell’insegnamento della chimica, per insegnanti di scuola in servizio e per insegnanti universitari. Il libro, nella prima parte che consta di tre capitoli, mostra i vari passaggi che ci portano verso l’insegnamento della disciplina prendendo in esame diversi aspetti: la natura della chimica, il suo insegnamento oggi, il suo apprendimento lungo tutto l’arco della vita, le buone pratiche e i casi di studio.

Valentina Domenici

Ognuno di questi aspetti costituisce una parte del libro che viene analizzata in chiave didattica con un’ampia bibliografia, sicuramente preziosa per il lettore. La prima parte individua lo statuto epistemologico della chimica, la sua storia e il ruolo del suo linguaggio nell’insegnamento, dando un quadro dei capisaldi entro i quali muoversi per ragionare di didattica. La seconda parte del libro viene introdotta dal capitolo 4 che prende in esame l’insegnamento della chimica a scuola e all’università; questa è una novità di non poco conto in quanto, solitamente, la didattica viene considerata un mezzo, un modo per trasporre il sapere accademico ufficiale, dato per scontato e che non si discute, al mondo della scuola. Qui si ragiona alla pari, prendendo la didattica della Chimica come problema comune. Sappiamo tutti, infatti, che se vogliamo cambiare il modo d’insegnare usuale, prevalentemente trasmissivo e “autoritario”, come sostiene Kuhn[1], la discussione su come e cosa s’insegna deve nascere anche in ambito accademico. Allora, il capitolo 4 getta proprio un ponte fra scuola e università, disegna un interregno, una proficua zona di confine, promettente per gli sviluppi di tutta la scuola. A questo riguardo, a proposito cioè di quanto può essere efficace la contaminazione fra campi diversi, viene in mente la distinzione fra frontiera e confine che Richard Sennett delinea in L’uomo artigiano. Facendo riferimento alle pareti e alle membrane cellulari che si differenziano per la maggiore possibilità di scambio con l’esterno delle seconde rispetto alle prime, Sennett scrive: “In tutti gli ecosistemi naturali si possono trovare strutture analoghe alla parete e alla membrana cellulari. Gli ecosistemi hanno frontiere, che assomigliano alle pareti della cellula, e hanno confini che assomigliano alla membrana cellulare. Le frontiere possono delimitare un territorio da difendere, come il territorio abitato da un gruppo di leoni o da un branco di lupi, o la zona controllata da una banda e proibita alle altre … Il confine ecologico, invece, è un luogo di scambio, dove gli organismi diventano più attivi. Tale è la linea costiera di un lago: al bordo di acqua e terra gli organismi possono trovare molti altri organismi di cui nutrirsi”[2]. Sennett ricorda poi come, in ambito antropico, le mura delle città medioevali, nate come frontiere, si siano trasformate in confini attivi, quando ai loro bordi, sono nati piccoli mercati clandestini, o si siano popolati di proscritti e altri vagabondi[3]. Secondo Sennett, la sfida di noi esseri umani è trasformare le frontiere in confini, ossia luoghi di scambio, resistenze porose. Seguendo questa singolare chiave di lettura, diversi sono i luoghi di scambio che vengono evidenziati soprattutto nella terza parte del libro di Valentina, quella che è intitolata “L’apprendimento della Chimica lungo l’arco della vita (Lifelong learning)”: la chimica nella vita di ogni giorno, la comunicazione della scienza, l’immagine della chimica, i contesti non formali, i musei scientifici. In questi casi la disciplina viene a patti con altre strutture di pensiero (si pensi all’Etica), con altre organizzazioni (si pensi ai complessi museali), e modifica se stessa, cambia rotta, o chissà, preferisce tacere. Questi sono tutti ambiti in cui la chimica si confronta, si contamina con altre realtà diventando meno formale e forse più fruibile dai cittadini. L’autrice mette poi in luce, nell’ultima parte del libro, le possibilità, offre prospettive, documentando ciò che già esiste e riportando le buone pratiche, le piste di lavoro che sono sperimentazioni attuate nei diversi ordini di scuola e riflessioni su concetti fondanti per la disciplina. È evidente in questa, come nelle altre parti del libro, la passione e la competenza con le quali Valentina affronta le varie tematiche e come sa documentarle. Sicuramente questo è un libro importante per gli studenti che si stanno preparando all’insegnamento e per tutti i docenti, compresi quelli universitari, un riferimento, uno strumento che accompagnerà costantemente il nostro lavoro.

*Eleonora Aquilini, vive a Pisa e insegna Chimica nella scuola secondaria di secondo grado. Dal 1995 svolge attività di ricerca didattica nel “Gruppo di ricerca e sperimentazione didattica in educazione scientifica” del CIDI di Firenze. Attualmente è vicepresidente della divisione didattica della Società Chimica Italiana. È co-autrice del volume Leggere il mondo oltre le apparenze e ha scritto numerosi articoli riguardanti la didattica della Chimica e delle Scienze.

[1] Thomas S. Kuhn, La struttura delle rivoluzioni scientifiche, Einaudi, Torino,1999.

[2] Richard Sennett, L’uomo artigiano, Feltrinelli, Milano, 2009, pag. 217.

[3] Ibidem, pag. 218.

Copyright © 2012 Società Chimica Italiana. All Rights Reserved.