slideshow 16 slideshow 1 slideshow 2 slideshow 3 slideshow 4 slideshow 5 slideshow 6 slideshow 7 slideshow 8 slideshow 0 slideshow 9 slideshow 10 slideshow 11 slideshow 12 slideshow 13 slideshow 14 slideshow 15

BLOG: LA CHIMICA E LA SOCIETA'

Condividi contenuti La Chimica e la Società
Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.
Aggiornato: 6 settimane 1 giorno fa

La diversa presenza di Primo Levi

6 aprile, 2017 - 23:23

Mauro Icardi

Il prossimo 11 Aprile ricorrerà il trentesimo anniversario della morte di Primo Levi. E sul web, sui giornali già si possono leggere molti articoli che ne ricordano la figura di uomo, di reduce dell’olocausto, di scrittore. Non ultimo di chimico. Il salone del libro di Torino ne ricorderà l’opera e la figura, e nel 2017 è stata pubblicata la nuova edizione ampliata delle Opere Complete in due volumi, che sarà completato da un terzo volume che raccoglie le interviste che Levi rilasciò. Il festival della scienza e dell’innovazione di Settimo Torinese che si terrà dal 15 al 22 Ottobre prossimi sarà dedicato a Levi e alla chimica.

Nel mare magnum di cose che si scriveranno mi sentivo di voler fare un piccolo omaggio. Partendo da una considerazione fatta da Ernesto Ferrero, cioè che non sono trascorsi trent’anni dall’assenza di Levi, ma bensì dalla sua “diversa presenza”. E trovo che davvero questa frase sia la descrizione più vera. Mai come oggi, e costantemente da quel 11 Aprile del 1987 la parabola di Levi è cresciuta, rivelando un tesoro inestimabile di opere, di scritti che dovrebbero di fatto trasferire la sua opera nel novero degli autori che sono i capisaldi delle antologie scolastiche. Cosa che ai tempi in cui ho studiato io non era poi così evidente e chiara. Levi si mescolava e confondeva con altri autori del memorialismo della deportazione e dell’olocausto.

La notizia della sua morte mi giunse inaspettata. Ma credo non soltanto a me. Levi era ormai scrittore a tutti gli effetti fin dal 1975, anno del suo pensionamento dalla carica di direttore tecnico della Siva. L’avevo conosciuto leggendo per primo “Il sistema periodico” verso la fine degli anni 70, quando il libro era già uscito da circa quattro anni. Un libro che mi aveva decisamente rapito e affascinato.

Vi erano certamente nel libro riferimenti al tragico periodo storico che Levi andava vivendo, in particolare le leggi razziali e la cattura da parte dei nazifascisti. Ma il libro mi affascinava per le descrizioni del laboratorio, delle esperienze che lo scrittore faceva. Del racconto “Ferro” dedicato alla figura di Sandro Delmastro mi appassionava la parte dedicata all’analisi qualitativa sistematica, purtroppo ormai cancellata dai programmi scolastici negli Istituti Tecnici.

Levi collaborava con il quotidiano “La stampa” ed il mensile “Airone” e quindi leggevo i suoi articoli con moltissimo interesse. Uno in particolare lo trovai davvero inusuale e moderno: “Il gabbiano di Chivasso” una intervista immaginaria con un gabbiano ormai dedito a frugare nelle discariche, piuttosto che a scrutare il mare per procurarsi il pesce, pubblicata sul numero di Marzo 1987 nella rubrica “Zoo immaginario- Le storie naturali di Primo Levi”. In quel periodo molte riviste scientifiche o ambientalistiche trattavano dell’argomento della sempre più frequente inurbazione di animali selvatici, dalle volpi fino appunto ai gabbiani.

Soltanto un mese dopo Levi diventò “diversamente presente”. Io non abitavo più a Settimo Torinese ed ero andato a lavorare da due mesi in una azienda che faceva vernici nelle vicinanze di Varese. Un trasferimento tutto sommato anomalo tra Piemonte e Lombardia, visto che i nati a Torino sono definiti dispregiativamente “bogia nen” che per i non Torinesi significa una tendenza negativa all’immobilismo. Per me significava uscire dalla famiglia e crearmene una mia. Levi relativamente al suo trasferimento a Milano dice che “E’ cosa risaputa che i Torinesi trapiantati a Milano non vi allignano o vi allignano male”. Non è sempre così, ma è vero che certi tratti caratteriali dei Torinesi siano molto simili, e che il legame con la città sia sempre particolarmente forte.

Ricordo perfettamente che il proprietario mi chiese se “conoscessi il Dottor Levi” visto che nativo di Torino, provenivo proprio da Settimo Torinese. Lui lo aveva conosciuto, ed era logico visto il comune mestiere di fabbricanti di vernici, sia pure destinate ad usi diversi. Per i fili elettrici quelle prodotte a Settimo Torinese, per il legno quelle prodotte a Mornago. La domanda mi colse di sorpresa, ma dovetti ovviamente dire di no.

Non ho mai avuto questa possibilità. Levi teneva molte lezioni nelle scuole per parlare dell’esperienza del Lager ma non venne, o non fu mai invitato in quelle che ho frequentato.

Durante un ritorno a casa dei miei appresi dal notiziario radio la notizia della sua morte. Inaspettata, improvvisa. Strana e con un certo alone di mistero. Quasi una maledizione che sembrava accumunarlo a Cesare Pavese. Sul sito del centro internazionale di studi a conclusione della biografia si legge “Muore suicida nella sua casa di Torino”.

Evitai di leggere articoli che indagassero troppo sulle ragioni del suo gesto, qualunque potessero essere. Mi colpirono due cose: la prima era un mio ricordo personale. Quando ero ragazzo, all’incirca negli anni tra la fine delle elementari e le medie spesso arrivavo in bicicletta fino al cancello della Siva. La ragione era semplice. La fabbrica era situata alla periferia di Settimo, ed io partivo da casa giurando di restare intorno all’isolato, invece mi spingevo ad esplorare la zona industriale. Ho il ricordo della colonna di cui parla Levi nel capitolo “Clausura” de “La chiave a stella”, che rivedevo anche ogni volta che ritornavo dai miei in automobile anni dopo. Ma da bambino mi affascinava come ogni altra cosa che non si conosce. Quando la curiosità è irrefrenabile, e si cerca di capire a cosa serva una colonna che si studierà più avanti. Una colonna di distillazione.

Ora la Siva è stata ristrutturata e diventerà un museo della memoria. Settimo Torinese si è candidata per diventare la capitale italiana della cultura 2018. Nella trasformazione di quella che era una città dormitorio, una delle tante anonime della cintura torinese, la presenza di Levi ha avuto un suo ruolo. Anche per questo da ex settimese non posso che esserne lieto.

La seconda cosa che mi colpì fu che di Levi io avevo letto molto, ma non avevo fino mai letto i suoi due primi libri. Recuperai presto acquistando l’edizione in un unico volume di “Se questo è un uomo” e “La tregua” completa dell’appendice scritta per l’edizione scolastica scritta nel 1976. L’appendice tenta di dare conto delle principali domande che a Levi venivano poste relativamente alla sua esperienza di deportato nei lager nazisti.

Leggere se questo è un uomo fu una seconda scoperta. Colposamente tardiva, ma che mi riempì di una stupore pieno di rispetto. Mi colpì la serena dignità dello stile letterario usato per narrare di quella esperienza. Un libro che parla di una delle più grandi tragedie della storia, senza alzare i toni, ma con la consapevolezza che occorre essere testimoni. Pacati ma inflessibili. Non giudici, ma testimoni.

La diversa presenza dello scrittore mi salta agli occhi ogni volta che nella sezione della mia libreria dedicata alle sue opere trovo libri dove nelle note biografiche la data della sua morte non compare, perché acquistati da me antecedentemente.

E allo steso modo la percepisco quando vedo che la sua figura e la sua opera sono attuali.

Indispensabili sia per il valore della testimonianza, che per quello della divulgazione della chimica.

E’ una diversa presenza costante nel tempo.

Nota: tra le tante iniziative io consiglio il riascolto di Io sono un centauro. Vita e opere di Primo Levi

di Marco Belpoliti

a cura di Monica D’Onofrio

(In onda su Radio3 Suite, aprile 2007)

Questo il link

http://www.radio3.rai.it/dl/radio3/ContentItem-9f787d6e-bb78-4a1e-8386-fa901c91a588.html

 


Tagged: Primo Levi

Musei, scienza e mediazione culturale.

5 aprile, 2017 - 12:52

Luigi Campanella

Negli ultimi decenni si è andato consolidando nelle amministrazioni pubbliche e in particolare nelle istituzioni culturali il riconoscimento della centralità dell’utente, con significativi cambiamenti di prospettiva nella progettazione e nella gestione delle attività e dei servizi.

L’esigenza di interpretare le aspettative del pubblico (o meglio dei pubblici) e di verificarne poi il gradimento è oggi maggiormente avvertita dai responsabili e curatori dei musei, tradizionalmente impegnati più sul versante tecnico-scientifico della ricerca, della documentazione, dell’ordinamento e della conservazione delle collezioni che su quello della comunicazione e della divulgazione.

Lo sviluppo del turismo culturale, la democratizzazione della cultura hanno sollecitato un progressivo miglioramento dei servizi di orientamento e di accoglienza, il prolungamento degli orari di apertura dei musei, il confronto con esperienze straniere, mentre il restauro e l’adeguamento alle normative di sicurezza delle strutture che ospitano le collezioni storiche (realizzati grazie anche a finanziamenti speciali, dal FIO ai fondi europei) hanno costituito spesso un’occasione preziosa per ripensare allestimenti e percorsi, per creare nuovi spazi espositivi o di intrattenimento (dalle caffetterie, ai bookshop, ai laboratori didattici), per rimuovere le barriere architettoniche.

Il quadro che emerge dall’ultima indagine effettuata nel 2007 dall’Ufficio Studi del Ministero presso 158 musei statali, i cui risultati sono pubblicati nel volume Musei, pubblico, territorio. Verifica degli standard nei musei statali, edito da Gangemi, risulta quindi, almeno in parte, soddisfacente.

L’esame dei rapporti del museo con il pubblico effettivo e potenziale (realizzato attraverso l’autovalutazione degli stessi direttori d’istituto, che hanno compilato un questionario assai analitico, redatto sulla base delle linee guida e degli standard dell’Atto di indirizzo emanato con il DM 10 maggio 2001) ha interessato diversi aspetti: dall’accesso (raggiungibilità, segnaletica esterna, orari e giorni di apertura, accoglienza e confort) alle dotazioni e servizi essenziali (strumenti di comunicazione primaria, sussidi alla visita, servizi educativi, biblioteca/centro di documentazione/fototeca, servizi accessori), alle attività di valorizzazione, promozione e divulgazione, agli strumenti di analisi del pubblico e verifica del gradimento della visita.

Impossibile sintetizzare in poche battute i risultati, che nella pubblicazione sono illustrati anche con riferimento alle diverse tipologie di collezioni, dimensioni, aree geografiche di appartenenza.

Per fornire solo qualche elemento, si può affermare che appaiono soddisfacenti gli orari e la continuità dell’apertura, le dotazioni e i servizi essenziali dei musei: le didascalie sono assicurate per tutte le opere esposte nel 94% degli istituti che hanno partecipato all’indagine, pannelli illustrativi o schede mobili di sala sono presenti in 149 istituti su 158, guide brevi sono disponibili nel 75% dei musei, le visite guidate sono previste nell’84% dei casi esaminati, sia pure con modalità di erogazione non sempre ottimali.

Meno frequenti sono invece le audio guide (proposte solo nel 24% dei casi), le postazioni multimediali (presenti nel 18%), i cataloghi generali a stampa (disponibili solo nel 29% dei musei) e ancora carenti risultano in generale gli apparati in lingua straniera.

Ulteriori margini di miglioramento dovrebbero interessare gli strumenti di orientamento alla visita, la segnalazione dei percorsi e una chiara identificazione delle sale.

Viene inoltre riconfermata da questa indagine la vocazione didattico-educativa dei musei statali: l’86 % dei musei analizzati, attraverso la Soprintendenza di riferimento, dispone di un servizio educativo e l’80% ha dichiarato di stabilire rapporti strutturati con le scuole del territorio, anche se gli scarsi finanziamenti e il ridotto numero di personale dedicato limita di fatto il numero dei progetti realizzati e quindi l’ impatto delle iniziative sul territorio.

Negli ultimi anni è notevolmente aumentata la presenza dei musei statali su internet: il 79% dei musei risulta dotato di un sito web che fornisce almeno le informazioni essenziali sulle collezioni e i servizi.

Per quanto riguarda la valorizzazione, mentre si è rilevata un’ampia diffusione delle esposizioni temporanee (organizzate nel 2006 dal 73% dei musei), di conferenze ed altri eventi, sembrano ancora scarsamente praticate altre forme di promozione dell’immagine e delle iniziative (da realizzare attraverso rapporti costanti con i media, con gli organismi di promozione turistica, con gli albergatori, gli esercizi commerciali, etc.) e non sono sufficientemente sviluppate iniziative volte alla fidelizzazione del pubblico, forme di partenariato con altre istituzioni nazionali e internazionali per la realizzazione di progetti scientifici e divulgativi comuni.

Proprio queste linee si spera saranno maggiormente sviluppate in futuro, grazie anche all’impulso che verrà dalla nuova Direzione generale per la valorizzazione.

Un contributo sostanziale potrebbe anche venire dal riconoscimento da parte delle istituzioni della figura del mediatore culturale, capace per il museo di concepire nuovi modi per conoscerlo ed apprezzare le sue collezioni. Con il loro agire i mediatori culturali sottolineano la pertinenza sociale del museo e facilitano non solo l’accesso al suo patrimonio ma anche l’interazione con la sua cultura. Per raggiungere tale obiettivo, collaborano con i diversi settori del museo, ma anche con i colleghi che operano nelle reti pedagogiche, culturali, sociali ed economiche.

I loro compiti principali possono essere così descritti:

   * concepire, realizzare, coordinare, seguire e valutare le attività e la creazione di supporti per il pubblico attuale e potenziale: i progetti educativi e culturali elaborati devono allacciare il maggior numero di legami tra il museo e la popolazione;

   * partecipare alla concezione di esposizioni permanenti e temporanee, integrandovi le attività pensate per soddisfare le esigenze dei visitatori;

   * garantire l’accompagnamento dei visitatori e degli interlocutori nell’ambito dei progetti educativi e culturali legati alle collezioni come pure alle manifestazioni temporanee del museo;

   * creare supporti e materiali didattici per le diverse forme di mediazione culturale (mediazione-presenza, mediazione tecnologica, ecc.);

   * formare e dirigere i collaboratori che partecipano ai progetti di mediazione culturale o scientifica del museo;

   * curare le relazioni con i colleghi coinvolti nella mediazione culturale come pure con i vari tipi di pubblico;

   * informare il responsabile o la responsabile della mediazione culturale dei bisogni e delle attese del pubblico;

   * partecipare alla valutazione dei programmi e delle attività di mediazione culturale come pure agli studi sui diversi tipi di pubblico;

   * dare il proprio apporto alla ricerca e allo sviluppo nel campo della mediazione culturale e contribuire in tal modo alla diffusione dell’attività del museo;

   * tenersi aggiornati sulle ultime novità e tendenze che riguardano il proprio settore, accrescendo così le proprie competenze professionali.

I mediatori culturali sono dunque l’interfaccia fra popolazione e museo: da un lato contribuiscono alla democratizzazione dell’accesso alla cultura e ad un’educazione pluralistica, dall’altro valorizzano il museo all’interno di una comunità. In passato alcuni giornalisti illuminati (cito uno per tutti Foresta Martin) hanno svolto anche questa funzione attraverso i loro continui interventi e le loro pubblicazioni. Oggi le pagine della Scienza nei quotidiani sono meno presenti ed il patrimonio rappresentato dai giornalisti di competenza si è purtroppo impoverito.

Quest”ultima riflessione riguarda soprattutto i Musei Scientifici: il loro carattere prevalentemente storico e collezioniostico che ha prevalso dal Rinascimento all’Illuminismo oggi deve integrarsi con un ruolo formativo del Museo. L’utente non è più una lastra fotografica vergine: i mezzi telematici di informazione lo hanno già in qualche modo impresso per cui un approccio solo di documentazione  non basta, soprattutto se il Museo deve svolgere anche un ruolo formativo nella cultura scientifica. Se trasferiamo queste considerazioni ai Musei di Chimica c’è subito da rilevare che molti possono essere gli spunti guida: la dimensione delle apparecchiature, simbolicamente rappresentata da “Dall’armadiio alla Scatola”, l’evoluzione chimica dell’universo, la chimica nel corpo umano, la sensibilità analitica: dal macro al nano.


Tagged: mediazione culturale

Materiali nanostrutturati con proprietà antiappannanti

3 aprile, 2017 - 08:42

Rinaldo Cervellati.

La nebbia è il fenomeno meteorologico per cui l’umidità dell’aria, a contatto con particelle solide o liquide (aerosol atmosferico) si condensa in microscopiche o submicroscopiche gocce di acqua liquida. A causa della diffusione della luce solare o artificiale la nebbia appare più o meno come un fitto alone opaco che riduce la visibilità fino anche a pochi metri, diventando così molto pericolosa. Il problema si complica perché la nebbia può ulteriormente condensare incontrando superfici come i parabrezza degli autoveicoli, compresi i vetri delle cabine degli aerei.

A questi inconvenienti si è tentato di ovviare rivestendo queste superfici con materiali trasparenti idrofobici, tuttavia anche l’utilizzo di materiali superidrofobici a struttura scabra si è rivelato insufficiente a evitare la condensazione delle goccioline più fini di nebbia che scivolano fra le scabrosità, accumulandosi in gocce più grandi fino a formare rivoli d’acqua.

Nella grande classe degli artropodi si posso individuare particolari tessuti dotati di proprietà essenziali per la loro sopravvivenza. Gli occhi antiriflesso delle zanzare e le ali impermeabili e autopulenti delle cicale ne sono un esempio (Fig. 1).

 

Guidati da questi esempi naturali, il gruppo di ricercatori guidati dal Prof. David Quéré di ESPCI (École supérieure de physique et de chimie industrielles, Parigi) ha recentemente intrapreso una ricerca sistematica per la progettazione di superfici idrofobiche nanostruttrate che superano il problema dell’appannamento.

La ricerca, riportata da c&en newsletter del 13 marzo, è pubblicata on line su Nature Materials:

  1. Mouterde et al., Antifogging abilities of model nanotextures, Nat. Mat., 2017 DOI: 10.1038/nmat4868

Poiché l’idrorepellenza dipende da dimensioni e forma delle scabrosità della superficie, i ricercatori hanno usato una tecnica laser per realizzare modelli nanostruttrati di forma e dimensioni diverse in base alle condizioni di esperienza. Sono state realizzate matrici con strutture a cilindri, piloni, coni e vari altri tipi di nanoprotuberanze. Anche la disposizione delle protuberanze è stata presa in esame, a reticolo quadrato, romboidale. Le matrici sono film sottili del copolimero polistirene-poli metil metacrilato, il tutto rivestito infine con i gruppi idrofobici di clorosilano fluorurati. Per dare un’idea delle dimensioni di una struttura a nanoconi, l’altezza dei coni è 115 nm e la distanza fra essi è 52 nm (Fig. 3 sinistra).

Il gruppo di ricerca ha poi sottoposto questi modelli a esperimenti in atmosfera che riproduce in modo realistico la formazione di rugiada. Queste condizioni sono state mantenute costanti per 45 minuti scattando una foto ogni 2 secondi al microscopio inverso. L’analisi statistica dei risultati ha mostrato che dimensioni e forma sono determinanti per l’insorgenza dell’idrorepellenza. Tuttavia la performance largamente migliore è stata realizzata dalla matrice a nanoconi. Infatti la loro forma e impacchettamento fanno si che gocce che arrivano fra le basi dei coni vengono talmente strette da generare una pressione che le fa schizzare via (Fig. 3 destra).

Notare che le strutture a cilindro e nanoconi riproducono quelle degli occhi di zanzara e delle ali di cicala rispettivamente.

Gli autori dicono comunque che l‘ottima prestazione dei nanoconi deve essere ulteriormente studiata esplorando forme intermedie fra cilindri e coni (effetto forma) e la densità dei coni (effetto dimensioni). D’altro canto l’eiezione delle gocce all’esterno della matrice pone interessanti problemi di fluidodinamica.

Certamente il tasso di espulsione di gocce d’acqua di dimensioni inferiori anche a 2μm riscontrati in questo lavoro è talmente più grande di quanto osservato in precedenza, ciò potrebbe già aiutare gli ingegneri a progettare più efficienti parabrezza antiappannamento, specchi, e celle solari.


Tagged: bagnabilità, superidrofobicità

Aggirare l’indeterminazione?

31 marzo, 2017 - 07:38

Claudio Della Volpe

La Meccanica Quantistica (MQ) è una concezione delle cose radicalmente diversa dalla meccanica classica e basata su una matematica più sofisticata e complessa; proprio per questo motivo sia gli addetti ai lavori che il grande pubblico fanno fatica a capirsi e la divulgazione ne soffre moltissimo.

Un buon esempio di questo problema viene da una recente scoperta effettuata in terra spagnola ma ad opera di un gruppo internazionale di scienziati diretto da Morgan W. Mitchell e pubblicata su Nature in un articolo il cui primo nome è quello di un giovane italiano Giorgio Colangelo.

Simultaneous tracking of spin angle and amplitude beyond classical limits”, di Giorgio Colangelo, Ferran Martin Ciurana, Lorena C. Bianchet, Robert J. Sewell e Morgan W. Mitchell

La maggior parte dei giornali divulgativi che hanno riportato la scoperta si sono lanciati in titoli del tutto fuori luogo:

Scientists evade the Heisenberg uncertainty principle

oppure

The study reports a technique to bypass the Heisenberg uncertainty principle.

Ma se uno legge con attenzione non c’è nessuna evasione o aggiramento.

Anche il giornale dell’INAF che ha intervistato l’autore italiano, l’abruzzese Giorgio Colangelo scrive:

Indeterminazione, scacco ad Heisenberg

Il più celebre principio della meccanica quantistica è stato aggirato grazie a uno stratagemma, messo a punto all’Icfo di Barcellona

Le cose sono più complesse e dunque più difficili da esprimere; l’intervista successiva è a questo proposito più chiara, ma anche l’autore si lancia in una spiegazione tutto sommato al limite del rigore e che lascia un pò di ….incertezza.

D. Colangelo, partiamo dall’inizio, da quel principio che Werner Karl Heisenberg enunciò 90 anni fa, nel 1927, e che ora voi state sfidando. Cosa dice esattamente?

R.«Il principio di indeterminazione di Heisenberg correla due quantità per descrivere completamente un sistema fisico. Questo vale per posizione e velocità di un atomo ma anche per l’ampiezza e la fase di un segnale. Al conoscere precisamente una di queste due l’altra diventa indeterminata, per cui resta impossibile descrivere completamente il nostro sistema. Tuttavia altri sistemi fisici, come per esempio lo spin di un atomo, non vengono descritti da due, bensì da tre quantità, come per esempio le tre direzioni spaziali su cui può orientarsi lo spin».

D.Questi sistemi a tre quantità non sono soggetti anch’essi al principio d’indeterminazione?

R.«Questi sono descritti da una relazione d’indeterminazione un po’ più generale che correla le tre quantità dello spin: la relazione d’indeterminazione di Robertson-Schrödinger. Anche in questo caso risulta comunque impossibile conoscere esattamente tutto del sistema, cioè le tre orientazioni dello spin, tuttavia se ne possono conoscere quasi precisamente due. E quelle due sono sufficienti per conoscere l’ampiezza e la fase di un segnale rivelato dagli atomi con estrema precisione, che è quello a cui effettivamente siamo interessati».

D. Geniale: ne “sacrificate” una per salvare le due che vi servono. E siete stati voi i primi a pensarci?

R.«Probabilmente per un teorico questo fatto era già noto, perché è una conseguenza semplice della teoria. Ma spesso le idee semplici sono anche quelle che possono essere applicate ai sistemi più diversi. Il nostro merito è che noi siamo stati i primi ad accorgerci che da questa conseguenza si poteva derivare un protocollo sperimentale semplice da utilizzare nella pratica. E abbiamo dimostrato, con un esperimento, che se ne poteva ottenere un vantaggio metrologico significativo rispetto a quello che è fatto fino a ora, tanto da poter migliorare gli attuali strumenti».

 

«Il nostro esperimento ha dimostrato che, effettivamente, l’uso di spin atomici in opportune configurazioni rispetto al campo magnetico permette di misurare ampiezza e fase dello spin con precisione oltre i limiti classici.

Si può tentare di fare meglio senza avere la certezza di riuscirci? Ci provo e potrei non riuscirci.

Cominciamo col ricordare di cosa parliamo.

In MQ le grandezze fisiche sono rappresentate da operatori, ossia operazioni analitiche condotte su funzioni, le funzioni d’onda; poniamo di avere a che fare con le due operazioni prodotto e derivata applicate entrambe ad una funzione d’onda e sia questa funzione indicata da ψ(x).

Se applichiamo due operatori uno dopo l’altro alla funzione l’ordine di applicazione non è indifferente; poniamo di applicare prima il prodotto e poi la derivata o prima la derivata e poi il prodotto avremo:

Come si vede i due risultati non sono uguali e dunque la loro differenza non è nulla; tale differenza viene definita commutatore e si dice che il commutatore fra i due operatori non è nullo e che i due operatori non commutano.

Se questo avviene le due grandezze corrispondenti ai due operatori sono dette incompatibili; di più se la differenza fra le due operazioni è pari a ossia all’unità immaginaria per il quanto di Planck diviso 2 pigreco le due grandezze si dicono canonicamente coniugate.

Il famosissimo principio di indeterminazione di Heisenberg che proclama la non conoscibilità contemporanea delle quantità fisiche con precisione assoluta si riferisce proprio a grandezze o variabili incompatibili e coniugate, non a qualunque coppia (o tripletta) di grandezze o variabili.

Già in passato la comprensione del principio di indeterminazione ha portato a problemi; per esempio Condon nel 1929 credette di aver trovato una violazione del principio nel caso dei momenti angolari dell’atomo di idrogeno, ma le grandezze a cui faceva riferimento sono incompatibili ma non coniugate e dunque il principio di indeterminazione non si applicava.

U. Condon, Remarks on uncertainty principles, in Science, nº 69, 1929, pp. 573-574.

Alle variabili che non siano coniugate ma solo incompatibili si applica una diversa relazione detta relazione di indeterminazione di Robertson- Schroedinger. Mentre Schroedinger lo conoscete sicuramente , non molti si ricorderanno di Howard Percy Robertson un fisico matematico che diede punti anche ad Einstein, perchè fece da referee ad un suo lavoro e lo rifiutò, costringendo a cambiarne le conclusioni; Einstein non visse bene la cosa, ma la Fisica e noi tutti ne abbiamo avuto giovamento.

Questa però è un’altra storia che potete trovare qui:

Einstein Versus the Physical Review Daniel Kennefick

Physics Today 58, 9, 43 (2005); doi: 10.1063/1.2117822 View online: http://dx.doi.org/10.1063/1.2117822

In conclusione alle grandezze misurate dal gruppo di ricercatori guidato da Mitchell si applica la relazione di Robertson e non quella di Heisenberg e dunque non c’è alcun aggiramento. Ma cosa dice la relazione di Robertson?

La relazione dice che il prodotto delle due deviazioni standard riferite a due grandezze incompatibili deve essere superiore alla metà del valore medio del commutatore applicato ad una certa funzione; in definitiva mentre Heisenberg si applica nel caso di misure delle osservabili sullo stesso sistema la disuguaglianza di Robertson fa riferimento alla distribuzione dei valori (con deviazioni standard σA e σB ) delle osservabili A e B in un insieme statistico di sistemi quantistici identici. Le due condizioni sono alquanto diverse e dunque lo sono anche le rispettive “violazioni”. Tutto qua spero di non aver detto sciocchezze. Correggetemi.

Per saperne di più:

Simultaneous tracking of spin angle and amplitude beyond classical limits”, di Giorgio Colangelo, Ferran Martin Ciurana, Lorena C. Bianchet, Robert J. Sewell e Morgan W. Mitchell


Tagged: principio di indeterminazione di Heisenberg, principio di indeterminazione di Robertson-Schroedinger

Intercalazione e altre storie. 3.

29 marzo, 2017 - 12:35

Claudio Della Volpe

Continuiamo a parlare di accumulo energetico elettrochimico e di intercalazione come abbiamo fatto nei due post precedenti (che trovate qui e qui).

Molti sanno del litio come intercalante, e ne riparleremo in un prossimo post, ma pochi immaginano che altri ioni possano intercalare con utilità e parliamo qui di sodio e ione idronio, H3O+.

Il primo è vicino ad una applicazione commerciale, mentre il secondo è in stato di studi di laboratorio.

La ricerca nel campo delle batterie ad intercalazione usanti sodio è iniziata nel 1980, ma batterie commerciali allo ione sodio non sono di fatto ancora sul mercato mentre quelle allo ione litio i cui primi esemplari sono stati prodotti nel 1970 sono diventati una realtà pratica già nel 1991 Ovviamente la situazione attuale che spinge così fortemente verso le rinnovabili ha suscitato di nuovo interesse sul tema e così dal 2010 è ripresa una ricerca intensa.

Storicamente l’inserzione di ioni sodio a temperatura ambiente fu dimostrata nel 1980 in TiS2 e nel medesimo anno si provarono le proprietà elettrochimiche di composti come NaxCoO2 , simile a quello comunemente usato col nome di cobaltite nelle batterie al litio ricaricabili.

Vedete qui sotto uno schema del funzionamento delle batterie al sodio-ione, che non si distacca più di tanto da quello delle battterie al litio-ione.

           In fase di carica gli ioni sodio migrano dall’ossido misto alla grafite usata casomai in una forma nanocristallina che consente una penetrazione maggiore del sodio.

Tuttavia se consideriamo in dettaglio alcune proprietà dei diversi ioni che si possono usare al posto del litio ci rendiamo conto che mentre la capacità teorica rimane sostanzialmente invariata il voltaggio della batteria scende in modo significativo spostandosi verso ioni più carichi, la cui reversibilità di intercalazione fra l’altro è inferiore; ciò che attira verso ioni diversi dal litio è sostanzialmente il costo più basso; fra tutti questi aspetti il sodio costituisce un buon compromesso.

Journal of The Electrochemical Society, 162 (14) A2538-A2550 (2015) Review—Practical Issues and Future Perspective for Na-Ion Batteries Kei Kubotaa,b and Shinichi Komaba

Non è dunque strano se il lavoro di ricerca si è concentrato verso batterie di questo tipo sperimentando anche al posto della grafite altre sostanze di intercalazione, come per esempio composti di Na e Sb . C’è stato il ripetuto annuncio da parte di una ditta, la Aquion, della realizzazione di dispositivi commerciali la cui struttura è descritta nella figura qui sotto e che comprende un catodo misto di grafite e fosfato di titanio, mentre il catodo è un ossido misto di manganese. In effetti sembra sia già possibile comprare queste batterie definite “miste” anche in Italia:

http://www.tecnolario.it/prodotti/solare-fotovoltaico/batterie-per-accumulo-di-energia/177-batterie-aquion-energy.html

Un altro lavoro sulla intercalazione di ioni diversi da litio è stato molto recentemente publicato su Angewandte Chemie; si tratta di un lavoro ancora di laboratorio che ha testato la possibilità di intercalare reversibilmente lo ione idronio in un elettrodo cristallino di un colorante rosso con proprietà semiconduttrici, un derivato del perilene (i 5 anelli centrali qui sotto), la sua dianidride nelle posizioni 3,4,9,10 (PTCDA).

Gli autori di questo lavoro hanno dimostrato per la prima volta che gli ioni idronio possono essere reversibilmente immagazzinati in un elettrodo cristallino di questo materiale con una capacità di accumulo di 85 mAh/g alla velocità di scarica di 1A/g. L’analisi ai raggi X mostra che avviene una significativa e reversibile dilatazione della struttura per assorbimento degli ioni idronio da una soluzione acida, fenomeno spiegabile solo per intercalazione degli ioni idronio nella struttura originale come proposto qui sotto, con una reazione corrispondente alla riduzione della dianidride ad acido. Questa ipotesi è stata confermata attraverso una analisi teorica usando il metodo cosiddetto DFT la teoria del funzionale della densità (Density Functional Theory, DFT) una teoria quantistica microscopica per lo studio di sistemi a molti elettroni.

E’ interessante notare che i sistemi di accumulo elettrochimico di idrogeno esibiscono di solito efficienze coulombiche basse a causa della evoluzione di idrogeno indicata in inglese come HER. In questo caso invece la specie che si intercala è proprio lo ione idronio che ha un raggio ionico di 100pm (picometri) simile a quello dello ione sodio.

Certo al momento i risultati sono esclusivamente di laboratorio, ma considerate che questa è la dimostrazione sperimentale di un sistema di accumulo basato interamente sulla chimica organica e sarebbe il primo potenzialmente sostenibile. Una sorta di elettrodo ad idronio da accoppiare ad altri elettrodi per realizzare una batteria funzionante. E dite voi se è poco.

 


Tagged: batterie sodio ione, idronio, idrossonio, PTCDA

Acesulfame K: un dolcificante per monitorare l’urina nelle piscine

27 marzo, 2017 - 07:08

Rinaldo Cervellati

L’acesulfame potassico (ACE K) è un dolcificante di sintesi, oggi largamente impiegato da solo o in associazione con altri edulcoranti, solitamente con l’aspartame. A differenza di quest’ultimo, l’ACE K è resistente al calore e a pH sia acidi che basici, ha un potere dolcificante 200 volte quello della saccarina e uguale a quello dell’aspartame, il che lo rende particolarmente utile in pasticceria, per prodotti ad alta conservazione, come pure nell’industria cosmetica.

Dal punto di vista chimico l’ACE K è il sale di potassio del 6-metil-1,2,3-oxathiazine-4 (3H) -one 2,2-diossido[1]. Si presenta come polvere cristallina bianca, solubile in acqua. La sua struttura è mostrata in figura 1.

A tutt’oggi non sembrano esserci pericoli per la salute nell’impiego di acesulfame K come additivo alimentare, esso è stato approvato sia dall’agenzia statunitense FDA (Food and Drug Administration) sia dall’European Food Safety Authority (EFSA, con codice E950).

La caratteristica interessante di ACE K è che non viene metabolizzato dall’organismo, in altre parole una volta ingerito viene escreto con le urine praticamente intatto. Quindi non solo i tessuti non lo metabolizzano ma neanche la flora batterica presente nel lume dell’apparato digerente, dalla bocca all’intestino.

Questa caratteristica ha motivato un gruppo di ricercatori dell’Università di Alberta (Canada) a utilizzare ACE K come marker per l’urina nelle piscine. La ricerca, recentissima, riportata da c&en newsletter on line del 7 marzo è pubblicata su Environmental Science and Technology Letters

(L. K. Jmaiff BlackstockW. WangS. VemulaB. T. Jaeger, and X. F. Li, Sweetened Swimming Pools and Hot Tubs, Environ. Sci. Technol. Lett.2017, on web March 1, DOI: 10.1021/acs.estlett.7b00043)

L’immissione di urina umana nelle piscine e negli idromassaggi è un problema di sanità pubblica, affermano gli autori, infatti anche se l’urina di per sé è sterile, contiene però molti composti azotati (urea, ammoniaca, aminoacidi, creatinina) che possono reagire con i disinfettanti contenuti nell’acqua. Per esempio reagendo con il cloro queste sostanze formano composti volatili (trialometani, acidi aloacetici, aloammine, e alonitrometani) che possono indurre patologie. L’esposizione a questi composti, ad esempio alla tricloroammina provoca irritazione agli occhi e all’apparato respiratorio fino a indurre una forma di asma[2].

I ricercatori canadesi, guidati dalla Prof. Xing-Fang Li,hanno messo a punto un appropriato metodo analitico per la determinazione di ACE K nell’acqua senza necessità di pre-concentrazione. In breve si tratta di cromatografia liquida ad alta prestazione (HPLC) accoppiata a spettrometria di massa tandem (MS-MS), una tecnica di riframmentazioni successive effettuate su frammenti di ioni già analizzati. Si tratta in pratica di ripetere più volte la frammentazione e l’analisi sugli stessi ioni. Sono stati analizzati 250 campioni da 31 fra piscine e idromassaggi e più di 90 campioni di acqua dai corrispondenti rubinetti di alimentazione, tutta acqua municipale di due città canadesi.

Il monitoraggio è stato effettuato nell’arco di tre settimane e i campioni sono stati tutti analizzati in triplicato.

I risultati sulle due città hanno mostrato che la quantità di ACE K riscontrata nelle piscine e idromassaggi va da 30 ng/L a 7110 ng/L, in confronto all’intervallo 6 – 15 ng/L per l’acqua dei rubinetti. Nel caso delle piscine e vasche riscaldate i valori mostrano una grande variabilità, spiegabile in base ai cicli temporali di cambio dell’acqua, al numero di utenti ed eventi, e alle pratiche di facility management. In genere, nelle piscine si aggiunge acqua dolce solo per mantenerne i livelli, mentre nelle vasche idromassaggio di strutture comunitarie l’acqua viene sostituita frequentemente per evitare problemi di salute associati con il loro più intenso utilizzo.   La variabilità nel caso dell’acqua dei rubinetti è molto minore.

Con opportuni metodi statistici i ricercatori hanno potuto ricavare un valor medio per la quantità di ACE K contenuta nelle strutture delle due città: 156 ng/L per la prima città, 210 ng/L per la seconda, valori di molto superiori a quelli dell’acqua dei rubinetti (6-15 ng/L). A questo punto, in base alla capacità delle piscine, 420000 L per la prima città, 836000 L per la seconda e utilizzando il valor medio della quantità di ACE K contenuta nell’urina umana misurata su campioni provenienti da 20 individui (2360 mg/mL), i ricercatori hanno stabilito che il volume di urina contenuta in una tipica piscina pubblica della prima città è mediamente di 30 L, mentre nella seconda si arriva a 75 litri.

Sebbene sia considerata una grave scorrettezza, il 19% degli adulti ha ammesso di aver urinato in piscina almeno una volta, ma la situazione è più preoccupante come mostrato in una recente indagine:

http://healthypools.org/files/WQHC_swimmer_hygiene_survey_results.pdf

Il metodo analitico di analisi dell’urina nelle acque utilizzato dai ricercatori canadesi presenta ottime caratteristiche: LOD = 0.5 ng/L; LOQ = 2.2 ng/L, oltre a una rapida determinazione del marker acesulfame K.

I risultati riportati in questa ricerca sottolineano la necessità di monitoraggi frequenti dell’acqua di piscine e idromassaggi ma prima di tutto sarebbe necessario un maggiore rispetto delle regole e della salute pubblica da parte degli individui[3].

Per un dettagliato approfondimento della “chimica in piscina”, si rimanda a:

Henry Arnaud, C. The chemical reactions taking place in your swimming pool. Chem. Eng. News 2016, 94, 28−32.

http://cen.acs.org/articles/94/i31/chemical-reactions-taking-place-swimming.html

[1] Acesulfame K è stato sintetizzato casualmente per la prima volta nel 1967 dal chimico tedesco Karl Clauss della allora Hoechst AG Company.

[2] Molti continuano a pensare che episodi di irritazione a occhi e gola siano imputabili al cloro o ad altri disinfettanti che lo contengono, in realtà la causa principale di questi episodi è dovuta a composti prodotti dalla reazione fra urina e cloro.

[3] La ricerca riguarda il Canada, ma è presumibile che in altri Paesi la situazione non sia molto diversa (v. link). Nel 1997 una ricerca tedesca riportò che l’escrezione di urina media per nuotatore è di 70 mL.


Tagged: acesulfame K, urina

L’acqua, un indicatore di sostenibilità.

24 marzo, 2017 - 08:20

Luigi Campanella, ex Presidente SCI

Acqua, cultura, pace: un triangolo molto significativo. Pace vuol dire messa in comune di ricchezze e di risorse: il nostro Pianeta è nato senza barriere, senza confini. Le risorse del pianeta appartengono a tutte le Nazioni. Il pianeta Terra non conosce né le Nazioni, né i confini di proprietà degli Uomini. Esso cela, conserva ed elargisce i beni primari perché i Regni di Natura più evoluti ne possano trarre sostentamento.

E’ in questo spirito che l’Umanità deve operare con scambievole collaborazione, utilizzando le materie prime secondo il principio di equità. Fra queste risorse l’acqua è di certo la più necessaria per il nostro corpo: si può sopravvivere alla fame non alla sete.

L’acqua è una risorsa essenziale per la vita dell’uomo.Essa è fondamentale non solo per la sopravvivenza stessa, ma anche per attività quali agricoltura ed industria. Senza di essa non vi può essere sviluppo ed il mantenimento delle risorse idriche è problema molto importante. Le riserve idriche sono infatti soggette ad un deterioramento dovuto a molti fattori, tra i quali gli scarichi industriali, l’utilizzo di pesticidi in agricoltura, l’inquinamento atmosferico, riportato al suolo dalle piogge acide.

La ricchezza d’acqua non sempre significa disponibilità: in un terreno agricolo ad esempio si possono creare a seguito di ripetuti interventi sbagliati da parte dell’uomo delle condizioni assai negative a fini della trasferibilità e del trasporto dell’acqua. Sono stati messi a punto test idonei propri e finalizzati a misurare non la quantità di acqua presente, ma il grado di disponibilità.

Anche l’aspetto energetico sembra oggi cambiare. L’era dell’idrogeno, la nuova forma pulita di accumulo dell’energia ci obbliga a considerare l’acqua anche da questo punto di vista: risorsa preziosa di idrogeno. Se poi gli aspetti economici di bilancio non saranno soddisfatti, questo nulla toglie ad un’ennesima preziosità dell’acqua, essere un abbondante potenziale contenitore di idrogeno. Tra l’altro l’impiego della luce solare (in presenza di un catalizzatore) come energia estrattiva apre ulteriori spazi da percorrere.

Lo stesso ruolo che l’acqua esercita per il nostro corpo, la cultura esercita per la nostra anima e la nostra mente che sono alimentate dalla cultura, intesa in senso formativo e stimolante, conoscitivo e sociale. Traduzioni, religioni, arti di un popolo ne rappresentano la ricchezza comune, ma anche quella di ogni singolo cittadino. Queste risorse, acqua e cultura, contribuiscono alla crescita sociale ed economica, alla qualità, della vita, alla salute dei popoli ma esse stesse, se distribuite in modo iniquo, diventano strumenti di discriminazione, di dominio e di potere. La pace ne risulta compromessa.

A chi vengono tolte acqua e cultura vengono sottratte risorse di vita. Ne risulta un quadro internazionale di paesi troppo ricchi e paesi troppo poveri: allora la globalizzazione che potrebbe in senso positivo essere interpretata come messa a comune di risorse, trasferimento di tecnologie, condivisione di progresso, caduta di barriere diviene invece occasione per discriminazioni, compressioni, prepotenze.

La comunità culturale è certamente più sensibile alle discriminazioni e all’equa ripartizione delle risorse di quanto non lo sia la comunità dell’acqua, intesa come espressione della comunità economica. La pace che da questo viene spesso compromessa può essere salvata da quella: in questo senso convegni, incontri, appelli delle comunità scientifiche e culturali rappresentano preziosi strumenti in difesa della pace, dell’equilibrio sociale,del diritto alla vita ed alle sue indispensabili risorse.

 


Tagged: acqua bene comune, impronta dell'acqua

Quaestio de aqua. Riflessioni sulla giornata mondiale dell’acqua.

22 marzo, 2017 - 07:08

Mauro Icardi.

Mercoledì 22 Marzo 2017 è la giornata mondiale dell’acqua. E di acqua è molto difficile non parlare, per motivi davvero molto evidenti. Lo abbiamo sentito ripetere da almeno due decenni. L’acqua è una risorsa che non è inesauribile come inconsciamente abbiamo sempre pensato. Il tema della corretta gestione e protezione di una risorsa vitale indispensabile, si lega a filo doppio anche ad altri problemi ambientali che ci troviamo a dover affrontare. Uno su tutti quello del riscaldamento globale che impatta notevolmente sul ciclo idrogeologico dell’acqua.
Le risorse disponibili di acqua dolce sono sottoposte a una pressione crescente, ulteriormente aggravata dagli effetti dei cambiamenti climatici. Dagli anni ’80 il tasso dei prelievi di acqua dolce è cresciuto ogni anno dell’1%. Tra il 2011 e il 2050 si prevede che la popolazione mondiale crescerà del 33%, passando da 7 a 9 miliardi di persone, mentre la domanda di beni alimentari crescerà nello stesso periodo del 70%.
Ma contestualmente secondo quanto riportato dal quinto rapporto dell’IPCC (Gruppo intergovernativo sul cambiamento climatico) circa il 7% della popolazione mondiale vedrà ridursi la disponibilità di risorsa idrica del 20% per ogni grado di innalzamento della temperatura globale.
Altri numeri sono indicativi: 750 milioni di persone nel mondo secondo l’Unicef non hanno accesso all’acqua potabile. Noi ci permettiamo di usarla anche per i servizi igienici.

Foto-giornatamondiale-dellacqua

E a proposito di servizi igienici un terzo della popolazione mondiale non vi ha accesso.
Mentre lo scorso anno il tema centrale della giornata era dedicato al legame possibile tra acqua e lavoro, la giornata del 2017 pone l’attenzione ai reflui, alle acque rilasciate dagli impianti di depurazione civili e industriali, che raggiungono i corpi idrici superficiali; gli impianti non sempre sono presenti e talvolta non funzionano efficacemente o sono insufficienti.
Per il futuro ci si propone di raggiungere “l’Obiettivo di Sviluppo Sostenibile n°6” – acqua potabile e servizi igienico-sanitari per tutti entro il 2030 – dimezzando la percentuale di acque reflue non trattate e aumentando il riciclo dell’acqua con un riuso sicuro.
In futuro, la possibile carenza d’acqua richiederà l’impiego di risorse idriche non convenzionali, come ad esempio la raccolta di acqua piovana e il riciclaggio di acque reflue e di deflusso urbano.
Tutto questo richiede ovviamente un grande sforzo. E questo deve avvenire non solo nei paesi meno sviluppati, ma anche in Italia.

Discharge_pipe

Per le inadempienze nell’attuazione della Direttiva l’Italia ha già subito due condanne da parte della Corte di Giustizia Europea, e l’avvio di una nuova procedura di infrazione.
E a questo proposito devo purtroppo constatare che quando si parla di acqua appunto, sembra che tutto si limiti al parlare e basta. E che a parlare siano i soggetti più disparati, ma che troppo spesso i tecnici e gli operatori del servizio siano i meno ascoltati.
Dopo il referendum del 2011 che ha sancito la volontà degli Italiani che l’acqua sia gestita da aziende pubbliche, tutto sembra essersi rallentato. Premesso che ho votato a favore della gestione pubblica dell’acqua, devo però constatare che spesso si sono fatte molte discussioni stancanti ed inutili, di pura lana caprina. Uno dei tabù è quello legato alla tariffa del servizio idrico. Occorre ricordare che le aziende del ciclo idrico non ricevono finanziamenti dalla fiscalità generale, ma solo dalle bollette dell’acqua e dalla tariffazione degli scarichi industriali. Altro tasto dolente è la resistenza che c’è sia da parte della politica locale, che della pubblica opinione che spesso sono contrarie a priori all’aggregazione (prevista per legge) del ciclo idrico a livello di gestione unica provinciale. Per motivi diversi (campanilismo, lotte politiche) ma che di fatto impediscono la creazione di strutture più grandi che possano essere meglio organizzate a livello tecnico ed operativo.

Sedimentprima

Sono situazioni che vivo e seguo da ormai dieci anni. E’ infatti dal 2007 che in provincia di Varese si è iniziato il processo di aggregazione. Ancora non è terminato, si attende una decisione del Consiglio di Stato a seguito di un ricorso presentato da una delle aziende del territorio.
Nel frattempo gli investimenti ormai non più differibili sono ancora fermi.
Sarebbe il caso di fare una riflessione anche su queste tematiche. L’acqua non arriva nelle case se le strutture non sono efficienti, e questo vale per acquedotti e conseguentemente si riflette sui depuratori. Quindi fermo restando che debba essere un bene pubblico e universale non è con atteggiamenti di rigidità, e qualche volta di demagogia che si migliora la situazione. Le multe europee potrebbero costarci 482 milioni di euro l’anno.
Allo stesso tempo però non è accettabile che, come dichiarato dall’allora amministratore delegato di Nestlè Peter Brabeck nel 2005 l’acqua sia “la più importante delle materie prime che abbiamo oggi nel mondo“,
ma anche che “La questione è se dovremmo privatizzare la fornitura dell’acqua comune per la popolazione. E ci sono due opinioni diverse in merito. Un’opinione, che ritengo sia estremistica, è rappresentata dalle ONG, che fanno rumore allo scopo di dichiarare l’acqua un diritto pubblico.

L’acqua deve essere e restare un diritto pubblico universale.

Per farlo nel migliore dei modi dobbiamo tutti imparare a conoscerla, a rispettarla e a non sprecarla inutilmente. Visto che il tema riguarda quest’anno la depurazione voglio citare un piccolo esempio.
Ultimamente a pochi giorni di distanza uno dall’altro, nel territorio della provincia di Varese due sfioratori di piena sono entrati in funzione, sversando liquami nei fiumi Olona e Ticino in periodo di tempo secco. Questo si è verificato a causa del fatto che le pompe di sollevamento dei liquami agli impianti di depurazione sono risultate ostruite da stracci.

sfioratore

Sarebbe bastato buttare quegli stracci nel bidone apposito, e non nel wc per evitare l’inquinamento dei due corsi d’acqua.

Io credo che, almeno nei paesi sviluppati, molte persone considerino l’acqua disponibile in maniera praticamente inesauribile, ritengano che quella potabile debba costare poco se non essere gratuita, e non si preoccupino affatto di quello che è il processo laborioso di depurazione, ogni volta che premono il pulsante di uno sciacquone. E magari sono accaniti consumatori di acqua in bottiglia, ed in questo caso non si preoccupano del fatto che un bene demaniale, un bene universale sia gestito da multinazionali private che, per sfruttare i diritti di captazione delle fonti pagano canoni di fatto irrisori e fanno su questo bene di diritto universale profitti enormi.
Non sono questi gli atteggiamenti che dobbiamo adottare. Dobbiamo pensare che l’acqua è vita. Frase che può sembrare banale, ma che invece non lo è affatto.
Un impegno di tutti a preservarla, un impegno soprattutto di chi come me nell’acqua e nel suo trattamento e gestione ha trovato il suo lavoro quello di fare informazione e di impegnare le proprie risorse e le proprie conoscenze.
Per augurare a tutti buona giornata dell’acqua credo che questo brano de “ Il Piccolo Principe” sia davvero indicato.

pozzo principe

“Buongiorno”, disse il Piccolo Principe.
“Buongiorno”, disse il mercante.
Era un mercante di pillole perfezionate che calmavano la sete. Se ne inghiottiva una alla settimana e non si sentiva più il bisogno di bere.
“Perché vendi questa roba?” disse il Piccolo Principe.
“È una grossa economia di tempo” disse il mercante. “Gli esperti hanno fatto i calcoli. Si risparmiano cinquantatré minuti alla settimana.”
“E cosa se ne fa di questi cinquantatré minuti?”
“Se ne fa ciò che si vuole…”
“Io”, disse il Piccolo Principe, “se avessi cinquantatré minuti da spendere, camminerei adagio adagio verso una fontana…”


Tagged: acqua bene comune, ciclo dell'acqua, riciclo dell'acqua di fogna

Intercalazione e altre storie.2.

20 marzo, 2017 - 08:27

Claudio Della Volpe

Nella prima parte di questo post abbiamo introdotto il concetto di intercalazione e discusso di una delle sue applicazioni in elettrochimica, come anche delle ricadute economiche della tecnologia elettrochimica moderna.

Ma perchè parlare di accumulo elettrochimico?

Personalmente ritengo che lo sviluppo del settore accumulo energetico sia fondamentale per la crescita seria delle energie rinnovabili; è pur vero che negli ultimissimi anni quasi il 40% dell’energia elettrica italiana è stata prodotta da rinnovabili, ma di fatto l’energia elettrica è solo una parte dell’energia che consumiamo, circa 300TWh/anno contro quasi 200 Mtoe/anno (oltre 2300TWh equivalenti) di energia primaria; pur considerando che il 60% dell’elettrico è prodotto da fossile, stiamo parlando (se vogliamo abbandonare il paradigma fossile) di almeno altri 1500-1600TWh equivalenti di elettrico da estrarre da qualche altra parte; dunque per passare integralmente alle rinnovabili quanti impianti FV o eolici o idro ci servono? E dato che il loro tempo di funzionamento complessivo annuale è solo del 10-15% (per il solare) e 20-30% (per l’eolico) del totale (tecnicamente si chiama fattore di capacità) quanti impianti nominali dobbiamo avere per usarli quando c’è sole o vento ed accumularne il prodotto per il futuro uso? Risposta approssimata diciamo in media 5 volte in più. Oggi per ogni MW rinnovabile installato occorre usare una guardia equivalente di fossile, questo pochi lo dicono, ma il settore fossile si frega le mani per questo; ma in futuro dovremo farne a meno e come faremo?

La risposta è questa: dovremo avere una quantità di impianti multipla rispetto alla loro potenza nominale e una corrispondente capacità di accumulo.

Il consumo italiano di energia annua primaria totale corrisponde (spalmando banalmente i numeri precedenti in un anno) a circa 200-250GW continui, ossia moltiplicando per il fattore di capacità delle rinnovabili parliamo di circa 1 TW installato e backuppato di energia rinnovabile; avete capito bene 1000GW (oggi sono 120 compreso tutto); e tenete presente che un backup di 1 giorno corrisponderebbe a 5-6TWh. E’ una quantità enorme, che occuperà molto territorio.

Al momento il nostro paese dispone di una ridicola capacità di idroelettrico di pompaggio come segue:Se li usassimo al massimo sono 67GWh, ossia 0.067TWh; ma li sottoutilizziamo perfino come qui mostrato:Quindi 0.067TWh, contro 5-6 al giorno, necessari per il futuro: caspita, ma sono 100 volte di meno del necessario (per ogni giorno di backup)!!!

E allora?

Deve cambiare tutto. Abbiamo molti investimenti da fare, altro che piattaforme petrolifere!

Ovviamente sto trascurando cose fondamentali; parlo del risparmio energetico (risparmio!! non efficienza), parlo di altri metodi di accumulo (si può estendere l’idro? Quanto possono pesare altri metodi fisici o chimici?), parlo per esempio dell’ammodernamento del parco dei principali utilizzatori elettrici, i motori elettrici installati che sono in Italia quasi 100GW totali; pochi aggiornati alle tecnologie moderne: abbiamo già accennato a questo tema che prevede l’uso generalizzato degli inverter e dei motori in grado di usare una frequenza variabile.

La velocità di rotazione del motore è strettamente connessa con la frequenza della tensione con cui lo si alimenta. Nell’inverter la tensione alternata della rete (trifase o monofase) viene raddrizzata in corrente continua e quindi viene riconvertita in corrente alternata trifase a frequenza variabile per alimentare il motore. Una cosa del genere consentirebbe di ridurre i consumi ed esaltare la flessibilità del sistema.

Chiaro che sto approssimando. Ci sarà anche dell’altro (penso all’eolico di alta quota per esempio che teoricamente è immune dal problema discontinuità).

Qualcuno dirà: e l’idrogeno, l’idrogeno dove lo metti? Secondo me l’idrogeno è un metodo molto sopravvalutato; l’efficienza complessiva dell’idrogeno è bassa, molto bassa e dunque la strada dell’drogeno come vettore ed accumulo probabilmente non è così facilmente percorribile; ma non posso parlare di tutto in un solo post, ne riparleremo. A parte che per usare l’idrogeno ci vogliono 9 g di acqua per ogni grammo di idrogeno e non è acqua sporca o di mare. Questo è un costo nascosto e spesso trascurato in un mondo che va incontro ad un enorme cambiamento climatico che sta alterando le precipitazioni.

Tornando all’accumulo elettrochimico; è una strada possibile e ragionevole, ma ci sono da mangiare molte pagnotte; una di queste è capire bene, molto bene l’intercalazione.

L’intercalazione è oggi un argomento di avanguardia nel senso che molte ricerche sulla scienza e la tecnologia delle batterie, nel tentativo di scoprire meccanismi e metodi di accumulo energetico che ci aiutino a risolvere il problema di rendere più affidabili le energie rinnovabili, cercano di usare ed estendere l’intercalazione. Cosa hanno concluso? Continueremo questo discorso in un prossimo post.


Tagged: accumulo elettrochimico, intercalazione, inverter

La struttura del benzene fra chimica classica e chimica quantistica

17 marzo, 2017 - 09:43

Rinaldo Cervellati

 Quando ai chimici capita di avere a che fare con il simbolo stilizzato del benzene, con un cerchio inscritto in un esagono, quasi inevitabilmente il pensiero va agli orbitali molecolari dei sei elettroni p degli atomi di carbonio della molecola. Tuttavia questo simbolo fu introdotto a rappresentare il “sestetto aromatico” nel 1925 dai chimici britannici James W. Armit e Sir Robert Robinson[1] [1], qualche anno prima dell’interpretazione in base al concetto di risonanza di Pauling (1928) e del metodo degli orbitali molecolari di Hückel (1931).

Sir Robert Robinson

Arbit e Robinson scrivono:

il possesso di tali gruppi [elettronici] conferisce stabilità chimica come mostrato, per esempio, da una ridotta insaturazione e dalla tendenza a mantenere il tipo[chimico]. Queste sono, naturalmente, le caratteristiche principali dei sistemi benzenici, e qui la spiegazione è ovviamente che sei elettroni sono in grado di formare un gruppo che resiste alla rottura e possono essere denominati il sestetto aromatico [enfatizzato nell’originale]. Perciò:

Il cerchio nell’anello simboleggia l’opinione che sei elettroni nella molecola di benzene producono una associazione stabile che è responsabile del carattere aromatico della sostanza.[1].

Gli autori non cercano di interpretare il motivo per cui questi sei elettroni conferiscano questa particolare proprietà, essi si muovono nell’ambito della teoria di Lewis e poiché in tale teoria un legame a coppia elettronica condivisa viene rappresentato con un segmento che collega i due atomi contraenti il legame, ritengono opportuno usare un particolare simbolo per il sestetto elettronico responsabile dell’aromaticità. Al momento, scrivono Armit e Robinson, non si richiede alcuna assunzione particolare per quanto riguarda la posizione degli elettroni o delle loro orbite nello spazio.

Riprenderemo più avanti le idee di Robinson in proposito, vale tuttavia la pena ricordare che il cerchio inscritto nell’esagono cominciò a essere largamente usato nei testi e nei lavori di chimica organica solo più di venticinque anni dopo, verso la fine degli anni ’50 − inizio degli anni ’60 del secolo scorso.

L’interpretazione della geometria e della struttura della molecola del benzene fin dalla sua scoperta nel 1825 da parte di Michael Faraday[2] che lo isolò dal residuo oleoso della produzione del gas illuminante[3], chiamandolo bicarburo di idrogeno, è una storia lunga e complicata che qui viene riassunta senza pretesa di completezza. Molti altri composti con le proprietà del benzene furono scoperti in seguito, tanto che nel 1855 il chimico tedesco August Wilhelm von Hofmann (1818 – 1892) usò per essi il termine aromatici[4].

Nel 1834 fu determinata la formula minima del benzene (CH) e qualche tempo dopo la sua formula molecolare, C6H6, la prima molecola conosciuta con un numero uguale di atomi di carbonio e idrogeno. Altri fattori intrigarono i chimici del 1800 nel tentativo di attribuire al benzene una ragionevole struttura molecolare, in particolare il fatto che preferisse di gran lunga le reazioni di sostituzione a quelle di addizione e non rispondesse ai test analitici tipici delle sostanze contenenti doppi o tripli legami.

Fra il 1867 e il 1899 furono proposte diverse possibili formule di struttura, le principali sono riportate in figura 2.

I chimici di oggi, soprattutto i più giovani, possono pensare che si tratti di baggianate prive di alcun fondamento ma le cose non stanno affatto così. Se questi tentativi (che comunque cercavano di accordarsi ai fatti sperimentali) non ci fossero stati, probabilmente la rappresentazione moderna (quella “vera”?) avrebbe richiesto più tempo. Inoltre si è poi scoperto che composti reali corrispondono ad alcune di esse. Ad esempio, il diene biciclico, biciclo[2.2.0]esa-2,5-diene, sintetizzato nel 1962 è anche chiamato diene di Dewar perché ha la stessa struttura di quella che Dewar propose per il benzene. Una molecola con struttura analoga a quella di Lademburg, esiste e si chiama prismano (tetraciclo[2.2.0.02,6.03,5]esano), chiamato anche benzene di Lademburg, sintetizzato nel 1973. Infine, il benzvalene (triciclo[3.1.0.02,6]esa-3-ene), sintetizzato nel 1971, ha una struttura somigliante a quella proposta da Armstrong per il benzene, ed è a partire da esso che si è ottenuto il prismano.

Si può far risalire la prima struttura geometrica in accordo con la reattività del benzene ai lavori di Friedrich August Kekulé von Stradonitz[5] che, basandosi sull’evidenza che tutti gli atomi di carbonio nel benzene sono equivalenti ai fini della sua reattività (un solo derivato monostituito, tre isomeri disostituiti), postulò che gli atomi di carbonio fossero legati tra loro a due a due alternativamente con un singolo e un doppio legame in un anello chiuso a forma esagonale.

F.A. Kekulè

Per spiegare il fatto che questa struttura insatura rispondesse in modo negativo ai saggi di insaturazione, Kekulé avanzò l’ipotesi che i legami doppi e semplici scambiassero la loro posizione lungo l’anello con velocità tanto elevata che le reazioni caratteristiche degli alcheni non potevano avvenire. Le formule di struttura originali di Kekulé sono riportate in figura 4

Guardando la formula di struttura proposta da Thiele[6] nel 1899, si potrebbe pensare che egli abbia preceduto Robinson nel rappresentare un cerchio inscritto in un esagono ma le cose non stanno così. Nella rappresentazione di Thiele il cerchio è tratteggiato e non a caso, egli nel tentativo di giustificare la struttura di Kekulé avanzò l’ipotesi della valenza parziale in relazione ai doppi legami carbonio−carbonio. Il cerchio tratteggiato starebbe quindi a indicare queste “valenze parziali”che poco hanno a che vedere con il sestetto aromatico di Robinson.

L’aneddotica ci racconta che nel 1890 durante un convegno in suo onore per il 25° anniversario della struttura esagonale del benzene, Kekulé raccontò che 25 anni prima si era addormentato davanti al fuoco e nel sonno aveva visto un serpente che si mordeva la coda (l’ouroboro, un antico simbolo di origine egizia rappresentante un serpente o un dragone che si mangia la coda). Lo scienziato si svegliò e per tutta la notte lavorò per risolvere l’enigma della struttura ciclica esagonale del benzene.

Tuttavia la versione italiana di wikipedia (https://it.wikipedia.org/wiki/Friedrich_August_Kekul%C3%A9_von_Stradonitz)

riporta che due biochimici americani, John Wotiz e Susanna Rudofsky, nel 1984, studiando gli archivi di Kekulé conservati all’università di Darmstadt trovarono alcuni riferimenti, rispettivamente del 1854 e del 1858, a un saggio del chimico francese August Laurent (1807-1856), mai più successivamente citato dallo scienziato tedesco. In questo saggio il chimico francese proponeva già per il cloruro di benzoile una formula di struttura esagonale. Sembra quindi che quando Kekulé pubblicò la struttura esagonale del benzene ne avesse idea fin da circa dodici anni prima, ciò che non gli toglie nulla ma ridimensiona un aneddoto circolato per molto tempo.

Nonostante l’enorme importanza che ebbero nello sviluppo della strutturistica organica, le formule di Kekulé non si accordavano con le evidenze sperimentali per cui le lunghezze dei sei legami C−C dell’anello sono tutte uguali cui corrisponde un’energia di legame intermedia fra quella di un singolo e di un doppio legame. Ciò ci riporta al sestetto di Sir Robinson e alle prime interpretazioni quantomeccaniche. Come ricordato all’inizio del post, nella seconda metà degli anni venti e l’inizio anni trenta del secolo scorso nascono e iniziano a svilupparsi parallelamente due teorie con lo scopo di applicare la meccanica quantistica all’interpretazione del legame chimico: la teoria del legame di valenza (VB) e quella dell’orbitale molecolare (MO). Le due teorie si diversificano in quanto la prima si concentra sugli orbitali degli elettroni fra atomi che contraggono il legame, mentre la seconda considera l’insieme degli orbitali elettronici nella molecola. Nella teoria VB ha giocato un ruolo importante il concetto di risonanza, introdotto da Linus Pauling[7] nel 1928, come un modo di descrivere elettroni delocalizzati entro certe molecole o ioni molecolari per i quali il legame non può essere espresso con un’unica struttura di Lewis. Una molecola (o ione) con tali elettroni delocalizzati è rappresentato da più strutture (chiamate anche strutture di risonanza o strutture canoniche) che nel loro insieme contribuirebbero alla struttura della molecola (o dello ione). La struttura del benzene sarebbe quindi un ibrido di risonanza fra le due strutture di Kekulé, schematizzata come in figura 5:

le (principali) strutture canoniche essendo separate dal simbolo della freccia a doppia testa.

Sir Robinson non accettò mai la teoria della risonanza e questo suo istinto era giustificato. Gli argomenti su cui Pauling aveva basato il concetto di risonanza si rivelarono in seguito poco fondati e di natura puramente fenomenologica.

Come sappiamo oggi le due teorie (VB e MO) sono sostanzialmente equivalenti, conducendo in tutti i casi a conclusioni simili. L’unica differenza sta nel formalismo usato e nel concetto di risonanza, rivelatosi, secondo alcuni, fuorviante per i chimici organici, avendo dato luogo a numerosi errori e malintesi. Ad esempio, Hugh Longuet-Higgins[8] ebbe ad affermare che la teoria della risonanza, lungi da essere una benedizione, aveva contribuito poco all’avanzamento della chimica del 20° secolo [2]. George Willard Wheland (1907-1972), allievo di Pauling, estimatore e diffusore della teoria della risonanza però scrisse:

“la risonanza è concetto inventato dall’uomo, in un certo senso più fondamentale della maggior parte delle altre teorie fisiche. Non corrisponde ad alcuna proprietà intrinseca della molecola stessa, ma è solo uno strumento matematico deliberatamente inventato dal fisico o chimico per la propria convenienza.” [3]

Molti pensano che sarebbe opportuno eliminare i termini risonanza ed energia di risonanza, sostituendoli con delocalizzazione ed energia di delocalizzazione.

Un ulteriore episodio contribuì ad alimentare la sfiducia di Sir Robertson verso la chimica quantistica. Lord Todd e J.W. Cornforth, biografi di Robinson, così lo raccontano [2].

Nel 1931 Erich Hückel[9] pubblicò un trattamento teorico (teoria MO) sulle sostituzioni aromatiche elettrofile giungendo alla conclusione che l’effetto di gruppi elettron attrattori doveva essere orto- para direttore, mentre i gruppi elettron repulsori sarebbero stati meta direttori. Conclusioni diametralmente opposte a quelle espresse da Robinson e sostenute da Lapworth, sicché i due scrissero una nota alla rivista Nature affermando che i risultati di Hückel erano in netto contrasto con le evidenze chimiche sperimentali. Hückel replicò, più con compatimento che con rabbia, che le sue conclusioni erano una conseguenza diretta della teoria quantistica, quindi al di là di ogni critica, pertanto dovevano essere i chimici organici a trovare l’errore nei loro esperimenti. Infastidito da questa supponenza Robinson interpellò Edward Milne, famoso matematico e fisico-matematico a Oxford per chiedergli di controllare i calcoli di Huckel. Dopo aver ascoltato attentamente Robinson, Milne rispose: “Se ho ragione, Hückel ha ottenuto tutto esattamente al contrario. In tal caso è ovvio cosa è successo, ha sbagliato un segno”. Tuttavia Milne rifiutò di perdere tempo a cercare uno sbaglio di segno nei calcoli di Hückel. Per quanto lo riguardava, la cosa finiva lì, per Robinson fu anche la fine della chimica quantistica.

(L’errore fu trovato più tardi dal chimico americano George Willard Wheland, però non era così banale come aveva pensato Milne. Hückel fece una serie di assunzioni semplificative non giustificabili o scorrette. Lo sbaglio non riguarda quindi la chimica quantistica, ma il suo uso scorretto da parte di Hückel).

La sfiducia di Sir Robinson nella chimica quantistica durò fino alla fine della sua vita. A questo proposito Lord Todd e J.W. Cornforth affermano:

Il primo trattamento quantistico rappresentò invero un effettivo avanzamento rispetto al concetto originale di Robinson del sestetto elettronico, culminato nei lavori di Lennard-Jones e Coulson[10] dell’inizio anni ’40 ma ci volle diverso tempo per essere fruibile, anche a causa della mancanza di sensibilità chimica da parte di coloro che vi contribuirono. Se Robinson avesse avuto un atteggiamento diverso e si fosse impegnato a fondo nello studio dei metodi quantomeccanici e con la sua profonda conoscenza della chimica organica, probabilmente la chimica organica teorica avrebbe seguito uno sviluppo molto più rapido [2].

Comunque il simbolo dell’esagono con cerchio inscritto non ebbe subito un grande impatto nei testi di chimica organica, lo stesso Robinson non ne fece uso nel suo saggio sulla teoria elettronica dei composti organici 4]. Solo alla fine del 1950 e primi anni 1960 il simbolo finalmente fece la sua comparsa nei testi introduttivi di chimica organica, in particolare nell’edizione 1959 del conosciutissimo testo di Morrison e Boyd, dove fu utilizzato non solo per il benzene, ma anche per naftalene, antracene, fenantrene e altri aromatici policiclici [5, 6]. Ma il dibattito sull’uso del simbolo non è cessato. Ancora nei tardi anni ’90 due autori avevano idee diametralmente opposte: McMurray (1996) rifiuta di usarlo considerandolo ambiguo mentre Solomons (1992) ne fa ampio uso. Questo dibattito prosegue anche sul significato del simbolo. Alcuni vorrebbero restringerlo al sestetto aromatico del benzene, come nell’originale intenzione di Robinson, altri lo ritengono applicabile a tutti i composti che obbediscono alla regola di Huckel[11] per l’aromaticità [6].

Infine, data l’importanza del simbolo per l’anello benzenico gli sono stati assegnati due unicode uno per l’esagono con cerchio inscritto:

http://www.fileformat.info/info/unicode/char/23e3/index.htm

l’altro per l’esagono con i tre doppi legami alternati: http://www.fileformat.info/info/unicode/char/232c/index.htm

Bibliografia

[1] J. W. Amit, R. Robinson, Polynuclear Heterocyclic Aromatic Types. Part II. Some Anhydronium Bases, J. Chem. Soc., 1925, 1604-1618.

[2.] Lord Todd and J. W. Cornforth, Robert Robinson 13 September 1886 – 8 February 1975., Biogr. Mems Fell. R. Soc., 1976, 414-527.

[3] George Willard Wheland, The Theory of Resonance and Its Application to Organic Chemistry, John Wiley & Sons, New York, 1944 (1a Ed.), 1955 (2a Ed.)

[4]R. Robinson, Outline of an Electrochemical (Electronic) Theory of the Course of Organic Reactions, Institute of Chemistry: London, 1932.

[5]R. T. Morrison, R. N. Boyd, Organic Chemistry, Allyn and Bacon: Boston, 1959. Gli autori originariamente utilizzarono linee tratteggiate per il cerchio. Nelle edizioni successive queste furono sostituite da linee continue.

[6] W.B. Jensen, The Circle Symbol for Aromaticity, J. Chem. Educ., 2009, 86, 423-424.

[1] Sir Robert Robinson (1886-1975) chimico organico britannico. Premio Nobel per la Chimica 1947 per i suoi studi sui composti contenuti nelle piante: polifenoli, antociani e alcaloidi. Noto anche per alcune sintesi e per la scoperta della struttura molecolare di morfina e penicillina. A lui si deve l’introduzione delle frecce per indicare gli spostamenti elettronici nei meccanismi della chimica organica. Membro dell’Ordine al Merito del Regno Unito 1949.

[2] Michael Faraday (1791-1867), insigne fisico e chimico inglese noto sopratutto per i suoi contributi fondamentali nell’elettromagnetismo e nell’elettrochimica.

[3] Il gas illuminante (o gas di città), ampiamente usato per l’illuminazione notturna delle città prima dell’energia elettrica, veniva ottenuto per distillazione del carbon fossile (litantrace) e distribuito attraverso un complicato sistema di tubazioni. Tipicamente la miscela gassosa era costituita dal 50% di idrogeno, 35% di metano, 10% di monossido di carbonio e 5% di etilene. In alcune città, ad es. Bologna, nei pressi della Stazione Centrale è ancora in piedi l’enorme struttura cilindrica del gasometro, dove veniva immagazzinato il gas illuminante.

[4] Il termine si riferì inizialmente ai derivati del benzene che hanno in generale un odore gradevole, al contrario dei composti alifatici, successivamente fu esteso a molti composti, ad es. contenuti nelle piante anch’essi di odore gradevole. Va detto comunque che vi sono composti “aromatici” dal cui “aroma” è meglio stare alla larga…

[5] Friedrich August Kekulé von Stradonitz (1829-1896) chimico tedesco pubblicò un primo lavoro sul benzene nel 1865 in francese perché in quell’anno stava insegnando nel Belgio francofono (Kekulé, F.S,Sur la constitution des substances aromatiques., Bulletin de la Societe Chimique de Paris, 1865, 3, 98–110.). L’anno successivo pubblicò un più ampio articolo in tedesco sullo stesso argomento (Untersuchungen über aromatische Verbindungen.,  Liebigs Annalen der Chemie und Pharmacie. 1866, 137, 129–36). Nella seconda metà del XIX secolo Kekulé è stato uno dei più eminenti chimici.

[6] Friedrich Karl Johannes Thiele (1865 – 1918), chimico organico tedesco, mise a punto diversi strumenti per la sintesi organica compreso un apparecchio per la misura del punto di fusione, detto tubo di Thiele. Fra le sintesi che si devono a lui ricordiamo la condensazione di chetoni e aldeidi con ciclopentadiene come strada per ottenere fulveni.

[7] Linus Carl Pauling (1901-1994) americano, chimico, biochimico, educatore, attivista per la pace, Premio Nobel per la chimica 1954 “per le sue ricerche sulla natura del legame chimico e la sua applicazione all’elucidazione della struttura di sostanze complesse”. Oltre che della chimica quantistica è considerato anche fondatore della biologia molecolare. Nel 1962 ottenne anche il Premio Nobel per la pace “per la sua campagna contro i test nucleari”.

[8] Hugh Cristopher Longuet-Higgins (1923-2004), inglese, chimico teorico e cognitivista, ancora prima di ottenere il dottorato propose la struttura corretta per il diborano B2H6 con legame a 2centri-3elettroni fra i due anelli H2B, talvolta detto legame a banana. Fu professore di Fisica teorica a Cambridge, poi cominciò a interessarsi di intelligenza artificiale e nel 1967 si trasferì a Edimburgh dove co-fondò il Dipartimento di Intelligenza delle Macchine. Cambiò ulteriormente interesse, occupandosi di psicologia sperimentale all’università del Sussex.

[9] Erich Armand Arthur Joseph Hückel (1896-1980), chimico e fisico tedesco. Noto principalmente per lo sviluppo della teoria di Debye-Huckel per le soluzioni elettrolitiche e per il metodo di Hückel per il calcolo approssimato degli orbitali molecolari di sistemi π.

[10] Charles Alfred Coulson (1910 –1974) britannico, matematico applicativo e chimico teorico. Considerato un pioniere nell’applicazione della teoria quantistica della valenza a problemi di struttura molecolare, dinamica e reattività. Curioso il fatto che Coulson succedette a Milne come Professore di Matematica a Oxford nel 1952. Fu poi chiamato a ricoprire la cattedra di Chimica teorica, istituita nel 1972.

[11] Secondo questa regola, tra tutti i composti ciclici, quelli aromatici: (a) hanno struttura planare e atomi di carbonio ibridati sp2; (b) hanno un numero di elettroni π delocalizzati su tutto il ciclo, pari a 4n + 2, dove n è un numero intero maggiore o uguale a 0.

 


Tagged: benzene, E. Huckel, F.A. Kekulè, L. Pauling, Sir Robert Robinson

Ci risiamo….

14 marzo, 2017 - 23:24

Mauro Icardi

Dopo che i giornali nel riferire di tristi fatti di cronaca, in particolare di violenza familiare o di genere hanno confuso con allarmante regolarità e frequenza acidi e basi, definendo acido un prodotto come la soda caustica, adesso anche il quiz preserale “L’eredità” mette in mostra alcune disarmanti lacune nella conoscenza chimica di base.

Qui a fare la brutta figura sono i concorrenti, non certo gli autori del programma.
Prima di riferire l’episodio nello specifico vorrei fare un breve preambolo. I quiz sono programmi televisivi che da sempre hanno avuto un gran riscontro da parte del pubblico televisivo. Se il programma a quiz annovera autori di valore, e propone argomenti validi può diventare utile nel suo insieme.
Io personalmente ho un buon ricordo di una certa televisione del passato, ed in particolare di programmi come “Chissà chi lo sa” condotto da Febo Conti.

Pensato per ragazzi che frequentavano la scuola dell’obbligo, in generale faceva riferimento nelle domande a quiz ad argomenti presenti nei programmi scolastici.
Negli anni successivi si è assistito ad una maggior tendenza alla spettacolarizzazione, e meno alla qualità del programma e delle domande poste. La televisione generalista ha perso molto nella qualità generale della sua offerta. La concorrenza delle tv a pagamento e di Internet si è fatta sentire, la rincorsa al sensazionalismo e alle ragioni degli inserzionisti pubblicitari e agli indici di share anche. Il risultato è stato quello di una flessione nella qualità dell’offerta televisiva.
Si sono proposti programmi letteralmente inguardabili. Ricordo con sgomento la “Pupa e il secchione”, “Tamarreide” e buon ultimo a rinverdire la tradizione “Riccanza”.
Io ho di fatto smesso da molti anni di guardare programmi televisivi, ma prima di cenare mi concedo un’ora per guardare programmi come “L’eredità”, oppure nel periodo estivo “Reazione a catena” perché sono costruiti sulla risoluzione di giochi che sono derivati dall’enigmistica.
Durante lo svolgimento della puntata i concorrenti sono chiamati a rispondere anche a domande di cultura generale.
Di strafalcioni e di risposte improbabili ne ho sentite molte. Molti concorrenti faticano a collocare personaggi storici nella loro giusta epoca, anche se si tratta di personaggi del novecento. Memorabile chi ha risposto che Hitler era stato nominato cancelliere tedesco nel 1979.

eredità

Qualche giorno fa su una domanda relativa alla chimica, nella quale ai concorrenti veniva mostrata la formula bruta del saccarosio (C12H22O11) e chiesto a quale composto chimico appartenesse, venivano loro date quattro possibilità di risposta. Una ovviamente era quella esatta e poi tra quelle errate vi era sia l’acido solforico che l’ammoniaca. Inutile dire che la risposta giusta è arrivata dopo che i tre concorrenti precedenti avevano indicato quelle errate.

Onestamente faccio molta fatica a capire come chi sia stato anche solo alla scuola dell’obbligo non abbia mai sentito parlare degli zuccheri, o che non si ricordi almeno a memoria che la desinenza –osio si riferisca ad essi. Oppure non abbia mai sentito parlare di formule elementari come quelle dell’acido solforico o dell’ammoniaca. La sensazione che ho provato è di delusione e sgomento. Bastava aver seguito con un minimo di attenzione le lezioni di quelle che ai miei tempi si chiamavano osservazioni scientifiche durante gli anni della scuola media, per non incorrere in errori così grossolani e banali.

acido solforico
Sono anni che veniamo informati del fatto che in Italia cresce l’analfabetismo di ritorno, che gli Italiani mostrano da sempre una ostinata disaffezione alla lettura ed allo studio.
Episodi come questo ne sono una triste conferma. Spesso però si tende a sminuire la gravità di cose come queste (mi riferisco agli errori grossolani su domande non eccessivamente difficili nei quiz televisivi). Spesso i commenti che sento in altri programmi radiofonici o televisivi tendono a sminuirne la gravità e a mettere in campo elementi quali l’emozione. In generale percepisco quasi una elevazione dell’ignoranza a pregio e simbolo di modernità.
E allora chiudo citando le parole che Isaac Asimov scienziato, oltre che scrittore di conosciutissimi racconti di fantascienza scrisse nel 1980 in un articolo pubblicato su Newsweek.
C’è una specie di culto dell’ignoranza negli Stati Uniti e c’è sempre stato. L’anti-intellettualismo si è insinuato come una traccia costante nella nostra vita politica e culturale, alimentato dal falso concetto che democrazia significhi la mia ignoranza vale quanto la tua conoscenza
Bisogna cercare di invertire questa tendenza senza alcun dubbio o tentennamento.


Tagged: cultura chimica, L'eredità, scuola

Briscole, tromboni e trombette.

13 marzo, 2017 - 08:21

Claudio Della Volpe

Qualche mese fa abbiamo segnalato su questo blog le posizioni di alcune riviste e di alcuni scienziati sulla elezione di Donald Trump* alla presidenza degli USA; posizioni molto critiche.

In questi giorni abbiamo la conferma di alcuni di quegli effetti e di quelle previsioni, in parte catastrofiche.

La prima è che Trump ha cominciato a revocare la precedente dirigenza e a nominarne una nuova; in particolare ha nominato il nuovo capo dell’EPA: Scott Pruitt.

Nel corso di un’intervista condotta dall’emittente CNBC, Pruitt ha risposto a una precisa domanda sul ruolo della CO2 e in generale dell’attività umana rispetto al riscaldamento climatico

I think that measuring with precision human activity on the climate is something very challenging to do and there’s tremendous disagreement about the degree of impact, so no, I would not agree that it’s a primary contributor to the global warming that we see,” ha detto alla CNBC; “But we don’t know that yet. … We need to continue the debate and continue the review and the analysis.”

Nei fatti non c’è alcuna “mancanza di consenso”, né tantomeno “enorme”. Negli ultimi anni tutte (e sottolineo il tutte) le principali organizzazioni scientifiche hanno concordato che siano le attività umane a contribuire più di ogni altro fenomeno al surriscaldamento del pianeta, attraverso le emissioni di CO2.

La stessa pagina web dell’EPA afferma “Il diossido di carbonio è il principale gas serra che sta contribuendo al recente cambio climatico

Il punto di vista di Pruitt è agli antipodi di quello di NASA e NOAA .

The planet’s average surface temperature has risen about 2.0 degrees Fahrenheit (1.1 degrees Celsius) since the late 19th century, a change driven largely by increased carbon dioxide and other human-made emissions into the atmosphere,” hanno affermato NASA e NOAA nel gennaio 2017.

Il Sen. Brian Schatz, co-presidente della Senate Climate Action Task Force, ha violentemente criticato Pruitt per i suoi commenti definiti “extreme” and “irresponsible.”

Anyone who denies over a century’s worth of established science and basic facts is unqualified to be the administrator of the EPA. Now more than ever, the Senate needs to stand up to Scott Pruitt and his dangerous views,” ha affermato.

Come ci racconta Il Post: Pruitt ha del resto una lunga storia alle spalle di negazionismo del riscaldamento globale. Da procuratore generale dell’Oklahoma, Pruitt fece causa all’EPA per 13 volte contestando i suoi regolamenti per proteggere l’ambiente, ridurre le emissioni e regolamentare lo sversamento di sostanze pericolose nei fiumi. Nel corso degli anni, Pruitt ha inoltre ricevuto numerosi contribuiti e finanziamenti da parte delle aziende petrolifere. Secondo un articolo del New York Times, Scott Pruitt intende portare nell’EPA suoi ex collaboratori e conoscenti che negano il riscaldamento globale.

In passato Pruitt ha anche detto di essere contrario all’accordo di Parigi sul clima, il più importante e incisivo degli ultimi anni, già osteggiato dall’amministrazione Trump. Il nuovo capo dell’EPA vorrebbe inoltre rivedere le regole dell’agenzia che impongono ai produttori di veicoli di costruire motori più efficienti e meno inquinanti.

Già questo basterebbe a far capire che le preoccupazioni che avevo richiamato nel post di qualche mese fa erano ragionevoli. Ma quel che mi preoccupa ancor più sono le conseguenze di questo cambio della guardia americano sul resto del mondo visto il ruolo guida in politica che gli USA hanno sulle classi dirigenti di molti altri paesi.

In Italia abbiamo assistito al seguente episodio che coinvolge il Corriere della Sera, un giornale che sappiamo essere in prima fila nell’attaccare l’interpretazione corretta del global warming; il suo ex-direttore Paolo Mieli non le manda a dire. Ai suoi commenti ha risposto in maniera dettagliata Oca Sapiens, una delle più famose blogger italiane. Ma stavolta Mieli e gli altri giornalisti-ignoralisti (l’autrice dell’articolo in questione si chiama Serena Danna) l’hanno combinata grossa; sentite qua.

Il blog Climalteranti (a cui ogni tanto contribuisco) l’ha definita “L’infortunio della Lettura”. Infatti riguarda il supplemento La lettura publicato settimanalmente dal Corriere.

Ne trovate il testo integrale qui.

Ci racconta Climalteranti:

L’idea della giornalista, Serena Danna, non è affatto nuova: un “dibattito” alla pari fra un negazionista con poche o nulle competenze in climatologia e un esperto di clima. Ne abbiamo visti tanti in passato, anche in televisione. Essendo la quasi totalità dei climatologi certa che la terra si sia surriscaldata, dare spazio a una tesi largamente minoritaria, peraltro sostenuta da un dilettante in materia, è una cosa poco sensata. Come lo sarebbe dare spazio all’odontotecnico che straparla di vaccini. 

William Happer, definito “guida degli scettici del cambiamento climatico”, è una pedina minore del negazionismo climatico. Il termine “scettico” per Happer è scorretto sia dal punto di vista culturale che giornalistico: si tratta di un fisico nucleare senza alcuna pubblicazione sul clima, consulente di petrolieri e produttori di carbone e membro di numerose lobby statunitensi dell’energia da fonti fossili, che si è dichiarato disponibile a scrivere articoli a pagamento (250 $/ora) sui benefici della CO2 (sarebbe utile sapere se Happer ha ricevuto un compenso per questo “confronto”). La sua presentazione nella colonna informativa si conclude con “negli ultimi anni il suo lavoro si è concentrato sui dubbi relativi al riscaldamento globale e ai danni della CO2”, senza precisare che si è trattato di un “lavoro” da opinionista, senza alcuna pubblicazione scientifica a supporto.

Nell’intervista pubblicata da “La Lettura” del 26 febbraio 2017, intitolata “Credetemi, il clima non è surriscaldato”, William Happer ha rispolverato molti dei miti del negazionismo climatico, da tempo confutati dalle evidenze scientifiche disponibili. Come spiegato nel precedente post, nell’articolo dell’inserto culturale del Corriere della Sera (qui il testo) è stato proposto un finto confronto fra il fisico William Happer e il climatologo Mark Cane (raggiunto via mail, Cane ha dichiarato di non essere al corrente della presenza di un interlocutore nell’articolo, com’è raccontato qui). Molte delle affermazioni di Happer non sono state confutate nell’articolo, che ha anzi dato pari dignità, e più spazio e visibilità complessiva, alle sue opinioni rispetto a quelle del climatologo Cane.

Sarebbe difficile confutare punto per punto qui le affermazioni di Happer, per cui vi rimando per una confutazione puntuale delle ridicole posizioni di Happer a questo post a cui ho anche un po’ contribuito.

Ma la cosa grave rimane: uno dei principali giornali italiani ha “costruito” un falso confronto fra le posizioni pro e contro il GW disinformando nel merito i suoi lettori e addirittura tenendo non informato almeno uno dei suoi intervistati di cui ha confuso volutamente il ruolo scientifico : uno esperto di lunga data definito un ambientalista, e un non–esperto lobbista a pagamento per Big Oil, definito come la guida degli scienziati scettici. Non solo.

Leggendo l’articolo del Corrierone-La Lettura si ha l’impressione che i due discutano tra di loro, ma in effetti non sanno nemmeno di farlo, come scritto da Cane (si veda l’ultima parte di questo link); le loro frasi sono semplicemente giustapposte dall’autrice secondo il proprio intendimento e non si capisce se quelle frasi siano risposte a precise domande o meno. E questo spiegherebbe anche perché le frasi citate di Cane a volte appaiano del tutto fuori tema. Ma è questo un modo di fare informazione o disinformazione? Non sembra il massimo della correttezza dott. Fontana(direttore del Corriere), dott. Troiano (direttore de La Lettura), dott. Mieli (attualmente redattore) e dott. Danna (autrice dell’articolo)!

*Il titolo del post viene dal significato della parola inglese trump: briscola; il resto potete immaginarlo da soli.

Link utili:

https://www.desmogblog.com/william-happer

http://ocasapiens-dweb.blogautore.repubblica.it/2017/03/05/californexit/

http://www.climalteranti.it/2017/02/27/linfortunio-de-la-lettura/


Tagged: Donald Trump, Global warmingt, Scott Pruitt

Copyright © 2012 Società Chimica Italiana. All Rights Reserved.