Aggregatore di feed
Libere e geniali. Recensione
Luigi Campanella, già Presidente SCI
Libere e geniali, Hoepli editore pag. XII+196, euro 17.96, 2025

Nella strumentale articolazione della Cultura fra Arte e Scienza la Chimica è spesso indicata come la Scienza più vicina all’Arte non solo per quanto essa fa a difesa, protezione, restauro dei Beni Culturali, ma anche perché basata, come l’arte, su un patrimonio umano, la creativitá. Dagli elementi nascono le molecole con le loro proprietà preziose, pericolose, stabili, ma la loro progettazione è affidata al ricercatore ed al suo intuito; senza di lui dagli elementi non si produce niente di concreto ed utile É ovvio che il punto di partenza sono le proprietà chimico-fisiche degli elementi dai quali nasce la nuova molecola. E qui Silvia Bombardi con il suo testo LIBERE E GENIALI ed. Hoepli ci offre un panorama incredibilmente ampio, ed in parte nuovo, circa la genialità delle singole particelle reattive che va ben oltre la semplice classificazione su base elettronica. Così la produzione di materiali preziosi, l’elisir di lunga vita, la stampa, l’interazione per produrre energia, la produzione di farmaci miracolosi, o quasi, diventano esempi che per il ricercatore hanno 3 funzioni: storica, didattica, scientifica e per il non addetto quella della conoscenza e, leggendo con attenzione tutto il libro, della cultura. In tal senso il rapporto discusso con la fisica e la biologia è un’ulteriore occasione di pensare alle molecole come veri puzzle. Da apprezzare nel finale del testo la valorizzazione critica della donna nella Scienza ed il riferimento all’idrogeno, uno dei temi del desiderio energetico del nostro tempo più recente.
La scienza e la società.
Claudio Della Volpe
Siamo in un momento della storia in cui molti fatti, eventi, comportamenti vengono alla luce con maggiore chiarezza; e su questi fatti, eventi, comportamenti vale la pena di riflettere e prendere posizione.
Nel dicembre del 2024 la prof. inglese Dorothy Bishop, professore emerito di neuropsicologia dello sviluppo all’università di Oxford, una delle studiose più impegnate sul fronte della lotta alla “cattiva scienza” ha rassegnato le sue dimissioni dalla Royal Society.
Per spiegare le sue ragioni ha pubblicato un post che trovate qui.
L’argomento è stato affrontato già ad inizio dicembre sul sito di ROARS.

Dorothy Bishop, professore emerito Oxford
Ma è diventato di dominio più ampio in questi giorni perché molti giornali hanno pubblicato in modo più o meno esteso il testo di una dichiarazione della Royal Society che si è riunita la sera del 3 marzo proprio per decidere sui temi posti dalla Bishop e che riportiamo in fondo.
Quali erano questi temi e perché la Bishop si è dimessa dalla RS?
Scriveva fra l’altro la Bishop:
Attualmente ci sono circa 1.800 Fellows e Foreign Members della Royal Society, tutti eletti attraverso un processo rigoroso e altamente competitivo che comprende la nomina da parte di due Fellows of the Royal Society (FRS), l’esame dettagliato dei risultati e delle pubblicazioni del candidato, le relazioni di revisori e la valutazione da parte di un comitato di esperti nella loro area di ricerca. Sebbene la maggior parte dei membri della Royal Society venga eletta sulla base dei propri contributi scientifici, altri vengono nominati sulla base di “contributi più ampi alla scienza, all’ingegneria o alla medicina attraverso la leadership, l’organizzazione, la ricerca o la comunicazione”…. Questo ci porta, quindi, al caso di Elon Musk, che è stato eletto Fellow della Royal Society nel 2018 sulla base dei suoi risultati tecnologici, in particolare nei viaggi spaziali e nello sviluppo di veicoli elettrici. Purtroppo, da allora, i suoi interessi si sono estesi all’utilizzo dei social media per la propaganda politica, combattendo allo stesso tempo quello che considera un “woke mind virus” e gli attacchi alla libertà di parola. Mentre prima sembrava essere d’accordo con l’opinione scientifica tradizionale su questioni come il cambiamento climatico e la medicina, nell’ultimo anno o due ha iniziato a promuovere idee alternative.
Nell’estate del 2024, alcuni FRS si sono preoccupati per il modo in cui Musk utilizzava la sua piattaforma di social media (prima Twitter, ora X) per fomentare disordini razziali e sentimenti antigovernativi nel Regno Unito. Tra i suoi tweet più significativi di quel periodo vi erano commenti incendiari e disinformazione, come documentato in questo articolo del Guardian.
Ciò ha portato alcuni membri della Fellows a esprimere disappunto per l’elezione di Musk. Non c’è stata una consultazione formale della Fellowship, ma tramite contatti informali via e-mail, un gruppo di 74 Fellows ha formulato una lettera di preoccupazione che è stata inviata all’inizio di agosto al Presidente della Royal Society, sollevando dubbi sul fatto che Musk fosse “una persona adatta a ricoprire il considerevole onore di essere un Fellow della Royal Society”. La lettera menzionava specificamente il modo in cui Musk aveva usato la sua piattaforma su X per fare dichiarazioni ingiustificate e divisive che sono servite a infiammare la violenza di destra e la violenza razzista nel Regno Unito.
Qualcuno (non io!) ha fatto trapelare la lettera al Guardian, che ne ha parlato il 23 agosto.
Il post prosegue elencando i comportamenti di Musk contrari ai principi enunciati nello Statuto della RS (fra i quali l’attacco a Fauci, aver promosso l’esitazione del pubblico sui vaccini, aver spinto dubbi sulla questione climatica tramite uno strumento potentissimo come X, (una volta Twitter, da lui acquistato e ristrutturato a questo scopo) il modo in cui ha spinto alla ricerca su Neuralink, il collegamento fra cervello e macchine informatiche e quello che si riprometteva di fare (e poi sta facendo come DOGE, cioè stringendo la borsa americana sulla ricerca), e conclude amaramente:
Nel corso delle indagini su questo blogpost, ho acquisito una profonda familiarità con il Codice di condotta, che mi impone di “trattare collegialmente e con cortesia tutti gli individui dell’impresa scientifica, compresi… i membri stranieri”. Non sono disposta a trattare Elon Musk “collegialmente e con cortesia”. Qualsiasi piacere possa trarre dall’onore di essere un FRS è sminuito dal fatto che questo onore è condiviso con qualcuno che sembra prendere a modello un cattivo di Bond, un uomo che ha una ricchezza e un potere incommensurabili che userà per minacciare gli scienziati che non sono d’accordo con lui. Di conseguenza, la settimana scorsa ho rassegnato le mie dimissioni dall’FRS. Non mi aspetto di avere un impatto: nel contesto di oltre 350 anni di storia della Royal Society, questo è solo un incidente. Mi sento molto più a mio agio a dissociarmi da un’istituzione che continua a onorare quest’uomo disdicevole.
La RS si è riunita effettivamente la sera del 3 marzo ed a quanto pare la collega Bishop (almeno a stare alle cose già decise) ci aveva preso; questo il testo pubblicato:
Dichiarazione della Royal Society
03 marzo 2025
Durante la riunione di questa sera della Royal Society, i membri hanno concordato sulla necessità di difendere la scienza e gli scienziati di tutto il mondo di fronte alle crescenti sfide che la scienza deve affrontare.
È stata espressa preoccupazione, in particolare, per la sorte dei colleghi statunitensi che, secondo quanto riferito, rischiano di perdere il posto di lavoro a causa della minaccia di tagli radicali ai finanziamenti per la ricerca.
I borsisti, più di 150 dei quali hanno partecipato all’incontro di stasera, sono stati uniti dalla necessità che la Società intensifichi i propri sforzi per difendere la scienza e gli scienziati in un momento in cui questi sono minacciati come mai prima d’ora, ma allo stesso tempo non sono mai stati così necessari per l’umanità in generale.
La Società ha deciso di esaminare ulteriori azioni che possano contribuire a difendere la scienza e la ricerca scientifica e a contrastare la disinformazione e gli attacchi ideologici alla scienza e agli scienziati.
Nemmeno una parola su Musk.
A voi le conclusioni.
Cuoio e calzature nell’antica Roma
Biagio Naviglio
Ai tempi di Roma antica la conceria aveva una significativa importanza perché poteva essere considerata, a tutti gli effetti, anche come un’industria bellica per la produzione di specifici articoli utilizzati nel campo militare come quelli di selleria, cinghie, calzari, finiture per cavalli, corpetti protettivi, ed altro ancora. I romani constatarono le superiori qualità del cuoio in confronto con altri materiali e quindi vestirono completamente di cuoio i soldati: abito, tunica, mantello, scudo, casco, calzatura erano in tutto o in parte di cuoio.
Le pelli grezze che entravano in conceria provenivano da macelli locali oppure da regioni lontane appena conquistate le cui popolazioni, soggette ai tributi, dovevano fra questi conferire a Roma anche quantitativi di pelli.
Per la trasformazione della pelle grezza in cuoio (pelle conciata), le pelli prima dell’operazione di concia, venivano sottoposte alle fasi di rinverdimento/lavaggio, depilazione e macerazione. Per la depilazione si usava urina umana raccolta dai vespasiani presenti soprattutto nei pressi di teatri, arene, palestre e in ogni luogo di forte frequentazione.
L’urina com’è noto è un liquido fisiologico ricco di urea proveniente dalla degradazione delle proteine; ha un pH compreso fra 5 e 6, ma a contatto con l’aria e per effetto di fermentazione batterica, l’urea si degrada producendo ammoniaca, cosicché questa soluzione fisiologica, col tempo, diventa basica.
Nella Roma antica si cospargeva l’urina fermentata sulla pelle dal lato pelo sovrapponendo quindi le pelli distese le une sulle altre, pelo contro pelo, costruendo così delle pile che si lasciavano per un certo tempo all’azione dei batteri, in ambiente alcalino. Gli enzimi di alcuni batteri, producevano la rottura delle pre-cheratine del bulbo del pelo creandone il distacco; il pelo, così si lasciava allontanare facilmente per semplice trazione, insieme all’epidermide.
L’operazione veniva eseguita su tavole di marmo utilizzando delle stire*, oppure su cavalletti di legno inclinati con un angolo di circa 45° ed utilizzando una mezzaluna non tagliente.
Per quanto concerne la macerazione, a quel tempo si utilizzava, quale macerante, lo sterco animale ricco di batteri e di enzimi della digestione.
Quello di cane serviva per ammorbidire molto le pelli perché molto aggressivo, quello di uccelli, invece veniva impiegato quando le pelli dovevano conservare una certa fermezza.
Per la concia venivano effettuati essenzialmente due tipi di concia, una minerale
all’allume di rocca ed una con estratti vegetali.
L’allume veniva ricavato da una miniera di Pozzuoli, che fu praticamente esaurita, ma anche dalle isole Eolie. E’ un sale doppio di alluminio e potassio che sciolto in acqua fornisce una soluzione acida. Venivano conciate all’allume soprattutto pelli leggere ovine e caprine, sia con pelo che senza.
Mentre le pelli piccole erano conciate con l’allume quelle più grandi erano trattate nelle fosse con materiali vegetali, come ad esempio, quercia, pino, sommacco, noci di galla e qualche volta, per le pelli più pregiate, con un conciante assai ricercato, la scorza del frutto di melograno, che era detto malum punicum, in quanto importato da Cartagine.
Una conceria dell’epoca romana è rimasta fra le rovine di Pompei che fu distrutta, insieme ad Ercolano, a seguito dell’eruzione del Vesuvio nel 79 d.C. Nella figura 1 sono riportate le vasche per la concia rinvenute nel Parco Archeologico di Pompei; è probabile che si conciasse anzitutto pelli leggere per tomaia.

Figura 1: Parco Archeologico di Pompei- vasche per la concia
Ad Ercolano, invece, è stato rinvenuto un affresco rappresentante un gruppo di amorini in veste di calzolai.

Figura 2: Amorini calzolai – affresco romano raffigurante Amorini al lavoro in una calzoleria – Casa dei Cervi, Ercolano – I secolo d.C. – Parco Archeologico di Ercolano
Con lo spirito pragmatico che li distingueva, i Romani furono rapidi a impadronirsi di usi, costumi, modi e mode dei popoli con cui venivano in contatto; anche nella calzatura, quindi, i Romani adottarono le mode dei paesi stranieri, specialmente dei Greci.
A Roma la scarpa fu simbolo di classe e ceto. I cittadini di rango elevato (patrizi) utilizzavano i “Calcei”, cioè calzature consistenti in suole senza tacco corredate da tomaie in pelle, prevalentemente di vitello, che avvolgevano tutto il piede; il calceo dei patrizi si allacciava alla caviglia con quattro strisce di pelle che sul davanti formavano due nodi (figura 3). I “Calcei senatorii” di colore nero venivano indossati dai senatori romani, su cui era ricamata una C (Centum) numero massimo dei membri del Senato. Il calceo dei senatori si allacciava alla caviglia con due strisce e aveva quindi un solo nodo (figura 4).
Per un senatore o un patrizio uscire con la toga e non avere il Calceo ai piedi era una grave sconvenienza come andare in giro con scarpe troppo larghe o con le stringhe legate male o addirittura sciolte, era indice di malcostume e non curanza.

Figura 3: Calcei dei patrizi

Figura 4; Calcei dei senatori
I popolani e i contadini indossavano un altro tipo di calzatura, la più usata chiamata “Perones”, scarpa dalla suola senza tacco con una tomaia in pelle alta alla caviglia.
Le solae (chiamate anche sandalia) erano uno dei tipi di calzatura più comune diffuso durante l’epoca romana, paragonabile in maniera quasi perfetta ai sandali moderni; le soleae riparavano soltanto la pianta del piede ed erano allacciate con dei laccioli. La suola poteva essere di legno o di cuoio, ancorata al piede mediante listelli variamente intrecciati e passanti tra il primo e il secondo dito.
La scarpa veniva utilizzata, da ogni ceto sociale, principalmente in ambiente domestico in quanto era considerato sconveniente uscire di casa indossando le solae.
Una particolare espressione tramandataci da Orazio documenta l’uso quotidiano di questa calzatura: quando a fine cena, un invitato chiedeva i sandali (poscere soleas), tolti, com’era costume romano, all’inizio del banchetto, dichiarava la sua intenzione di congedarsi.
Le caligae (figura 5) erano le calzature d’ordinanza che tutti i soldati romani, al di sotto del grado di centurione, indossavano. Isidoro di Siviglia nelle Origines fa risalire la nominazione caliga al termine callus con cui si indicava il cuoio duro in riferimento alla solidità della scarpa. La caliga presenta una tomaia ricavata da un singolo pezzo di pelle che, mediante un intreccio di listelli/striscie di cuoio, copre il collo del piede e la caviglia, lasciando la punta delle dita scoperta
Le caligae possedevano una suola, prodotta con cuoio conciato di alta qualità ricavato da pelli bovine o di toro, che era molto resistente e spessa. Inoltre, possedevano una soletta interna a protezione del piede dalle punte dei chiodi. Altra caratteristica distintiva delle caligae era il complesso lavoro di intaglio con cui si produceva la tomaia, che era formata da una rete di sottili strisce di cuoio che tenevano coperto il dorso del piede e la caviglia; il tutto veniva chiuso tramite un sistema di cinghie di cuoio che venivano allacciate all’altezza della caviglia. Questo sistema di ritaglio del cuoio era finalizzato a rendere più confortevole la vita del soldato durante le lunghe marce giornaliere, garantendo insieme un’ottimale aerazione al piede, che era favorita anche dalla scelta di lasciare la punta del piede scoperta. Il modello delle caligae ben si adattava alle esigenze di un esercito. Le stringhe, infatti, consentono di allargare e stringere la calzatura all’occorrenza. La dilatazione del piede nei mesi piu caldi o l’aggiunta di calzini nei mesi invernali potevano, ad esempio, rendere necessaria una maggiore ampiezza della scarpa. Inoltre, la chiodatura proteggeva la suola dall’usura causata dalle lunghe marce e l’intaglio della tomaia in corrispondenza delle aree più sensibili evitava lo sfregamento del piede, rendendo la caliga particolarmente
adatta nei contesti militari.
Spesso i soldati venivano chiamati semplicemente caliga per intendere un grado basso dell’esercito.
Questa calzatura diede il nome a Caio Cesare figlio di Germanico, che divenne imperatore e successore di Tiberio; infatti, i legionari, vedendo il ragazzo indossare questo genere di calzari nell’accampamento del padre, lo denominarono “Caligula” cioè la piccola caliga.

Figura 5: Esempio di Caligae
Il sito di Vindolanda (un forte costruito in Britannia per le truppe ausiliarie presso il Vallo di Adriano verso la fine del Isec. d.C., in età flavia) offre una testimonianza unica circa le scarpe dei romani. Da questa località provengono circa cinquemila esemplari di calzature, riferibili a un periodo compreso tra I e IV sec. d.C., conservatesi grazie alle particolari condizioni anaerobiche dei sedimenti

*(NdW) la stira era un coltello a lama rettangolare (detto propriamente stira) o una costola di bue; attualmente è una macchina usata per la stiratura del cuoio per calzature e delle pelli, costituita da un rullo a segmenti lisci di ottone, girante su sé stesso rapidamente mentre il suo asse è dotato di moto traslatorio rettilineo alternato.
Bibliografia
- Cortese B., L’arte della concia nella Pompei antica
- Bravo G.A., Storia del cuoio e dell’arte conciaria, AICC, Torino 1964
- Goffredo R., La manifattura del cuoio nell’Italia romana, Open Edition Journals, 2022
- Nardon A.M., Rodinò M., A piedi….. nella storia, Calzature per tutti, Dall’antichità ad oggi
- Nardon A.M., Rodinò M, In planta pedis, Le calzature del mondo classico proposte per categoria, Le Gallerie degli Uffizi, 2019-20
Batterie a CO2 (vere e presunte).
Claudio Della Volpe
In un recente post abbiamo parlato di una iniziativa dell’ENI nel campo dell’accumulo energetico, che prende il nome di CO2 battery, la ditta che la porta avanti è la Energy Dome e si tratta di una startup ormai quasi maggiorenne che sviluppa il progetto di usare il cambiamento di fase del gas per accumulare energia per periodi di al massimo 10 ore.
In effetti non è la prima volta che si parla di CO2 dal punto di vista delle risorse invece che dei problemi; il primo a far notare questa altra faccia della questione è stato Gianfranco Pacchioni, in un libro che abbiamo recensito su questo blog.

Nella prima parte Pacchioni ha introdotto il ruolo naturale della CO2 e nella seconda ha invece richiamato il possibile ruolo della sostanza nelle procedure di accumulo energetico, partendo dalla fotosintesi artificiale e dall’accumulo di idrogeno e finendo con la cattura e il riuso della CO2 (la sintesi Sabatier ma anche elettrochimica di sostanze di accumulo, a partire dalla storia della benzina della Wehrmacht).
L’accumulo di lungo periodo (LDES) che è una delle possibili strategie necessarie per rendere le rinnovabili efficaci, necessita di metodi e sistemi che immagazzinino l’eccesso energetico estivo o legato a fasi più ventose e che usino questo eccesso nei momenti invernali o notturni. Se si sceglie la strada dell’accumulo, l’accumulo chimico rappresenta una necessità, nel senso che, nonostante problemi di efficienza del ciclo di sintesi e riuso, lo stoccaggio chimico è più semplice che usare energie con ricadute pericolose come il nucleare o metodi fisici che richiedono grandi volumi (come Energy dome).
La densità energetica del petrolio, del metano, dei metalli ed in genere delle reazioni chimiche ed elettrochimiche non è raggiungibile da altri metodi, a meno di non arrivare alle reazioni nucleari, che hanno però i loro handicap (di cui oggi non parleremo).
Ovviamente la catena produttiva necessaria a tale tipo di accumulo non esiste ancora e le singole fasi, pur essendo conosciute a livello teorico, necessitano di un grande investimento sia per passare alla fase industriale che per sviluppare quegli aspetti che sono meno efficienti al momento: elettrolisi dell’acqua, possibilmente di mare per produrre idrogeno (anche se al momento non ci sono impianti industriali ma solo ricerca), cattura efficiente della CO2 e suo stoccaggio/trasporto, reazione Sabatier-like per produrre metano, accumulo metano di sintesi, verde diciamo, sua combustione in centrali termoelettriche che funzionerebbero solo poche settimane l’anno con costi di esercizio molto alti, etc, etc.
Va da sè che l’accumulo può fare a meno della CO2, ed usare metodi diversi (metalli, cambiamenti di fase, sostanze organiche ricche di idrogeno, etc.); tuttavia usare la CO2, arrivando al metano per esempio, svolge un ruolo di nemesi, che è molto significativo.
Ed ecco allora giustificato anche l’uso “immaginifico” del termine “batteria a CO2”, anche quando in realtà non si tratta di una vera e propria batteria elettrochimica, come è il caso dell’accumulo sviluppato dalla Energy Dome, che consiste nella trasformazione della CO2 da gas a liquido in fase di accumulo e nell’opposto in fase di recupero.
Ci sono vari punti deboli che abbiamo già discusso nel precedente post: rischi di sicurezza, grande occupazione di superficie, scarsa durata dell’accumulo legata ai dettagli del processo termodinamico; quest’ultimo punto dipende dal fatto che per massimizzare la resa energetica è necessario accumulare calore dalla fase di compressione per riusarlo nelle fasi di espansione, e questo impedisce durate di accumulo veramente lunghe, checchè ne dica la pubblicità, a meno di non abbassare la resa.
Prima ho detto “se si sceglie la strada dell’accumulo”, ma ce n’è un’altra?
Beh occorre dire che c’è una alternativa tecnicamente molto robusta e la cui tecnologia conosciamo bene: una rete mondiale di trasporto dell’energia elettrica; già nel 1938 Buckminsterfuller, il geniale architetto cui dobbiamo le tenso-strutture e il nome del fullerene, aveva proposto di sfruttare il fatto che c’è sempre mezza terra esposta al sole ed in grado dunque di alimentare l’altra metà esposta al buio, a patto di costruire una dorsale energetica mondiale, ben illustrata nella cosiddetta Dimaxion map, una mappa della Terra rappresentata come un icosaedro, da cui risulta la natura di “isola continentale” dei continenti attuali: questione di punti di vista.

L’unica difficoltà non è tecnica ma politica, visto che il moderno capitalismo torna a riproporre la guerra come modo di risolvere le controversie internazionali.

Ma oltre la presunta CO2 battery esistono anche delle vere batterie elettrochimiche a CO2, le cosiddette batterie metallo-CO2.
E queste sono state per me una scoperta, di cui ora vi illustro gli aspetti salienti.
Si tratta di una scoperta recente e relativamente inattesa; nel 2013 il gruppo di Archer alla Cornell riportò un risultato veramente sorprendente:
Abbiamo presentato una nuova batteria primaria Li-CO2 che consuma gas CO2 puro come catodo. La batteria presenta un’elevata capacità di scarica di circa 2500 mA h g-1 a temperature moderate. A 100 °C la capacità di scarica è superiore di quasi il 1000% rispetto a quella a 40 °C e la dipendenza dalla temperatura è significativamente più debole per i catodi di carbonio a più alta area superficiale. Le analisi FTIR e XRD ex-situ mostrano in modo convincente che il carbonato di litio (Li2CO3) è il componente principale del prodotto di scarica. È stata dimostrata la fattibilità di batterie primarie metallo-CO2 simili, basate su anodi di metalli abbondanti, come Al e Mg. La piattaforma della batteria metallo-CO2 fornisce un approccio innovativo per la cattura simultanea delle emissioni di CO2 e la produzione di energia elettrica.

Oggi a distanza di oltre 10 anni sappiamo che la reazione costituisce un modo veramente interessante di assorbire il gas serra e CONTEMPORANEAMENTE produrre energia elettrochimica; ovviamente dobbiamo considerare che nel computo LCA dobbiamo sottrarre l’energia necessaria a produrre il metallo, ma di fatto i carbonati prodotti sono poi facilmente riciclabili.
Come funziona questo processo che promette un metodo per assorbire attivamente gas serra e produrre energia insieme?
L’osservazione di partenza era stata fatta due anni prima da un altro gruppo quello di Takechi al laboratorio batterie della Toshiba. Lavorando sulle batterie Li-aria o ossigeno che sono comunemente considerate il Sacro Graal del settore per la loro altissima densità energetica, simile a quella dei combustibili fossili, scoprirono che aggiungendo CO2 al gas le performances della batteria miglioravano
È stata sviluppata una nuova batteria che utilizza gas misti di O2 e CO2 e ha dimostrato una capacità di scarica molto elevata. La capacità ha raggiunto il triplo di quella di una batteria Li-aria (O2) non acquosa. Il punto di forza della batteria dovrebbe essere il rapido consumo del radicale anione superossido da parte della CO2 e la lenta proprietà di riempimento del Li2CO3 nel catodo…. La caratteristica principale è il rapido consumo del radicale anione superossido da parte della CO2 e il lento riempimento del prodotto di scarica finale, Li2CO3, nel catodo. Sebbene la nuova batteria debba essere una batteria primaria a causa della difficoltà di decomposizione elettrochimica del Li2CO3 ….. la sua capacità di scarica molto elevata è prevista per una fonte di energia alternativa con l’uso di gas ricchi di CO2, come i gas di scarico dei veicoli o delle fabbriche. Inoltre, il meccanismo di base di questa batteria può essere esteso in linea di principio a sistemi non al litio.
Il concetto è che in aria, in fase liquida o a certe interfacce ci sono sempre anioni superossido O2–, derivanti dall’assorbimento di elettroni da parte di molecole di ossigeno atmosferico; l’ossigeno che comunemente viene rappresentato come una molecola bivalente in realtà è una molecola TRIVALENTE, con tre legami covalenti ed una coppia di elettroni spaiati, ciascun elettrone in un orbitale di antilegame (ossigeno tripletto che è paramagnetico, attratto debolmente); è questa sorta di biradicale che conferisce all’ossigeno la sua estrema reattività, ce lo dimentichiamo spesso quando parliamo di aria e di ossigeno. Ne abbiamo parlato tempo fa notando la somiglianza fra le molecole di allarme delle piante e quelle antinfiammatorie degli animali. D’altra parte il superossido è un esempio di ROS (specie di ossigeno radicaliche) di cui abbiamo parlato varie volte sul blog per i loro effetti sulla salute umana.

Se le cose stanno così è facile immaginare cosa succede:

Molteplici sono i meccanismi di generazione del superossido. Il superossido si forma nei mitocondri durante la respirazione cellulare, mentre in ambito inorganico può avere disparate origini (si vedano i riferimenti in fondo). Parte comunque dall’ossigeno tripletto ed assorbe un elettrone tendendo ad accoppiarlo.
La cosa importante confermata dal lavoro di Archer è che anche altri metalli oltre al litio, come sodio o alluminio (o anche zinco) vanno incontro alle stesse reazioni. Oggi c’è ricerca anche sulla possibilità di fare batterie ricaricabili basate sul medesimo processo, e anche sostituire i solventi organici con acqua, ma ne parleremo un’altra volta.
Perché poi ENI non investa anche in questo tipo di EFFETTIVE batterie a CO2 non lo capirò mai.
Riferimenti
https://pubs.acs.org/doi/10.1021/acs.chemrev.5b00407
https://www.sciencedirect.com/science/article/abs/pii/S0020169324005322
I colori dello spazio
Diego Tesauro
Una domanda viene spesso rivolta agli astronomi ed agli astrofili: Quali sono i colori reali degli oggetti celesti? Concorderete al termine della lettura di questo post che la domanda è mal posta e non è del tutto pertinente.
Oggi il rapporto con il cielo rispetto ai secoli passati è diventato difficile perché l’illuminazione delle città indiscriminata e male direzionata con grande spreco di energia, ne limita molto l’osservazione. Il futuro potrebbe essere un poco meno negativo da questo punto di vista con l’avvento delle luci a LED, e ci permetterà di nuovo di alzare gli occhi al cielo e notare che le stelle appaiono di diverso colore.
Come mai le stelle hanno un proprio colore? Navigando sui siti delle agenzie spaziali, di osservatori astronomici, ma anche di associazioni di astrofili, osserviamo fotografie di oggetti dello spazio come nebulose interstellari o planetarie e galassie e ne siamo estasiati come di fronte ad un quadro di Caravaggio o meglio, viste le tonalità dei colori, di Van Gogh o Mirò (Figura 1). Poi abbiamo l’opportunità di osservare alcuni di questi oggetti al telescopio o con un binocolo andando in montagna, dove ancora è possibile, almeno parzialmente, fuggire dalle luci spurie, e stentiamo a riconoscerli, in quanto ci appaiono monocromatici o più spesso emettitori di luce bianca. E allora ci poniamo la domanda su quali siano i colori reali.


Figura 1: 1° La nebulosa Rosetta è una regione HII distante 5200 anni luce 2° la Galassia di Andromeda è una galassia distante 2 milioni di anni luce che insieme alla nostra, ad M33 ed alle nubi di Magellano costituiscono l’ammasso Gruppo Locale (Immagini della Galleria dell’Unione Astrofili Napoletani https://www.unioneastrofilinapoletani.it/it/bwg_album/galleria-fotografica-uan/)
Per poter dare una risposta occorre ricordare che gli oggetti celesti, emettono radiazione elettromagnetica a tutte le lunghezze d’onda, ma quelle che riescono ad attraversare l’atmosfera sono una parte delle onde radio e la stretta zona che chiamiamo finestra del visibile perché abbiamo un organo, l’occhio, capace di catturarla.

Figure 2 Spettro elettromagnetico visibile
Fanno eccezione i cinque pianeti del sistema solare visibili ad occhio nudo che riflettono una parte dello spettro visibile, assorbendo tutte le altre radiazioni. Le nebulose, essendo costituite da gas ionizzato, emettono radiazione elettromagnetica a lunghezze d’onda che dipendono dalla loro composizione chimica (solitamente sono dominate dall’idrogeno ionizzato quello che gli astronomi classificano come HII) (Figura 1). Ora la radiazione elettromagnetica, giungendo ai nostri occhi, in funzione dell’intensità delle diverse lunghezze d’onda, viene tradotta dai coni, le cellule fotorecettrici presenti sulla retina dei nostri occhi, in un segnale elettrico che il nostro cervello elabora in un colore. Quindi i colori sono soltanto una percezione del nostro cervello attraverso l’occhio, che media le intensità delle radiazioni a diverse lunghezza d’onda che arrivano sulla retina. Un lavoro simile compiono i CCD demandati alla ripresa delle nebulose e a fornici le splendide immagini presenti sui siti on line. I CCD raccolgono solo l’intensità della radiazione. Per fornire le immagini a colori sono dotati di filtri RGB (red-green-blue) (Figura 3) che alternativamente catturano le intensità di lunghezza d’onda corrispondenti ai tre colori e li traducono in segnali elettrici, che poi vengono trasformati dai programmi informatici nelle splendide immagini. Quindi i filtri permettono di osservare solo determinate lunghezze d’onda, escludendone altre. Per l’osservazione se ne possono usare diversi per esaltarne qualcuna delle lunghezze d’onda in particolare bloccando contemporaneamente le altre che potrebbero compromettere la qualità e i dettagli dell’immagine. Ad esempio negli ultimi decenni, anche a livello amatoriale, si sono diffusi i filtri O III che raccolgono le lunghezze d’onda a 500.7 nm e a 495.9 nm (Figura 3) generate dall’ossigeno due volte ionizzato* che permettono un notevole aumento nel contrasto dell’oggetto osservato come le nebulose di gas interstellare ad emissione, le nebulose planetarie e i resti di supernove riducendo l’effetto dell’inquinamento luminoso che è meno pronunciato a queste frequenze.


Figura 3 Filtri RGB e Spettro in trasmittanza del filtro O III
E le stelle come mai appaiono di diverso colore? In questo caso dobbiamo riferirci allo spettro del corpo nero teorizzato da Planck. Le fotosfere stellari (le zone dell’atmosfera stellare da cui ci giunge la maggior parte della radiazione visibile) si comportano emettendo radiazione a tutte le lunghezze d’onda con una curva che ha un massimo di intensità in funzione della temperatura della fotosfera stessa (Figura 4). Sullo spettro poi compaiono delle righe oscure dovute all’assorbimento della radiazione da parte degli elementi chimici presenti nella fotosfera, ma di questo argomento si è già occupato un altro post. Pertanto se la temperatura della fotosfera è 2000-3000 K, come ad esempio in Betelgeuse, che osserviamo nella spalla della costellazione di Orione (Figura 5) oppure in Antares della costellazione dello Scorpione, il massimo sarà posizionato ad una lunghezza d’onda che il nostro occhio tradurrà in rosso, se la stella ha una temperatura di 5000-6000, come il nostro Sole, emetterà intensità di radiazione simile nel rosso e nel verde per cui il nostro occhio tradurrà il colore della stella in giallo (Figura 6).

Figura 4 Curve di emissioni del corpo nero. Il massimo delle emissioni dipende dalla temperatura del corpo
E così via salendo fino ai 10.000 K di temperatura , le stelle giungeranno ad emettere nel colore blu come Rigel il piede di Orione. (Figura 5)


Figura 5 Sopra immagine della Costellazione di Orione, in cui si evidenzia il colore rosso di Betelgeuse e blu di Rigel. Sotto la stessa costellazione ottenuta come un mosaico scattando le singole stelle messe fuori fuoco, con uno smartphone all’oculare di un telescopio Dobson da 18″a 285 ingrandimenti. (Immagine di Paolo Palma dell’Unione Astrofili Napoletani)
Ma, scorrendo lo spettro elettromagnetico a frequenza più elevata, prima di giungere al blu, troviamo il colore verde, per cui se ci sono stelle con una temperatura attorno ai 7000 °C, queste avrebbero un massimo di emissione nel verde. E come mai, se osserviamo il cielo non le vediamo? Sono rare oppure non esistono? In realtà ci sono ma non percepiamo il verde in quanto, trovandosi questo colore in mezzo allo spettro visibile, queste stelle emetteranno anche grandi quantità di luce rossa e blu. I nostri coni percepiranno quindi una radiazione verde intensa, sommata a luce rossa e blu in quantità molto simili. Il colore risultante dalla somma dei tre segnali è il bianco, e pertanto vedremo una stella bianca e di queste stelle ne osserviamo tante come ad esempio la luminosissima Sirio del Cane maggiore o Vega della Lira. All’estremità dello spettro troviamo il viola ed allora perché non osserviamo stelle di questo colore che dovrebbero avere una temperatura al di sopra dei 20000 K? Ancora una volta dipende dalla nostra percezione del colore viola che osserviamo quando si attivano contemporaneamente i recettori per il rosso e per il blu. Ma essendo il rosso e il blu agli estremi dello spettro visibile, la stella non può avere il picco in entrambi i colori. Le stelle molto calde hanno un picco di emissione nelle lunghezze d’onda del viola, che però attiva principalmente i coni sensibili al blu. Il risultato è che queste stelle ci appariranno comunque blu. Se poi nell’osservazione applichiamo dei filtri, l’immagine che avremo è diversa in quanto ci riprodurrà la zona dell’atmosfera stellare da cui proviene quella lunghezza d’onda che stiamo selezionando. Il filtro Hα seleziona la lunghezza di onda di 6562,81 Å relativa all’ emissione dell’atomo di idrogeno in cui l’elettrone passa dal terzo al secondo livello energetico (il primo della serie di Balmer). Questo filtro ci permette di osservare una zona dell’atmosfera solare diversa rispetto alla fotosfera, la cromosfera a temperatura più alta e sovrastante la zona precedente (Figura 6).


Figura 6 Sopra Immagine del Sole in luce bianca della fotosfera solare, sotto con un filtro in Ha immagine della Cromosfera. Le due zone diverse dell’atmosfera ci fanno apparire l’immagine ed il colore del Sole diverso.
Allora se gli oggetti celesti ci appaiono colorati, è soltanto una nostra percezione e possiamo solo dire che gli oggetti celesti emettono radiazione elettromagnetica a diverse lunghezza d’onda e che questa è l’unica proprietà intrinseca. Quindi parlare di colori reali è fuorviante, quella che vogliamo chiamare realtà è solo una nostra percezione sensoriale soggettiva dell’occhio umano di catturare i fotoni emessi ad una determinata lunghezza d’onda dall’oggetto celeste. Quindi il colore non è un’intrinseca caratteristica e tantomeno della maggior parte degli oggetti colorati che ci circondano che riflettono parzialmente la radiazione incidente. Pertanto in mancanza di radiazione, tutti gli oggetti non hanno colore, per cui Hegel, definendo l’assoluto di Schelling, poteva affermare che la notte tutte le vacche sono nere.
* si proprio lo ione O2+ che a noi chimici può sembrare strano osservare in quanto un atomo elettronegativo perde due elettroni, ma le energie in gioco spesso nelle nebulose e nelle stelle non sono minimamente comparabili a quelle presenti nei legami chimici e quindi nei reattori utilizzati in laboratorio.
Troppi farmaci.
Luigi Campanella, già Presidente SCI
Negli anni 90 l’UE lanciò un allarme: i cittadini europei consumano troppi farmaci con molte conseguenze negative, la crescita della spesa sanitaria, l’aumentata resistenza dei batteri agli antibiotici, il crescente inquinamento di acqua e suolo da parte dei farmaci e loro metaboliti.
In particolare i fiumi di Europa rivelarono concentrazioni che nel caso di un mantenuto gradiente di crescita avrebbero comportato la fine della vita nei fiumi. Alla ricerca di responsabilità ne furono individuate 3:
-il consumo eccessivo collegato anche alla facilità di prescrizione,
-l”inadeguato funzionamento dei depuratori rispetto a questo tipo di rifiuto
-le confezioni commerciali sovradimensionate rispetto alle reali esigenze.

Quest’ultimo punto fu stimato incidere per circa 3 miliardi l’anno. Per quanto riguarda i depuratori l’UE lanciò una serie di progetti finalizzati ad integrare i depuratori con dispositivi capaci di degradare i composti farmaceutici smaltiti. Bio e foto degradazione furono i metodi più studiati ed alcuni di essi trovarono anche applicazione diretta con abbattimenti del carico farmaceutico in uscita dell’ordine fino all’85%.
Per quanto riguarda invece le confezioni il punto chiama in causa l’industria farmaceutica tentata dal facile guadagno a produrre farmaci in confezioni “più piene” del necessario. In effetti lo spreco può anche essere attivato da confezioni troppo povere che obbligano ad un nuovo acquisto che poi non può essere completamente consumato. Il problema vale anche per i farmaci veterinari, per i quali esistono norme più rigide soprattutto con riferimento alla periodicità di assunzione nel caso di patologie croniche. Il problema è stato affrontato in vari Paesi: le soluzioni più comuni sono le confezioni monouso, le confezioni allestite direttamente dal farmacista, lo spacchettamento e riconfezionamento delle confezioni contenenti dosi residue.
Solo in alcune realtà regionali ed ospedaliere queste linee guida hanno trovato reale applicazioni: in attesa di iniziative ulteriori e di norme più responsabili non si può fare a meno di rivolgersi al senso etico dei cittadini e quindi di affidarsi alla comunicazione verso loro da parte della rete scientifica.
La chimica ha fatto in passato la sua parte sia sul fronte della condivisione della conoscenza che in quello della innovazione scientifica a contrastare tutti gli abusi e malusi di composti preziosi, quali sono i farmaci.
https://www.aifa.gov.it/-/l-uso-dei-farmaci-in-italia-rapporto-osmed-2023 L’agenzia AIFA pubblica ogni anno un rapporto sul consumo dei farmaci nel nostro paese. Il rapporto OsMed.
https://www.repubblica.it/salute/2022/10/21/news/prendiamo_troppi_farmaci_cominciamo_a_deprescrivere-370579473/Oltre la Chemofobia: un questionario-gioco per le PMI italiane.
Fabrizio Demattè*

In un contesto in cui la sicurezza dei prodotti e la trasparenza lungo la filiera produttiva diventano sempre più cruciali, le piccole e medie imprese italiane si trovano ad affrontare una sfida complessa: come gestire in maniera efficace i regolamenti REACH, CLP e BPR senza cadere nella trappola della “chemofobia”.
La sfida della conformità nelle PMILe normative chimiche europee – tra cui REACH, CLP e BPR ed il recentissimo Regolamento 2023/988 per la sicurezza generale dei prodotti – sono concepite per garantire la sicurezza dei lavoratori, tutelare l’ambiente e assicurare prodotti salubri per il consumatore finale. Tuttavia, nelle realtà delle PMI italiane, spesso una sola figura si ritrova a dover gestire simultaneamente adempimenti regolatori, legali, amministrativi, sicurezza e persino gli aspetti legati agli acquisti. In questo scenario, la mancanza di informazioni di base e una chiara comprensione delle responsabilità del legale rappresentante possono trasformare la compliance in un onere insormontabile.
A complicare ulteriormente la situazione, il consumatore moderno è sempre più attento alla sicurezza del prodotto. L’entrata in vigore del nuovo regolamento europeo sulla sicurezza generale dei prodotti ha evidenziato come l’aspetto chimico non sia più un dettaglio marginale, bensì un elemento centrale nella di affidabilità e qualità.
Chemofobia: un pregiudizio che ostacola l’innovazioneLa diffidenza verso la chimica – quella cosiddetta “chemofobia” – non è soltanto una questione di ignoranza, ma spesso nasce da un’avversione aprioristica che permea molte organizzazioni. Tale approccio impedisce, come un invalicabile ostacolo, alle aziende di approfondire e sfruttare a proprio vantaggio le normative, vedendole come un fardello anziché come strumenti per elevare la qualità del prodotto e la sicurezza sul lavoro.
Come chimici, abbiamo il dovere di dimostrare. Cioè avere una azione propositiva nel mostrare con onestà, trasparenza e l’accurata comunicazione delle proprietà delle sostanze, anche quelle “nascoste” negli oggetti di uso quotidiano, sono fondamentali per un sistema produttivo responsabile e competitivo.
Nell’uso corrente delle realtà produttive prevale la descrizione all’uso e non alla natura delle sostanze, l’approccio “sostanza-centrico” del chimico è richiesto e auspicato nel momento in cui si va oltre gli stereotipi bloccanti.
Il questionario-gioco: un approccio innovativo all’autovalutazionePer aiutare le aziende a uscire da questo circolo vizioso, proponiamo l’utilizzo di un breve questionario presentato sotto forma di gioco. Questo strumento di autovalutazione è studiato per:
- Stimolare la consapevolezza: Porre domande che molte aziende non si sono mai poste, portando alla luce aspetti critici della gestione delle sostanze pericolose.
- Semplificare concetti complessi: Tradurre il linguaggio tecnico dei regolamenti in un lessico più accessibile, facilitando l’ingresso di questi concetti nel quotidiano dell’azienda.
- Favorire l’apprendimento trasformativo: Grazie a un feedback immediato, il questionario guida l’utente verso una comprensione più profonda delle normative, evidenziandone i benefici in termini di sicurezza, salute e competitività.
L’obiettivo è quello di trasformare la percezione dei regolamenti da mero obbligo burocratico a leva strategica per la crescita e l’innovazione e la concorrenza.
Conoscere per comunicare: la necessità di una trasparenza totaleUn aspetto cruciale riguarda la corretta comunicazione lungo l’intera catena di approvvigionamento, dal processo di sintesi delle sostanze fino al consumatore finale. Quando una sostanza preoccupante per l’Europa viene ad essere in un oggetto deve esser comunicato secondo l’articolo 33 del REACH, con una sanzione che parte da cinquemila euro. Purtroppo, l’articolo 33 è ancora troppo spesso disatteso, e nonostante l’impulso dato dallo strumento SCIP, siamo ben lontani dal raggiungere un pieno dominio nella gestione delle sostanze preoccupanti.
Solo attraverso una comunicazione onesta, oggettiva e precisa sarà possibile elevare il livello di sicurezza e fiducia in ogni anello della catena produttiva. È indispensabile che le aziende comprendano la reale presenza delle sostanze pericolose e adottino misure proattive per gestirle, trasformando un potenziale rischio in un valore aggiunto.

Adottare un approccio “sostanza-centrico” nelle PMI rappresenta una sfida, proprio perché richiede competenze specialistiche che spesso non sono a disposizione in piccole realtà aziendali. Per questo, è necessario rendere il percorso il più semplice possibile:
- Semplificazione del linguaggio: Tradurre i concetti tecnici in termini comprensibili, facendo in modo che anche chi non è un esperto di chimica possa afferrare le implicazioni dei regolamenti.
- Formazione mirata: Promuovere corsi e workshop che possano fornire a imprenditori e responsabili un quadro chiaro delle responsabilità e delle opportunità derivanti dalla compliance.
- Strumenti pratici: Utilizzare il questionario-gioco come trampolino di lancio per un percorso di autovalutazione e miglioramento continuo, che contribuisca a elevare la cultura della sicurezza e della trasparenza.
Solo dopo che si è creata fiducia e comprensione è possibile introdurre il potente strumento analitico che adombra in pochi passaggi centinaia di documenti inconsistenti.

Nel panorama attuale, la gestione delle sostanze pericolose è vista come un peso, ma un investimento culturale anche minimo può creare un grande risultato di valore nel prodotto. Superare la chemofobia significa adottare una visione integrata e trasparente, in cui ogni fase della produzione è orientata al miglioramento continuo della sicurezza e della qualità.
La proposta è quella di Utilizzare strumenti innovativi come il questionario-gioco per avviare un percorso di autovalutazione e suscitare desiderio di formazione. Comunicare in modo chiaro e trasparente lungo tutta la catena di approvvigionamento, trasformando la gestione della conformità in un vantaggio competitivo, sia verso i fornitori che verso i clienti. Abbracciare la semplificazione come strategia per rendere accessibili concetti complessi e diffondere una cultura della sicurezza che coinvolga ogni attore del sistema produttivo e commerciale. Rafforziamo i nostri sforzi culturali attorno alla fondamentale e inalienabile esigenza di ogni cittadino di essere protetto come consumatore, rendendo questa tutela il pilastro di un mercato più responsabile e sicuro.
Superando i pregiudizi e investendo nella conoscenza, le PMI italiane potranno trasformare la complessità normativa in un’opportunità di crescita, rafforzando la fiducia dei consumatori e contribuendo a un futuro più sicuro e sostenibile per tutti. Il ruolo della chimica e dei chimici potrebbe subire un necessario viraggio verso tinte di miglior visibilità e consenso.
Link allo strumento https://chimicodematte.net/2025/01/28/autovalutazione-conformita-reach-clp-bpr/
*Fabrizio Demattè è un chimico libero professionista a Trento e socio SCI, specializzato nella sicurezza delle sostanze chimiche. Consulente e formatore per aziende e istituzioni, traduce il linguaggio tecnico e normativo in informazioni pratiche e accessibili, promuovendo pratiche di uso sicuro delle sostanze chimiche e la salute dei lavoratori. Attivo nell’Ordine dei Chimici e Fisici, sostiene la “buona chimica” in ogni settore, dal latte in polvere alle componenti automobilistiche.
Ritrattazione obbligatoria.
Luigi Campanella, già Presidente SCI
L’ultima mossa dell’amministrazione Trump, volta a imporre la ritrattazione di articoli scientifici, ha sollevato una questione di grande rilievo: la volontà delle principali riviste di difendere l’integrità del processo di divulgazione del sapere. In risposta a tale pressione, le pagine di due istituzioni internazionali ‚ The Lancet e il BMJ ‚hanno espresso un rifiuto netto alla ritrattazione, segnando un punto di svolta decisivo (vedi note in fondo).

La questione è forse più delicata di quanto possa sembrare perché l’imposizione alla ritrattazione, quando collegata ad un aggiornamento della ricerca, può anche essere considerata un elemento di chiarezza che eviti a chi studia di trovarsi di fronte a bibliografie talmente contrastanti fra loro da rappresentare un ostacolo al progresso scientifico. Diverso è il discorso se l’imposizione viene da un centro di potere politico o economico per interessi di parte. La trasparenza e condivisione dei dati scientifici non possono rifiutare il confronto scientifico e non possono considerare inaccettabile qualsiasi ritrattazione, purché avvenga su basi scientifiche. L’etica del comportamento può entrare in gioco in certi settori della scienza: costruire ad arte credibilità su farmaci o cure, sostenere quasi al buio qualità alimentari superiori di certi cibi creano aspettative nell’utenza con ritorni economici ingiusti per chi le ha lanciate.
Però ci possono essere situazioni diverse: ad esempio, il fatto che un esperimento funzioni solo in un caso molto particolare, ma non possa essere replicato in altri, potrebbe essere indizio di qualcosa di nuovo e non ancora noto, che potrebbe essere compreso solo grazie a conoscenze o tecnologie non ancora disponibili.
La ritrattazione, invece, implica che l’articolo non debba in nessun caso essere usato come base per futuri studi, e che il suo risultato, se rimanesse negli archivi e nei database, inquinerebbe la letteratura scientifica. Per quanto capiti, dopo la pubblicazione, di trovare un grave errore in un lavoro e magari gli stessi autori ne possano chiedere la ritrattazione, la principale causa è la scoperta di qualche forma di frode scientifica: la falsificazione di dati, il plagio, la pubblicazione multipla dello stesso risultato.
https://www.bmj.com/content/388/bmj.r253
https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(25)00237-5/fulltext
Microplastiche e depurazione
Mauro Icardi
I materiali plastici hanno avuto ed hanno tuttora un ruolo fondamentale nella società moderna, e la produzione di polimeri sintetici è aumentata in tutto il mondo negli ultimi decenni, fino raggiungere 413.8 milioni di tonnellate nel 2023 (Statista, 2025).
Le microplastiche, particelle di dimensioni inferiori a 5 mm, sono ora riconosciute come un problema a livello mondiale per la loro diffusione ubiquitaria.
Le microplastiche primarie sono prodotte direttamente con dimensioni microscopiche per essere utilizzate nella tecnologia come agenti abrasivi in prodotti per la cura della persona. L’uso nei cosmetici è stato recentemente vietato o limitato in alcuni paesi come Stati Uniti, Regno Unito e Canada.
La maggior parte delle microplastiche presenti nell’ambiente sono però, di origine secondaria, derivanti dalla degradazione dei rifiuti di plastica o dal lavaggio dei tessuti sintetici. E questi particolari residui finiscono nelle reti fognarie, e nei depuratori. Particelle con queste dimensioni non possono essere trattenute da impianti di grigliatura tradizionale.
Uno studio effettuato in collaborazione con l’università politecnica delle Marche ha cercato di iniziare a focalizzare il problema. Va detto che le microplastiche tendono a concentrarsi nei fanghi di risulta, e che in ogni caso le quantità rilasciate dalle acque scaricate restano comunque notevoli. Lo studio effettuato su di un depuratore di grandi dimensioni del Nord Italia, ha mostrato i seguenti dati: le concentrazioni misurate di microplastiche (2.5 frammenti/L nel refluo in ingresso al depuratore e circa 0.4 frammenti/L in uscita) raggiungono una percentuale di abbattimento pari all’84%. Le analisi sono state effettuate utilizzando spettrometro IR in Trasformata di Fourier, dotato di microscopio µATR (µFT-IR).

Tuttavia, considerando che questo impianto tratta circa 400.000.m3/giorno di refluo, il potenziale rilascio di microplastiche nel corpo idrico recettore risulterebbe di circa 160 milioni di frammenti al giorno, principalmente costituiti da poliesteri (35%) e poliammide (17%).
Oltre a questo uno studio dello scorso anno, condotto in Norvegia ha rilevato l’insorgere di una nuova problematica: la colonizzazione delle microplastiche con biofilm batterici. Il principio non è nuovo. Tutti i sistemi di trattamento a biomassa adesa, dai filtri percolatori (ormai generalmente in disuso), ai biofiltri rotanti, fino ai più recenti sistemi MBR (sistemi a biomassa adesa a letto fluido), sfruttano la capacità di microrganismi e microfauna, di costituire una pellicola di biofilm adesa a “carrier”, ovvero supporti in plastica, presenti nel reattore-biologico. L’effluente da trattare ,entrando a contatto con la superficie del biofilm microbico viene assorbito, diventando substrato di reazione per i microrganismi. Questi ultimi tramite la propria attività metabolica e l’impiego di specifici enzimi riescono ad utilizzare come metaboliti di reazione i vari inquinanti chimici presenti nel refluo. Se questa proprietà si esplica sui granelli di microplastiche disperse nei vari stadi del processo depurativo, è ovvio che sarà un’attività che non è controllata, e quindi potenzialmente potrebbe diventare un sito di sviluppo di per il trasferimento di geni, compresi quellidi resistenza agliantibiotici (Arg), oppure diminuire l’efficacia dei trattamenti di depurazione.
Il parlamento Europeo ha già emanato la nuova direttiva acque: essa prevede che dal 2045 un trattamento aggiuntivo che elimina un ampio spettro di microinquinanti (“trattamento quaternario”) sarà obbligatorio per tutti gli impianti superiori a 150,000 A.E.(*) (e oltre 10,000 A.E. sulla base di una valutazione del rischio). La frase esatta è:
In order to give Member States enough time to plan and deliver the necessary infrastructure, the requirement of quaternary treatment should progressively apply until 2045 with clear interim objectives.
Il monitoraggio di vari parametri di salute pubblica (come virus noti e agenti patogeni emergenti), inquinanti chimici, comprese le cosiddette “sostanze chimiche eterne” (sostanze per- e polifluoroalchiliche o PFAS), microplastiche e resistenza antimicrobica dovrà essere rigorosamente monitorato.
I trattamenti quaternari andranno a modificare profondamente le strutture degli impianti di depurazione. Ad esempio il trattamento di grigliatura si dovrà probabilmente sdoppiare, tra quello grossolano in ingresso che oggi è definito trattamento primario, ed un trattamento di setacciatura e micro grigliatura e filtrazione a monte dei trattamenti di filtrazione e disinfezione finale, che farà parte dei trattamenti quaternari.
Allo stesso modo la tipologia di apparecchiature in dotazione ai laboratori dovrà essere incrementata. La mia idea sarebbe quella di avere laboratori di gestione del processo che possano fornire dati utili alle manovre e correzioni immediate da fare in impianto, e laboratori più sofisticati per la valutazione del rispetto dei limiti parametrici. Qualcosa di simile è già in progetto dove lavoro, ovvero la creazione di un laboratorio per l’utilizzo e la gestione delle prove sugli impianti pilota.

Per chi come me è appassionato di cinema non può non tornare alla mente questo scambio di battute del film “Il Laureato”.
«Voglio dirti un parola sola. Solo una parola».
«Sì, signore».
«Mi ascolti?».
«Sì, signore».
«Plastica».
«Non credo di aver capito».
«L’avvenire del mondo è nella plastica. Pensaci. Ci penserai?».
«Certamente».
«Bravo».
Il film è del 1967, da allora molte cose sono cambiate. La profezia dell’avvenire del mondo nella plastica va ripensata L’avvenire del mondo è cambiato, dovrà cambiare la depurazione, dovrà cambiare la chimica. Ma prima di ogni cosa dobbiamo cambiare noi. Il tempo stringe e le sfide sono molteplici.
Nota: Con abitante equivalente (AE), o carico organico specifico, viene indicata, nel campo dell’ingegneria sanitaria, la quantità di sostanze organiche biodegradabili, derivate da un’utenza civile o assimilabile a questa, convogliate in fognatura nell’arco temporale di un giorno (24 ore) cui corrisponde una richiesta biochimica di ossigeno a 5 giorni (120 ore) pari a 60 grammi di O2 al giorno.
Link di approfondimento:
https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0312157
https://www.frontiersin.org/journals/microbiology/articles/10.3389/fmicb.2024.1395401/full