slideshow 16 slideshow 1 slideshow 2 slideshow 3 slideshow 4 slideshow 5 slideshow 6 slideshow 7 slideshow 8 slideshow 0 slideshow 9 slideshow 10 slideshow 11 slideshow 12 slideshow 13 slideshow 14 slideshow 15

BLOG: LA CHIMICA E LA SOCIETA'

Syndicate content La Chimica e la Società
Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.
Updated: 2 weeks 6 days ago

Resistenza batterica agli antibiotici: la prossima pandemia?

7 September, 2021 - 08:47

Claudio Della Volpe

Come sapete Nature è oggi un brand, non più solo una rivista scientifica; in particolare alcune delle sue iniziative non sono del tutto autonome, ma pur rivendicando libertà editoriale sono “supportate” da marchi altrettanto prestigiosi. Nell’ottobre 2020 Nature ha dedicato un Nature outlook, ossia una sorta di numero speciale alla questione della resistenza antibiotica.

Il numero era supportato da un marchio sconosciuto in Italia ma non nel mondo, un marchio giapponese Shionogi, che non distribuisce col suo nome ancora alcun farmaco in Italia, ma che si sta organizzando per farlo.

Detto questo cosa diceva il numero di Nature outlook?

Beh parecchie cose su questo problema che è uno dei maggiori e che per il suo impatto sulla salute e la società si avvicina molto a quello di una pandemia come la attuale.

L’uso estensivo ED IMPROPRIO di antibiotici sia nella terapia umana che animale, e, ancor meno giustificabile, nell’allevamento del bestiame, dove l’antibiotico sostituisce un allevamento “fatto come si deve”, guidato essenzialmente da ragioni di profitto, ha fatto si che al momento esistano batteri, specie in ambito ospedaliero, che sono resistenti a TUTTI, ripeto tutti gli antibiotici conosciuti. Antibiotici vengono rilasciati in ambiente dai nostri depuratori che non sono spesso in grado di gestirli e il rischio di diffondere specie di batteri comuni ma resistenti a tutti gli antibiotici e portarci dunque in un’era pre-antibiotica è altissimo.

Al momento la resistenza antibiotica fa 700mila vittime all’anno nel mondo secondo i dati dell’ONU e questo numero, se non si fa nulla, potrebbe crescere moltissimo fino ad arrivare a parecchi milioni all’anno nei prossimi decenni; dato che una soluzione non è banale da trovare e la ricerca di nuovi antibiotici è costosa e lunga non è sbagliato porre il problema adesso per il futuro.

Per capire di cosa parliamo nel concreto facciamo qualche esempio dalla pagina

https://labtestsonline.it/articles/batteri-resistenti-agli-antibiotici

Nel 2013 l’ente statunitense CDC ha identificato i 18 microrganismi più pericolosi presenti negli Stati Uniti, classificandoli in 3 categorie: urgenti, seri e preoccupanti. Nelle prime due categorie rientrano i microrganismi per i quali è necessario un monitoraggio ed una prevenzione più stringente, mentre nell’ultima categoria rientrano i microrganismi per i quali è necessario un monitoraggio occasionale, nell’eventualità di epidemie.

Enterobacteriacee resistenti ai carbapenemi (CRE): le infezioni operate da Escherichia coli e Klebsiella stanno aumentando, diffondendosi perlopiù negli ospedali e negli istituti di ricovero e con una resistenza a quasi tutti gli antibiotici disponibili. Per quanto riguarda Klebsiella, la percentuale di resistenza in Italia è del 34%, una delle percentuali più alte in Europa insieme a Grecia e Romania.

Gonorrea farmaco resistente: si tratta di un’infezione sessualmente trasmessa resistente alla cefalosporina, il farmaco di elezione per il trattamento di questa patologia. L’impossibilità di utilizzare la cefalosporina comporta l’inizio di un protocollo terapeutico più complesso e lungo. Negli Stati Uniti, degli 820.000 casi di gonorrea stimati annualmente, 246.000 sono resistenti a tutti gli antibiotici disponibili.

Secondo i dati raccolti dall’Istituto Superiore di Sanità, in Italia, la resistenza agli antibiotici per le specie batteriche sotto sorveglianza, si mantiene tra le più elevate d’Europa ed interessa perlopiù le specie batteriche Escherichia coli e Klebsiella pneumoniae, resistenti a quasi tutti gli antibiotici disponibili, Pseudomonas aeruginosa e Acinetobacter spp, responsabili soprattutto di multiresistenze, Staphylococcus aureus, resistente alla meticillina e, Streptococcus pneumoniae, responsabile di polmoniti e sepsi in pazienti ospedalizzati.

Quali sono i motivi di questa situazione e cosa fare per gestirla?

La descrizione più comune della antibiotico resistenza è quella “microscopica” per così dire focalizzata sui batteri e descritta in questa immagine:

Secondo questa descrizione, peraltro giusta sul suo livello “micro”, la resistenza ad un attacco chimico pertiene al batterio come tale che può selezionarsi od acquisire la resistenza da altri batteri, ed è un comportamento tipico degli esseri viventi non solo dei batteri, virus, ma anche piante o insetti si selezionano e perfino esseri umani; tuttavia una analisi più complessiva, più olistica del problema ne può sottolineare la natura sistemica, descritta invece nella seconda figura, in cui si sottolineano gli aspetti ecologici e sistemici del problema.

L’origine di questa più complessa concezione può essere fatta risalire ad un bell’articolo che lessi molti anni fa sulla EST Mondadori, “L’unificazione microbica del mondo”, pubblicata insieme alla prima versione di “Limits to growth”, al principio degli anni 70.

Fu infatti nel 1973 che Emmanuel Le Roy Ladurie inventò il concetto di malattie della globalizzazione, dovute all’”unificazione microbica del mondo”. In effetti già nel 1347 dodici navi portarono dalla Crimea a Messina grano, topi e appestati portando la peste in Europa. Nel 1493 la caravella Niña, proveniente dal Nuovo Mondo, sbarcava a Lisbona la sifilide che in tre anni portò alla prima unificazione dell’Europa cinquecentesca, quella sessual-treponemica. (https://www.avvenire.it/opinioni/pagine/lironica-rivincita-dei-piccoli-mondi-antichi_200904300815015000000 )

La formidabile spinta economica umana alla crescita globale, alla globalizzazione è alla base della massiccia distruzione di biodiversità non solo fra gli animali superiori, ma anche fra i batteri e i virus. L’articolo de L’avvenire che citavo si intitola: L’ironica rivincita dei piccoli mondi antichi; in definitiva la rete naturale è fortemente glocale, ossia è globale si ma è in realtà l’unione di forti strutture locali in una rete globale che ne mantiene un isolamento relativo. La nostra economia o meglio la nostra attuale forma economica, il capitalismo, porta invece ad una unificazione profonda e dunque al superamento dell’antico isolamento “naturale”; la scelta umana di poche specie di piante ed animali più “utili”, più “produttive” concorre da una parte a ridurre la diversità complessiva e dall’altra accresce il numero di ospiti suscettibili, uomini compresi. Quel che segue è la formazione di “sistemi” resistenti non solo di batteri o virus ma ambienti di ogni tipologia, ospedali, persone, comunità genetiche, batteri singoli e geni resistenti, strutturati come scatole cinesi. Il flusso della resistenza è bidirezionale dal gene alla comunità e dalla comunità al gene.I nativi americani non resistenti alle malattie importate dagli europei morirono come le mosche e il loro potenziale genetico fu distrutto come avviene con la popolazione batterica del nostro intestino quando arrivano antibiotici “ad ampio spettro”. Alla fine l’intero continente americano fu europeizzato quanto a malattie, così come i topi portatori della peste ci asiatizzarono durante le potenti pandemie a partire dal 1300

A differenza dei batteri noi non siamo capaci di scambiarci geni così velocemente e soprattutto lo facciamo solo tramite il sesso, mentre i batteri e i virus lo fanno anche in altri modi tramite scambi diretti di materiale genetico non con riproduzione sessuale.

Inoltre la riproduzione umana viaggia su scale di decenni mentre quella batterica o delle piante o degli insetti può essere molto più veloce, su scala perfino di minuti od ore. Tutto ciò ci aiuta comprendere che  si tratta di fenomeni naturali ma che non comprendiamo ancora completamente e che al momento governano le  nostre attività e preparano per noi situazioni impreviste.

Gli antibiotici come strategia antibatterica non sono unica, si può pensare come minimo ad altre due strategie:

-i batteriofagi, ossia i virus specifici dei batteri, un’idea sviluppata dai Russi a cavallo fra le guerre mondiali (si veda la pagina dell’istituto Eliava di Tbilisi o anche https://it.wikipedia.org/wiki/Terapia_fagica)

-oppure gli inibitori del Quorum -sensing, ossia molecole che interferiscono con le comunicazioni fra batteri specie nelle fasi avanzate di infezione in cui gli antibiotici sono in difficoltà.

Mentre la nostra cultura medica è dominata dagli antibiotici queste alternative iniziano a farsi strada anche da noi e trovano applicazioni in alcuni paesi o casi specifici.

Se ci limitiamo agli antibiotici, e sottolineo ci limitiamo, possiamo notare i fatti seguenti:
– l’elemento determinante è il costo di sviluppo degli antibiotici, calcolato nell’ordine di alcuni miliardi di euro ognuno e il tempo necessario alla loro messa  a punto: 10-15 anni ;

-le conseguenze del costo elevato e del tempo lungo sono a loro volta duplici: da una parte chi sviluppa l’antibiotico  deve rifarsi delle spese e dunque tende a venderlo in ogni dove “ad ampio spettro” come si dice anche quando sarebbe medicalmente logico non farlo e dunque ogni infezione , ma perfino OGNI specie uomo od animale viene curato con quell’antibiotico ed in ogni parte del mondo eventualmente per ridurre le spese di sviluppo con piccole modifiche non cruciali o realmente  innovative, ma solo finalizzate a superare i vincoli brevettuali ed a minimizzare le spese private ed a massimizzare i profitti, senza riguardo alla logica naturale che vorrebbe un uso non globalizzato, da “piccole patrie”, solo nei casi necessari, solo nelle comunità batteriche dove l’efficacia è maggiore.

– questo ha portato al fatto che il numero degli antibiotici in sviluppo si è ridotto fortemente proprio mentre si sviluppano in maniera crescente le resistenze a quelli che possediamo già.

Per superare questi problemi si propone da parte di alcuni di finanziare la ricerca privata (da parte dello stato, da parte di associazioni benefiche o da parte dei futuri utenti (il cosiddetto modello Netflix, in pratica pagare un abbonamento per la terapia antibiotica(sic!)) che ovviamente è una strategia che non risolve affatto il problema di fondo, aiuta le grandi multinazionali ma non l’umanità nel complesso, che necessita invece di strategie culturali nell’uso degli antibiotici che ne riducano la globalizzazione e casomai di tecnologie di analisi ed individuazione rapida dei batteri responsabili di un’infezione specifica; ma al momento serve troppo tempo per fare questo, una coltura batterica è semplice da realizzare ma può arrivare nel concreto a vari giorni e nel frattempo il paziente può andare incontro a gravi complicazioni.

In un altro articolo Nature commenta i recenti metodi per accelerare il processo di analisi batterica: Nature | Vol 596 | 26 August 2021 | 611 ; un metodo molto veloce è quello basato sull’analisi genomica dei batteri che si può attuare in ore; il problema è capire dal gene quale meccanismo di resistenza il batterio possegga o se lo possegga. ; questo implica che il metodo si possa usare in casi specifici; per esempio la Neisseria Gonorreae di cui si diceva prima per individuare i batteri resistenti alla ciprofloxacina, un antibiotico molto maneggevole ed usatissimo nel campo.

Un’altra idea italiana è la seguente: Nel 2013, Giovanni Longo, del Consiglio Nazionale delle Ricerche d'Italia a Roma, e i suoi colleghi hanno scoperto che quando hanno legato l'Escherichia coli patogeno a strutture in miniatura simili a un trampolino chiamate cantilever che sono parte integrante del microscopio a forza atomica, una sorta di punta di giradischi molto piccola, e li hanno esposti ad antibiotici, il cantilever ha oscillato su e giù a causa di piccoli movimenti dei batteri viventi attaccati. I movimenti cessavano se i microbi erano sensibili agli antibiotici. Il movimento era visibile al microscopio a forza atomica in pochi minuti, molto prima che i microbi si replicassero, il che significa che il test può identificare i batteri vivi molto più velocemente di quanto sia possibile con un test. Il problema è avere il microscopio e saperlo usare, non è un metodo facile da automatizzare anche in un ospedale periferico di una città non grandissima. Altre idee le trovate nell’articolo. A me era sembrata eccezionale e semplice l’idea invece di usare la spettroscopia RAMAN per fare il lavoro di individuazione, idea che si era sviluppata anni fa. Si veda per esempio qui.

Rimane che la resistenza batterica non è un problema (solo) tecnico, ma più profondo, ecologico e culturale; fateci caso l’industria chiama i vari tipi di prodotti per l’agricoltura “fitofarmaci”; e i fitofarmaci (o come li chiamano gli ambientalisti “oltranzisti e radical chic”“(la nuova definizione di Cingolani) i pesticidi” (erbicidi inclusi))  sono usati per fare un deserto e chiamarlo agricoltura industriale (o a volte agricoltura razionale, il che mi fa ridere).  Come per i fitofarmaci i farmaci umani o veterinari hanno una logica precisa: usarli per fare un deserto e chiamarlo guarigione.

Tacito aveva capito questo meme raccontando la storia dei rapporti fra Romani e Britanni nel De Agricola: facendo dire a Calgaco, il capo dei valorosi, ma sfortunati, Calédoni: Ubi solitudinem faciunt, pacem appellant.

Occorre studiare meglio il senso del nostro esistere come esseri individuali e contemporaneamente parte di un complesso sistema di relazioni ecologiche ed ambientali (o come si dice un olobionte, un termine che sarei curioso di sapere se Cingolani conosce, ma scommetto di no e la cui invenzione si fa risalire  ad Alexander von Humboldt nel suo famoso viaggio in America, forse durante l’ascesa al Kimborazo): questo non l’abbiamo ancora digerito.

E Cingolani e tutti noi dovremmo ricordare che dopo la vittoria di Agricola nella battaglia di Monte Graupio i romani rinunciarono ad occupare la Caledonia (delimitata dei fiumi Forth e Clyde). La logica del deserto-chiamato-pace non funziona o in altri termini le vittorie degli antibiotici o dei pesticidi sono “vittorie di Pirro”, non durano.

Roma: fra cultura e musei

4 September, 2021 - 17:03

Luigi Campanella, già Presidente SCI

In vista delle elezioni per il Sindaco di Roma i candidati hanno cominciato a parlare di quanto vorrebbero fare nel caso risultassero vincitori. Per quanto riguarda la cultura, uno dei temi più caldi, come Roma merita, la comune opinione è che la nostra capitale sia la ideale sede dell’agenzia dell’UE.

Il fatto che a novembre dell’anno scorso 45 sindaci di Città in tutto il mondo, da Città del Messico a Barcellona, abbiano firmato un protocollo che prende il nome dalla nostra città-la Carta di Roma 2020-è il segno dell’attenzione mondiale verso Roma e le sue risorse culturali.

Una chiave della ripartenza post-Covid sarà la capacità di valorizzare in modo innovativo  il nostro patrimonio culturale e turistico e tutta l’economia ad esso legata. Si dice che la bellezza salverà il modo: forse l’economia della bellezza potrà contribuire significativamente alla ripresa in Italia. I fondi del PNRR rappresentano di certo una straordinaria occasione che sarebbe imperdonabile mancare. Abbiamo assistito ad un nuovo rapporto fra pubblico e privato sui Beni Culturali ed anche il pubblico è finalmente più collaborativo. Roma che non per caso è stata scelta come sede del G20 della cultura che si e svolto pochi giorni fa con tanto di inaugurazione spettacolare al Colosseo merita di ospitare l’agenzia europea in forma definitiva, finora con sede a Bruxelles, guidata da un italiano, Roberto Carlini, succeduto alla direzione belga.  «Tutti più poveri senza cultura»- Corriere.it

Il G20 della cultura ha prodotto un documento finale in 32 punti: sviluppare d’intesa con UNESCO forze nazionali a tutela del  patrimonio culturale, azioni forti e coraggiose contro l’impatto dei cambiamenti climatici, progetti a sostegno della formazione e delle imprese giovanili operanti nella cultura.

Tornando alla tornata elettorale per il Sindaco di Roma ed al dibattito in atto fra i candidati mi sarei immaginato che un tema caldo fosse il Museo/Città della Scienza di cui Roma soffre la mancanza e discute da quasi 50 anni. Invece al tema, a parte la generale ovvia considerazione che Roma come Capitale della Scienza e Ricerca del nostro Paese merita il Museo, poco viene dedicato.

In ambito museale il tema più discusso è quello del Museo di Roma, intendendo per esso ogni manifestazione museale in cui si parla e si tramanda la storia della nostra Città e il grande percorso della Civiltà Romana attraverso i secoli: dalle grandi famiglie romane alla Roma antica, dalla Roma rinascimentale a quella risorgimentale, dalla Roma barocca a quella moderna.

A Roma già esistono Musei che sono rivolti a questi fini (Museo di Roma, Museo Nazionale Romano, Museo della Civiltà Romana, Musei Capitolini) ed il dibattito si è incentrato sulla proposta formulata da uno dei candidati circa la possibilità di aggregare i contenuti dei differenti Musei all’interno di un unico Grande Museo di Roma da insediare in un’area strategica per la quale sono anche state indicate possibili collocazioni al centro della Città ( via dei Cerchi, edificio comunale exPantanella).

Il passaggio perciò è da quello che viene indicato come il modello diffuso al modello di Museo Unico e Centrale, il processo inverso a quello che in mancanza della realizzazione di un Museo della Scienza si è invece concretizzato in questi 50 anni: per sopperire a questa mancanza si sono sviluppati progetti ed iniziative (MUSIS, Settimana della Ricerca, Notte dei Ricercatori, Laboratori Aperti), basandosi sulla ricchezza di centri espositivi scientifici nella nostra città.

Il pericolo che vedo è rappresentato dalla politicizzazione del tema che può rappresentare un freno alla chiarezza del dibattito ed un freno a qualsiasi innovazione, oltre al rischio di escludere nella definizione delle scelte proprio la comunità che, venendo dal sistema culturale diffuso di oggi, è forse quella con maggiore esperienza e titoli per fornire utili suggerimenti.

Abbiamo purtroppo già vissuto. negli anni ’70 con i progetti del Museo della Scienza questa esperienza, in cui il dibattito per arrivare ad un modello ideale di Museo della Scienza per Roma si è trasformato in un confronto più politico che tecnico-scientifico.

È chiaro quali siano le caratteristiche dei due modelli: più vicino al territorio, più culturale, più economico uno, più fruibile, più rappresentativo, più propositivo il secondo. Un elemento di novità – ma quanto pertinente? – riguarda l’ipotesi di indirizzare il Museo diffuso verso compiti di protezione e conservazione, una sorta di policlinico del patrimonio culturale integrando quindi il sistema museale con università, Enti di Ricerca, parchi scientifici, Soprintendenze, candidando Roma ad essere la sede di una grande sperimentazione scientifica. Forse una pretesa troppo grande in relazione alle risorse e che invece potrebbe rivolgersi verso la creazione di un Centro Regionale di tale natura da realizzare a partire dal Distretto Tecnologico Culturale già esistente.

Da questa prospettiva si può invece certamente evidenziare la funzione didattica e formativa che l’organizzazione diffusa e decentrata di certo può agevolare, avvicinandosi ai cittadini anche di aree non centrali della città. Credo in definitiva che il problema sia un altro: come rendere un Museo Diffuso come se fosse un Museo Unico, il che vuol dire mantenere l’unità progettuale, pensare ad un sistema per coordinare gestione, promozione, comunicazione e fruizione di Musei ed aree archeologiche appartenenti a soggetti diversi (Stato, Roma Capitale, Accademie, Centri Culturali, Istituzioni private),facilitare la visitazione attraverso percorsi ed itinerari guida, supportati anche da mezzi di mobilità organizzata, istituire biglietteria integrata di accesso ai vari poli museali, disporre di una sede dove il patrimonio disponibile venga illustrato complessivamente lasciando poi al visitatore la scelta di come fruirne. Le tecnologie dell’informazione e della comunicazione sviluppatesi prepotentemente in questi anni ci danno una mano a patto di non farle divenire un limite al necessario passaggio-promozione dall’informazione ai livelli superiori della conoscenza e della cultura.

Afghanistan e i soldi per fare la guerra

2 September, 2021 - 22:18

Luciano Celi*

Reduce dal “discorso alla nazione” di Joe Biden finito qualche ora fa, e trasmesso in diretta anche alla nostra di nazione, ascolto, basito, la cifra che è costata ai soli Stati Uniti questa guerra ventennale: 300 milioni di dollari al giorno, tutti i giorni, per 20 anni. In un anno sono 109,5 miliardi di dollari che, moltiplicati per 20 anni, fanno 2109 miliardi di dollari o, nell’uso statunitense, 2,1 trilioni di dollari (approssimando per difetto).

Quante altre cose si possono fare con tutti questi soldi, con uno sforzo economico così ingente? Fatico a scegliere, ma essendo diciamo “sensibile” alla questione energetica e quindi alla sua auspicata e auspicabile transizione, per non far bollire noi stessi di effetto serra e per offrire un po’ di giustizia e di equità sociale (che, ce lo dimentichiamo troppo in fretta, passa soprattutto dall’energia – perché le guerre si fanno soprattutto per questo…), scelgo questo: la transizione energetica.

Allora faccio due conti della serva, basandomi sulla mia modesta esperienza personale. Nel 2019 ho installato un impianto fotovoltaico sul tetto di casa mia della potenza (di picco) di 6 kW, con delle batterie (con capacità di accumulo di 7,2 kWh) per essere – a queste latitudini – quasi indipendente dal gestore dei servizi elettrici (GSE) per quasi tutto l’anno (certo: d’inverno, con giornate corte e magari piovose, un po’ di corrente la chiediamo, per carità… ma è proprio poca e le mie bollette in sostanza consistono di fatto in oneri fissi di allaccio alla rete, senza contare quella che in rete ributtiamo e che quasi regaliamo, visto che viene ripagata praticamente nulla).

Da utente finale, grazie agli incentivi che c’erano all’epoca (sostanzialmente fiscali), la detrazione, anziché essere fatta nei 10 anni a venire sulla dichiarazione dei redditi, poteva essere ceduta tutta e subito alla ditta che ha eseguito l’impianto, così per un impianto “chiavi in mano” dal costo nominale di 15mila euro, ne ho spesi esattamente la metà, 7,5 e lo sgravio fiscale che mi sarebbe toccato nei 10 anni successivi l’ho, appunto, ceduto all’azienda (si chiama “cessione del credito”, appunto). Non ho crediti da vantare, ma ho avuto un formidabile sconto subito.

Continuiamo col conto: diciamo quindi, per approssimare e farla semplice, che anziché 7mila e 500 euro ne ho spesi 6mila (magari i costi si sono ulteriormente abbattuti in questi due anni e io sto parlando sempre da utente finale…) e quindi posso fare una equivalenza del tipo mille euro per kW installato, “chiavi in mano” (cioè a impianto funzionante). La ditta inoltre mi garantisce, da contratto a queste latitudini (vale a dire “circa” centro Italia), una produzione annua di 7.200 kWh (per i primi 5 anni, poi ci sarà senz’altro una flessione nel rendimento dei pannelli, ma queste flessioni sono molto contenute). Il cambio euro/dollaro di oggi è 1:1,18 ovvero 1 € = 1,18 $. Compensiamo la stima per difetto di prima (1 kW installato = 1000 € e quindi per installare 1 watt ci vuole 1 €) con quella in eccesso di adesso, dicendo che il dollaro è uguale all’euro, in un rapporto 1:1, così la cifra dei 2,1 trilioni di $ diventa di 2,1 trilioni di €. Ma solo per fare i conti pari e “spannometrici” (e, per carità, teorici: a queste “scale” ovviamente gli investimenti dovrebbero essere strutturali – e i costi si abbasserebbero ulteriormente…).

Insomma con questi soldi la potenza installata potrebbe essere quindi di 2,1 trilioni (2,1 * 10^12) di watt che, ipotizzando Pisa (dove vivo) caput mundi con una produzione annua minima come quella garantitami (7.200 kWh/anno che risulta sicuramente più elevata anche solo spostandosi in sud Italia) significa 2.530.800.000.000.000 (1) (due miliardi e cinquecentotrenta milioni e ottocentomila… miliardi di) Wh, ovvero 2.531 TWh (terawatt/ora – il prefisso “tera” = 10^12) all’anno.

Il bombardamento della raffineria iraniana di Abadan fu tra gli eventi che aprirono la guerra tra Iraq e Iran nel 1980. https://aspeniaonline.it/la-geopolitica-della-transizione-energetica/

Sapete qual è stata la domanda di elettricità nazionale per il 2019 (il 2020 non l’ho preso in considerazione essendo un anno comunque anomalo per il lockdown pandemico)? 316,6 TWh (a questo link la fonte del dato), ovvero un ottavo di quello che – ipotizzando di poter investire tutti i soldi della ventennale guerra in Afghanistan in qualcosa di utile come la messa in opera massiva di pannelli solari – questa potenza installata avrebbe potuto produrre. L’avremmo fatta la transizione energetica in Italia? No, ne avremmo fatte 8!!!

Ma vediamo questo dato per gli Stati Uniti che, sempre nel 2019, ha avuto un consumo di 3.955 miliardi di kWh (a questo link la fonte del dato), quindi 3.955 di TWh. Ecco, qui non ce l’avremmo fatta a coprire il fabbisogno complessivo, visto che 3.955 è superiore a 2.531, ma una bella mano se la sarebbero data pure loro e stiamo pur sempre parlando di una delle prime potenze mondiali (diciamo la prima insieme alla Cina)!

Questo solo per citare la prima cosa che mi è venuta in mente – ma che sarebbe una cosa di vitale importanza per sfuggire alla trappola energetica nella quale ci siamo cacciati, visto che dipendiamo ancora oggi per oltre l’80% da fonti fossili e atmosfera, mari, oceani e terra non ce la fanno più ad assorbire anidride carbonica.

E tutto questo senza contare le vite umane. Perse. Per sempre. Valore? Non monetizzabile, infinito, fuori scala. Siamo veramente animali di una stupidità formidabile!

(1) per ottenere questo numero ho diviso i 2,1 TW per 6 kW – la dimensione del mio impianto – a cui però equivale la “produzione garantita” di 7.200 kWh/anno.

*Luciano Celi , già macchinista di treno, ha conseguito una laurea in Filosofia della Scienza (Università di Pisa) e un master in giornalismo scientifico presso la SISSA di Trieste. Nel 2013 un secondo master di I livello in tecnologie internet. Nel giugno 2019 ha discusso la tesi di dottorato in Ingegneria Energetica con una tesi sull’EROEI delle compagnie petrolifere al DICAM dell’Università di Trento. Oggi collabopra a coordinare la comunicazione scientifica presso l’area della ricerca di Pisa del CNR. E’ anche responsabile di una piccola casa editrice (Lu.Ce. edizioni) che ha pubblicato titoli di notevole interesse.

Il chimico di via Panisperna.

31 August, 2021 - 15:04

Riccardo Giustozzi

Nella foto il famoso ritratto dei ragazzi di Via Panisperna. D’Agostino è il primo a sinistra.

Il 1933 è l’anno in cui in Italia iniziarono ufficialmente le ricerche nel campo della Fisica Nucleare, portate avanti da tre differenti istituti: quello di Roma, di Firenze e di Padova. Ad ognuno era stato assegnato uno specifico argomento di ricerca; Orso Mario Corbino, Enrico Fermi e Franco Rasetti decisero di occuparsi della spettroscopia gamma. È da sottolineare che, inizialmente, fu presa in considerazione Firenze, e non Roma, per ospitare gli studi sui neutroni.

A Roma, dunque, Fermi e Rasetti si concentrarono sul perfezionamento di tecniche spettroscopiche e sul problema della diffusione dei raggi gamma. Questi argomenti di ricerca portarono alla costruzione di uno spettrografo a cristalli di bismuto che testarono attraverso dei piccoli che contenevano sorgenti di materiale radioattivo, preparate direttamente da Giulio Cesare Trabacchi che era a capo dell’Ufficio del Radio, unico organo che poteva distribuire campioni radioattivi ai diversi centri di ricerca. Per questo motivo Trabacchi era soprannominato “La Divina Provvidenza”.

La maggiore difficoltà era quella di isolare il Polonio dal materiale radioattivo disponibile per creare così sorgenti di particelle α ad alte energie con cui bombardare una serie di nuclei atomici. Questa estrazione è possibile, attraverso metodi molto sofisticati, dal Radio D e se ne occupò in prima battuta Rasetti. Ben presto però ci si rese conto che serviva un aiuto. Fermi chiese a Nicola Parravano, direttore dell’Istituto di Chimica dell’Università di Roma, di segnalargli il nome di un bravo chimico che potesse spalleggiare Rasetti durante questi esperimenti. Quel bravo chimico si chiamava Oscar D’Agostino.

D’Agostino era nato il 29 agosto del 1901 ad Avellino e si era laureato a Roma in Chimica qualche anno prima (1926). Dopo una breve esperienza di consulenza tecnica presso una società produttrice di pile, era entrato all’Istituto di Chimica come assistente del Prof. Parravano.

Era il 1933 quando Fermi lo chiamò all’Istituto di Via Panisperna per trattare quel processo, complesso e delicato, di estrazione del Polonio. Lo stesso D’Agostino descrisse quella pratica:

“Una di queste sorgenti era il Polonio, ricavabile dal RadioD, estratto dal deposito attivo lasciato dalla emanazione del Radio o da vecchi preparati di Sali di Radio lasciati per molti anni chiuse ed inutilizzati.”

Grazie al lavoro congiunto dei due, l’Istituto di Roma si trovò a possedere, nel giro di pochissimo tempo, una quantità di Radio seconda soltanto a quella prodotta dall’Institut du Radium di Parigi.

Proprio all’Institut du Radium fu indirizzato D’Agostino, su suggerimento di Corbino e Rasetti, nei primi mesi del 1934 grazie ad un assegno di ricerca che gli era stato conferito nel novembre dell’anno precedente dal CNR. A Parigi poté approfondire le sue conoscenze della radioattività attraverso le lezioni di Marie Curie e dei coniugi Irène e Frédéric Joliot-Curie, che agli inizi del 1934 avevano ottenuto i primi elementi radioattivi artificiali dopo aver bombardato alcuni elementi leggeri con particelle α.

Qualche mese dopo, verso la fine di marzo, D’Agostino rientrò a Roma per le vacanze di Pasqua e Fermi decise di coinvolgerlo nella ricerca sulla radioattività indotta dai neutroni come si legge in una lettera datata 26 giugno 1934:

Il Dr. O. D’Agostino, che ha una borsa di studio del CNR per Parigi, è, come ti accennai, stato trattenuto da me per lavorare qui alle nuove radioattività artificiali. So che ti ha scritto perché gli venga pagata la seconda rata della borsa di studio. Vedi se è possibile accontentarlo.

Coi più cordiali saluti e ringraziamenti

Enrico Fermi”.

Lo scopo era quello di bombardare tutti i 92 elementi presenti in natura in tempi molto brevi e D’Agostino ricoprì un ruolo fondamentale, separando e caratterizzando un gran numero di radioisotopi artificiali. Il solito Fermi dirà:

“Nel corso dei lavori si è presentato anche frequentemente il problema di manipolare e preparare sostanze radioattive naturali. In tutte queste ricerche ho potuto sempre apprezzare l’abilità e l’operosità del D’Agostino, nonché la sua attitudine ad orientarsi rapidamente di fronte a nuovi problemi.”

Durante questi bombardamenti fu indotta anche la radioattività nell’Uranio che portò al famoso dilemma della scoperta del 93esimo elemento, ipotesi rivelata sbagliata solo nel biennio1938-39 con i lavori di Meitner e Hanh sulla fissione nucleare**.

Nel 1935 iniziò a disgregarsi il nucleo romano, specialmente con la partenza di Segrè per Palermo dove aveva vinto il concorso a cattedre, e si allontanò anche D’Agostino e nel marzo del 1938 conseguì la libera docenza in Chimica Generale. Dopo alcuni anni al CNR, tornò definitivamente all’Istituto Superiore di Sanità dove si impegnò in ricerche di radioterapia, in particolar modo sull’utilizzo di isotopi radioattivi in ricerche chimiche e biologiche.

Edoardo Amaldi, in merito ai suoi tentativi di ricostruire un gruppo di ricerca nel 1939, scriverà:

“In quel periodo feci vari tentativi per convincere Oscar D’Agostino a tornare a lavorare in radiochimica, come aveva fatto con successo dalla primavera 1934 al giugno 1935. Sia la fissione dell’Uranio che l’impiego di nuovo isotopi radioattivi come traccianti erano settori di straordinario interesse scientifico. La sua collaborazione con il nostro gruppo, utilizzando l’impianto dell’Istituto Superiore di Sanità, avrebbe potuto dare notevoli frutti, ma i suoi interessi si erano spostati verso altri settori ed ogni mio sforzo fu inutile nonostante anche lui fosse enormemente colpito dalla scoperta della fissione”.

**************************************

*Riccardo Giustozzi, laureando in Fisica presso l’Università degli Studi di Camerino. Creatore e ideatore nell’agosto 2019 della pagina di divulgazione storico-scientifica chiamata “Storie Scientifiche”. Da gennaio 2020 collaboratore e autore di alcuni contenuti per il Centro Ricerche Enrico Fermi, con un occhio di riguardo per la storia dei fisici italiani del Novecento.

Sul centro ricerche Enrico Fermi e sul costituendo museo di via Panisperna diretto da Francesco Sylos Labini abbiamo pubblicato recentemente un post.

**Nota dell’Editor: a questo proposito richiamo l’attenzione dei lettori sulla storia di Ida Noddack che abbiamo raccontato in un post a firma di Rinaldo Cervellati

Cosa non dobbiamo più buttare nello scarico di casa.

27 August, 2021 - 14:41

Mauro Icardi

Nel marzo 2015 e stato pubblicato un mio articolo, che intitolai “ Cosa buttiamo nelle fognature?

 A distanza di più di sei anni devo riprendere il tema, modificando il titolo.

Nei sei anni trascorsi la gestione degli impianti di depurazione ha risentito fortemente delle modifiche dei regimi di caduta delle piogge. Ricordo per precisione, che le fognature sono ancora principalmente di tipo misto, raccolgono cioè anche acque di pioggia.

Le cronache meteorologiche dello scorso mese di luglio nella zona prealpina descrivono una situazione molto problematica.

Riporto dal sito del centro geofisico prealpino di Varese cosa accaduto a fine luglio.

Deciso cambiamento dal 24 a causa di correnti umide da SW, sospinte da una bassa pressione sulla Manica. Temporali forti e diffusi il 25 (forte grandinata Locarno-Avegno, tetto scoperchiato a Gallarate, grandinate abbondanti con strade imbiancate Lecco, h15 nubifragio a Varese e allagamenti, grandine a Orino fino 30 mm).
I temporali proseguono intensi anche nei giorni successivi. Il 26 in particolare su Valcuvia e Valganna. Il 27 nubifragi interessano il Mendrisiotto, il Lario (colate fango, interrotta SS Regina, a Cernobbio esonda torrente Breggia e distrugge il lungolago) e anche il Varesotto con allagamenti (Varese via Peschiera). Il 28 piogge battenti sul medio Varesotto (Brinzio 89mm, Cuvio 82 mm, Ganna=141 mm) e a ridosso del Campo dei Fiori. Esonda il torrente Tinella a Luvinate ed estesi allagamenti interessano Gavirate (frazioni Armino, Pozzolo e Trinità), Brusimpiano e Cuvio dove esonda il torrente Broveda.

Quando avvengono eventi piovosi di questa intensità, aumenta la quantità di materiale che viene raccolto dalle griglie poste a monte dei trattamenti successivi, cioè sedimentazione primaria e ossidazione biologica.

Negli scarichi di casa, siano essi quelli del lavandino di cucina, oppure quello dei servizi igienici non si devono assolutamente buttare materiali non biodegradabili.

Quindi no a plastica, bastoncini cotonati per orecchie, profilattici, parti di pannolini, rifiuti solidi di piccole dimensioni, mozziconi di sigaretta, stracci.

Mi sento di fare questa richiesta, perché tutto questo materiale provoca davvero problemi nel funzionamento delle fasi depurative. Manda in sofferenza i depuratori.

Basta guardare con attenzione questa immagine.

Dopo la giornata di pioggia del 28 luglio si è dovuto ripristinare il funzionamento della sezione di grigliatura.  La sezione di trattamento è rimasta fuori servizio per circa tre ore.  L’intervento non solo ha ripristinato il corretto funzionamento della fase di grigliatura, ma ha salvaguardato le successive fasi di trattamento. Evitando malfunzionamenti dovuti all’intasamento dei pozzetti dove sono installate le pompe, e i relativi sensori di livello. Il materiale che si vede, chiamato residuo di vagliatura non proviene dal dilavamento stradale. Arriva per i motivi più disparati dai nostri scarichi. Facciamo in modo di ricordarci di avere comportamenti attenti e responsabili, non solo nella gestione dei rifiuti, ma anche in quella della gestione dell’acqua che arriva nelle nostre abitazioni, prima di scaricarla.

La gestione di un bene prezioso come l’acqua richiede un atteggiamento di maggior attenzione, da parte di tutti. Solo in questo modo il termine “bene comune” assume un significato vero.

Piccola nota conclusiva: i colleghi addetti alla conduzione dell’impianto mi hanno chiesto di scrivere qualcosa, che raccontasse del loro impegno, quando si verificano situazioni come queste. Io ho accettato subito volentieri. In passato anche io ho preso in mano il badile. E loro lo ricordano. Se dovesse servire ancora, sanno che li aiuterei di nuovo. Purtroppo i fenomeni di piogge anomale si verificano piuttosto frequentemente.  E ci sono persone che si occupano di non interrompere mai né la fornitura, né la depurazione delle acque. Giusto e doveroso ricordarlo. E ringraziarli.

La TAC compie 50 anni

24 August, 2021 - 12:19

Luigi Campanella, già Presidente SCI

La TAC (Tomografia Assiale Computerizzata) compie 50 anni (il primo dispositivo venne installato nel 1971 nell’Atkinson Morley’s Hospital di Wimbledon) e la festeggiano oltre alla medicina, anche numerose altre discipline che si giovano delle sue straordinarie capacità,a partire proprio dalle Scienze dei Beni Culturali e da quelle Ambientali, con particolare riferimento ai paleoambienti ed alla radiazione ambientale.

Godfrey Hounsfield, il suo inventore si pose per primo l’obiettivo di fotografare anche i tessuti molli del nostro organismo che le normali radiografie non riescono a distinguere. I raggi X vedono solo gli oggetti compatti più densi, come ossa ,ma non quelli composti per la maggior parte da acqua come i muscoli. Per raggiungere il suo fine Hounsfield con l’aiuto di un tornio su cui montò il macchinario per radiografie effettuò migliaia di scansioni attorno al campione e le fece elaborare da un computer per ottenere un’immagine tridimensionale.Tempo impiegato: 9 giorni, troppi per dare un significato pratico alla scoperta.Con una raccolta di fondi a cui contribuirono in misura significativa anche i Beatles nel 1971 fu realizzato il primo prototipo di apparecchiatura TAC applicata ad una paziente con cisti al cervello. Il suo costo è stato di 69000 sterline,l’equivalente di 1,5 milioni di euro di oggi. Nel 1973 compaiono le prime TAC installate negli ospedali.Lo strumento scatta 160 immagini per ogni spostamento di 1 grado nell’intervallo 0–180 gradi per un totale di 28800 radiografie successivamente elaborate da un computer in un tempo complessivo di 2h con un salto di velocità rispetto ai 9 giorni del prototipo precedente Nel 1973 compaiono le prime TAC negli ospedali, anche in Italia a Bologna. 6 anni dopo Hounsfield riceve il premio Nobel per la medicina insieme ad Allan McCormack.


Oggi con i successivi perfezionamenti la TAC riesce distinguere dettagli dell’ordine del decimo di mm ed a studiare anche organi in movimento come il cuore.Combinata con le IA (Intelligenze artificiali) sta contribuendo alla lotta contro i tumori ancor più che in passato. Tale lotta è uno degli obbiettivi più ambiti della ricerca scientifica del nostro tempo e si articola in due principali linee, prevenzione e cura.
Un esempio molto rappresentativo è offerto dal tumore del colon retto rispetto al quale un grande passo in avanti si sta realizzando nello screening: si va a caccia di quelle lesioni precancerose, polipi, alterazioni tessutali, ma con strumenti sempre più sensibili. Questi avanzamenti sono stati resi possibili grazie alle applicazioni dell’intelligenza artificiale a tali strumenti.La nuova tecnologia da un lato immagazzina milioni di immagini e di dati relativi a polipi di ogni foggia e dimensioni il che consente di catalogare per pericolo e per caratteristiche fisiologiche e dall’altro può essere definita un occhio di falco capace di stanare lesioni di 2mm in precedenza difficilmente rilevabili.
Oggi la TAC, come accennavo all’inizio, ha trovato applicazioni anche in campi diversi dalla medicina, in particolare archeologia ed archeo-metria ed ambiente. Uno degli studi più recenti ha riguardato le mummie dell’antico Egitto, raccogliendo su di esse preziose informazioni
Nel caso di reperti ipogei come le tombe la problematica della stabilità ambientale assume gravità diverse a seconda dei metri di profondità del suolo che insiste sul sito considerato: se questa profondità è di pochi metri alle oscillazioni termo-igrometriche interne si sommano.infatti quelle esterne che possono modificare la condizione interna con conseguenti pericoli per le opere interessate. La conoscenza accurata dello stato preliminarmente a qualsiasi intervento risulta pertanto fondamentale. In campo ambientale la TAC ha consentito lo studio di reperti fossili contribuendo ad importanti avanzamenti della paleoantropologia.In qualche caso la TAC ha smontato ipotesi suggestive su opere d’arte relative ai materiali ussti (pigmenti naturali o artificiali ?) o agli stessi autori o chiarito se su un quadro fosse intervenuto sia pure in tempi diversi più di un pittore.

La mummia di Usai: figlio di Nekhet e di Heriubastet (XXVI dinastia, 664-525 a.C.) per lui è arrivato il momento della T.A.C. al Malpighi di Bologna.

Una ricerca dimenticata di Giacomo Ciamician.

21 August, 2021 - 17:33

Rinaldo Cervellati

Fra le molte ricerche di Giacomo Ciamician (1857-1922)[1] ci sono quelle sul pirrolo, questo composto “aromatico” eterociclico (Figura 1):

Figura 1. Struttura del pirrolo

Chiaramente, nell’ultimo ventennio del XIX secolo, le conoscenze sulla struttura atomico-molecolare erano molto limitate come pure la strumentazione, sicché si doveva ricorrere a metodi come l’analisi elementare, il comportamento chimico e la spettroscopia di emissione.

Come scrive Diego Savoia [1]: gli studi di Ciamician furono indirizzati ad approfondirne la reattività, l’aromaticità, l’acidità e la basicità e la sua trasformazione in derivati più complessi e funzionalizzati.

Dopo gli studi a Vienna e la laurea a Giessen (Germania), Ciamician divenne, nel 1880, assistente di chimica organica a Roma, nel gruppo di Stanislao Cannizzaro. Continuò gli studi sul pirrolo e, insieme a Max Dennstedt (1852-1931)[2] (Figura 2), scoprì una reazione che va sotto il nome di riarrangiamento di Ciamician-Dennstedt.  In pratica si tratta dell’espansione dell’anello pirrolico mediante riscaldamento con cloroformio o altri composti alogenati in soluzione alcalina, che oggi scriveremmo come:

L’intermedio diclorocarbene, in aggiunta al pirrolo, forma un dialogenociclopropano instabile che si riorganizza a 3-alogenopiridina.

Il lavoro fu pubblicato nel 1881 dal Berichte [2].

Figura 2. Giacomo Ciamician (sinistra) e Max Dennstedt (destra)

Nel numero del 9 agosto 2021 [3] di C&EN news, XiaoZhi Lim, ci informa che  i ricercatori guidati da Mark D. Levin (Figura 3) dell’Università di Chicago hanno aggiornato la reazione di  riarrangiamento Ciamician-Dennstedt del 1881, che produce anelli piridinici a sei membri inserendo un carbene in un anello pirrolico a cinque membri.

Figura 3. Mark D. Levin

 Levin afferma: “Purtroppo dovrebbe essere davvero utile, ma in pratica non funziona come dovrebbe”. Infatti, i chimici tipicamente generano il carbene aggiungendo cloroformio o composti trialogenati simili alla reazione di Ciamician-Dennstedt, che limita i sostituenti sull’anello piridinico risultante agli alogeni. Sicché, il gruppo di Levin ha sostituito il cloroformio con clorodiazirine, che si scompongono in un catione carbinile e azoto gas [4].

Come un carbene, il catione carbinile può aggiungersi ai pirroli o agli indoli, espandendoli in piridine o chinoloni. I reagenti clorodiazirina possono essere preparati in un unico passaggio ossidando le ammidine disponibili in commercio con ipoclorito di sodio, e ci sono più di 1.600 di tali ammidine che portano diversi sostituenti tra cui scegliere. Levin spera che questa reazione renda più facile per i chimici farmaceutici sintetizzare stimolanti farmaci a base di piridina o chinolone senza doverli costruire tutti da zero (Figura 4).

Figura 4. La reazione di un indolo (a sinistra) con una clorodiazirina espande la molecola in una chinolina con l’aggiunta di un gruppo fenile (a destra) [3]. Credit: J. Am. Chem. Soc.

Bibliografia

[1] D. Savoia, Ciamician e il pirrolo, in: M. Venturi (a cura di), Ciamician, Profeta dell’energia Solare, Atti del Convegno storico-scientifico in occasione del 150° anniversario della nascita. Fondazione Enrico Mattei, 2008, pp.125-147;  V. anche: M. Taddia, Ciamician, un chimico di vario sapere, ibid, pp. 7-32.

[2] G. L. Ciamician, M. Dennstedt,  Ber.,  14, 1153 (1881).

[3] XiaoZhi Lim, Reaction expands nitrogen-containing rings and options for medicinal chemists Reimagined 19th-century method could potentially take advantage of more than 1.600 commercially available reagents, special to C&EN, August 9, 2021

[4] B. D. Dherange, P. Q. Kelly, J. P. Liles, M. S. Sigman, M. D. Levin*. Carbon Atom Insertion into Pyrroles and Indoles Promoted by Chlorodiazirines.,  J. Am. Chem. Soc., 2021, 143, 11337–11344

[1] Giacomo (Luigi) Ciamician, Professore di Chimica Generale nell’Università di Bologna dal 1889 fino alla scomparsa è considerato il fondatore della fotochimica moderna, collaborò al progetto dell’edificio dell’Istituto di Chimica dell’Università di Bologna che oggi ospita il Dipartimento a lui intitolato. Si è occupato attivamente della sintesi di prodotti organici naturali.  Oltre a essere uno dei fondatori della fotochimica moderna, Giacomo Ciamician è considerato anche il precursore dell’utilizzo pratico dell’energia solare.

[2] Max Eugen Hermann Dennstedt (1852 -1931) è stato un chimico tedesco. Dopo aver conseguito il dottorato a Berlino nel 1879, dal 1880 fu professore visitatore all’Università di Roma, dove lavorò per Cannizzaro e Ciamician nel campo della chimica del pirrolo e conseguì la sua abilitazione.  Nel 1893 assunse la direzione del Laboratorio chimico statale dell’Università di Amburgo. E’ considerato uno dei pionieri delle applicazioni fotografiche nelle prove forensi. Dopo gli studi sul pirrolo si occupò di chimica analitica.

I progetti europei per la direttiva 3R sulla sperimentazione animale

18 August, 2021 - 18:02

Luigi Campanella, già Presidente SCI

Come ho più volte scritto sono contrario alla sperimentazione animale, nella convinzione che in molti casi possa essere sostituita, ma anche con la convinzione della sua possibile insostituibilità in certe situazioni. Il mio è un atteggiamento in cui la componente scientifica e quella etica si intrecciano, rendendo talvolta difficile anche a me distinguere una dall’altra.

Credo che la chimica possa contribuire proprio a ridurre progressivamente questi casi di insostituibilità. Guardo quindi con interesse ed attenzione, scientifica e personale, ai progetti di ricerca che si sviluppano attorno a questa problematica

La quantità e la varietà di composti chimici è in continua crescita. Migliaia di sostanze non sono mai state testate per la tossicità e la loro produzione è prevista raddoppiarsi entro il 2030. Mentre l’inquinamento viene accreditato come responsabile di una morte su 10 nel mondo risulta sempre più evidente il bisogno di sviluppare test più affidabili e più rapidi che al tempo stesso soddisfino i principi etici di ridurre quanto più possibile il ricorso alla sperimentazione animale. A tal fine l’Unione Europea sta investendo 60 Meuro in 5 anni (il doppio del precedente finanziamento) in 3 progetti internazionali interamente dedicati al progresso della tossicologia regolamentaria senza l’uso di test su animali.

Nel mese di marzo passato 15 organizzazioni guidate dall’Università di Birmingham hanno lanciato PrecisionTox.

Questo progetto è focalizzato su linee cellulari umane e su una diversa organizzazione degli organismi modello biomedici, come ad esempio la mosca della frutta, la zanzara dell’acqua, i vermi e gli embrioni del pesce zebra. Questi organismi non senzienti non sono guardati come animali negli standard legali e condividono molti geni con gli umani secondo l’evoluzione. Questi test rapidi che soddisfano le indicazioni della direttiva europea in materia delle 3 R (ridurre, sostituire, riformulare) e le esigenze di costo consentiranno di mappare le origini dell’azione tossica sui rami dell’albero dell’evoluzione animale per predire chimicamente effetti negativi sulla salute di tutti gli animali, compreso l’uomo.

Il secondo progetto ONTOX, coordinato dall’Universitá Vrije di Bruxelles, è partito in maggio con l’obiettivo di creare metodi innovativi senza sperimentazione animale capaci di predire tossicità cronica per gli umani a seguito di esposizione prolungata. Il progetto si basa sulle Intelligenze Artificiali per misurare gli effetti tossici indotti da ogni genere di composto chimico (farmaco, cosmetico, alimento, biocida) su fegato, rene, cervello, ma con una metodologia esportabile ad altri organi.

Infine il terzo progetto Risk-Hunt 3R raccoglierà il testimone dal progetto EU-ToxRisk che sta per concludersi avendo disposto di un finanziamento di 27 Meuro. Il consorzio  di 37 partner guidati dall’Università di Leiden è impegnato per trovare una nuova impostazione al problema dei test di tossicità esenti da sperimentazione animale combinando scenari di esposizione umana, test in vitro e metodologie computazionali per ottenere dati sui meccanismi di tossicità che possano identificare attraverso quali processi l’essere umano possa essere danneggiato dal contatto con i composti testati.

 Come si vede si tratta di 3 progetti che ben si integrano rispetto da un lato alla ottimizzazione delle conoscenze in materia e dall’altro alla esigenza di nuovi approcci che rispondano alla direttiva 3r. Di questa si tende ad esaltare gli aspetti relativi alla riduzione progressiva ed alla completa sostituzione dei test su animali, ma vorrei osservare che altrettanto e forse più importante è la terza R, che riguarda la riformulazione dei test ancora adottati ai fini di un rispetto per l’animale che ne riduca quanto più possibile disagi e sofferenze e di una maggiore affidabilità del dato sperimentale che consenta un minore numero di esperienze senza perdere in accuratezza del risultato.

La chimica e la fisica della stiratura (con qualche nota di profumo).

16 August, 2021 - 16:39

Claudio Della Volpe

Questo post ha una storia lunghissima; sono sposato da 44 anni e sono 44 anni che discuto con mia moglie della stiratura dei panni, della sua necessità e delle metodiche per farla od evitarla; in particolare ci sono alcune cose che mi hanno sempre stupito: una per tutte, perché sbattere i panni umidi prima di stenderli dovrebbe essere una strategia che aiuta a ridurre la stiratura?

Ecco oggi cerco di parlarvi di cose del genere e finalmente risponderò alla domanda o se volete allo sfottò di mia moglie (che è una chimica anche lei) del tipo: ok non so il motivo-chimico-fisico ma funziona così (“motivo chimico fisico” scritto con le lineette corrisponde alla particolare cantilena usata dalla consorte, una cosa che normalmente mi fa imbestialire).

Il fatto è che a me il motivo chimico fisico mi intriga troppo per trascurarlo e così dopo l’ennesima discussione, questa volta con amiche e sorelle che davano assolutamente ragione a mia moglie, ho deciso di capirci qualcosa.

Ok, mia moglie ha ragione e adesso so perché e ve lo voglio raccontare.

Sarà un segno dei tempi, un frutto poco goloso, ma comunque è il mio contributo al MeToo.

Dobbiamo partire dal materiale di cui sono fatti i vestiti: le fibre tessili.

La maggiore o minore inclinazione alla formazione di pieghe dipende prima di tutto dalla composizione dei tessuti. I tessuti in cellulosa naturale sono quelli più soggetti alla formazione di pieghe (cotone, lino…).

Nelle fibre naturali costituite di polisaccaridi come la cellulosa che è la molecola base del lino, del cotone le lunghe molecole di polisaccaride possono formare legami idrogeno che specie in presenza di umidità e molecole di acqua assorbite si rompono e riformano con l’asciugatura; questi legami sono più deboli di quelli covalenti o ionici e possono formarsi e rompersi con relativa facilità e soprattutto sono numerosi e non “obbligati” dalla struttura, se ne possono formare molti e fra parti diverse e non connesse in origine.

Aggiungo qui che questa osservazione per me, che mi occupo di adesione, ha un grande valore perché il legame idrogeno è il più comune dei legami acido-base di Lewis che costituiscono la base dei legami adesivi fra superfici; ne abbiamo parlato in altri post (per esempio qui e qui). Dunque come i legami adesivi comuni prevedono legami idrogeno e simili meccanismi di donazione-accettazione di densità elettronica fra molecole di superficie, così fanno i legami INTERNI fra molecole in materiali comuni come i tessuti; solo che nei tessuti questa adesione ne modifica la forma e la geometria producendo nel nostro caso pieghe a non finire specie se il tessuto è stato bagnato!

Tout se tien!

Scusate ma ho bisogno di un mondo fatto così, dove capisco cosa faccio!

Uno dei motivi per cui i tessuti naturali vengono arricchiti con fibre sintetiche o rigenerate, come elastan o viscosa, è limitare la formazione di pieghe oltre a migliorare elasticità e vestibilità; in pratica limitare la possibilità di formare legami idrogeno aiuta a limitare le pieghe nelle fibre a base di polisaccaridi.

I tessuti in fibra di cellulosa rigenerata tendono a piegarsi meno. Queste fibre sono prodotte dalla cellulosa naturale, che viene prima trasformata in nitrato o acetato di cellulosa, e poi riorganizzata in fibre. Rayon, viscosa, acetato o tencel sono esempi di tessuti in fibra di cellulosa rigenerata.

Le fibre sintetiche, come il poliestere e il nylon, sono caratterizzate da una tipologia più differenziata ma generalmente tendono a piegarsi meno (nel nylon i legami idrogeno ci sono, ma per fare legami idrogeno intercatena le difficoltà steriche sono maggiori).

Infine, le fibre meno soggette a pieghe sono quelle di origine animale fatte di proteine, non di polisaccaridi, come la seta e la lana e questo comporta anche la loro elevata cristallinità e una specifica struttura piana le cosiddette beta-sheet, legate alla struttura cosiddetta “secondaria” della catena proteica; le strutture possibili sono due ma entrambe rigide.

Qui i legami idrogeno ci sono eccome, ma sono tanti e tali e così ben connessi che la rigidità è strutturale; le fibre sono fortemente connesse e rimangono tali anche durante e dopo il lavaggio.

In definitiva la formazione delle odiate pieghe nei tessuti dipende dalla possibilità di formare legami interni fra le molecole delle fibre e tra le fibre stesse (le fibre sono complessi lineari di macromolecole); perché ciò avvenga ci vogliono tante molecole capaci di fare legami idrogeno ma anche senza obblighi strutturali, se no come succede nella seta o nella lana i legami non si spostano; nelle fibre a base di cellulosa la cosa è possibile, con calore o pressione e si esalta se si aggiungono molecole di acqua, ovviamente. Allontanando l’acqua (o il calore o la pressione) i legami si riformano nella nuova posizione (e fanno le pieghe!!!).

The glass transition of cotton PhD thesis di Chantal Denam, Deakin University 2016

Chiaramente ci sono condizioni di temperatura e pressione che facilitano la distruzione e formazione di questi legami. Nella chimica dei polimeri la condizione di temperatura che consente la trasformazione è chiamata “temperatura di transizione vetrosa” Tg, risente della pressione e dell’umidità  e consente di distruggere e formare nuovi legami, facendo anche variare lo spazio libero fra le fibre e dentro le fibre; per il cotone la temperatura in questione risente particolarmente dell’umidità come si vede dal grafico. In definitiva dunque lavaggio e successiva stiratura riproducono questa condizione e consentono di forzare od eliminare la piegatura; la stiratura, meglio se leggermente umida, come si fa stirando a vapore è un modo di mettersi in queste condizioni di Tg.

 C’è da dire che a volte la formazione di pieghe è desiderata: una gonna plissettata per esempio è una gonna a pieghe e come si formano?  Pare che le prime tecniche di stiratura vengano dai tentativi di fare tessuti plissettati svolti ai tempi degli egiziani e a freddo con uno strumento piatto e molto pesante detto lisciatoio, usato sui tessuti umidi.

Solo nel 200dC arrivò l’antenato del nostro ferro a caldo, un recipiente in bronzo con manico in legno, contenente brace incandescente, impiegato alla corte cinese per lisciare sete e tessuti. La storia dei ferri da stiro la potete trovare sulla pagina della Polti, uno dei più noti produttori di questo elettrodomestico, elencata in fondo.

Ci sono altri aspetti che favoriscono o meno la formazione di pieghe; la tessitura, in pratica i tessuti piatti (weave), come il tessuto di una camicia tradizionale, tendono a formare più pieghe rispetto ai tessuti a maglia (knit), come quelli di maglioni e felpe, anche a parità di composizione. E a parità di altri parametri la densità della tessitura, tessuti più fitti fanno meno pieghe.

Ed infine da notare che in anni recenti si sono sviluppate tecniche decisamente “chimiche” per ridurre le pieghe; i procedimenti attuali per ottenere tessuti antipiega consistono in trattamenti con urea-formaldeide e melammina-formaldeide che reticolano con legami covalenti i tessuti sia naturali che sintetici, impedendo la formazione di pieghe ma possono rilasciare molecole come la formaldeide.

Ho riassunto l’essenziale delle condizioni chimiche e fisiche che portano alla formazione di pieghe nei tessuti. Adesso torniamo alla pratica della manipolazione dei tessuti quando li si lava e li asciuga e poi li si stira.

La stiratura ha preso piede soprattutto all’inizio del 900 con la comprensione che essa aiutava ad igienizzare i panni eliminando per esempio le uova di pidocchio o le spore ed i batteri che fossero rimasti adesi al tessuto; oggi con le maggiori condizioni di igiene complessiva e la potenza dei nuovi detersivi questo ruolo è meno importante, ma è comunque ragionevole ricordarlo, specie nei paesi dove le condizioni igieniche non sono come le nostre. Inoltre la stiratura come tale aiuta a riposizionare le fibre nella posizione originale allungando la vita utile del tessuto, ma questo come vedremo si può fare anche altrimenti.

Quali procedure possono essere utili per ridurre la stiratura al minimo? Lo scopo è ridurre la spesa energetica della stiratura che viene stimata in alcuni kWh per chilo di tessuto

La prima è scegliere tessuti che non fanno le pieghe o ne fanno meno stando attenti in fase di acquisto; seguono poi alcuni criteri operativi.

Se si lava in lavatrice usare una centrifuga meno spinta perché le forze sviluppate durante la centrifugazione forzano i tessuti bagnati in una configurazione a pieghe, specie se avete riempito la lavatrice al massimo. Se lavate a mano e torcete i panni per asciugarli le pieghe si formano ancor più.

Stendere i panni al sole e al vento ma facendo attenzione a “stenderli” eliminando le pieghe che si sono formate durante il lavaggio; e qui, in questo momento topico, lo sbattimento del tessuto, di cui ho discusso innumerevoli volte con mia moglie, ha il suo ruolo maggiore; sbattere il tessuto prima di stenderlo, casomai più di una volta prendendolo in posti “chiave” e ricordandogli la sua forma “giusta”; non ci riuscirete subito, cari lettori maschi.

Nonostante io adesso l’abbia capito non ci riesco sempre.

Questo metodo si deve usare anche nell’appendere il vestito, sfruttando i posti da cui può pendere in modo simmetrico, evitando la formazione di nuove pieghe causate dalle mollette per esempio. Un trucco può anche essere di stendere non solo lungo il filo ma FRA due fili, perpendicolarmente al filo cercando di ottenere un supporto di dimensioni opportune. Quest’ultima operazione può essere motivo di discussione con i rispettivi consorti.

Usare per i capi di forma complessa come le camicie una stampella a cui appenderla nel modo più “naturale”.

Sto parlando di stendere al sole e al vento, nostri naturali alleati energetici; oggi si è creato anche in Italia un mercato di “asciugatrici” elettriche; personalmente credo siano spesso inutili; stendere al balcone i panni o alla finestra deve diventare un nuovo  status symbol, quello di chi capisce che risparmiare energia è necessario e civile. Non dico che non possa essere perfino indispensabile la asciugatrice ma certo la spinta ad acquistarla che viene dal mercato dei falsi bisogni deve essere ben valutata. Nella maggior parte dei casi non è necessaria.

Inoltre i panni asciugati al sole e al vento (asciugatura rinnovabile…..) hanno anche un particolare profumo che ricorda a molti di noi quando stendere i panni insieme a mamme e nonne era un momento clou dell’infanzia. Voglio finire con questa nota profumata ricordando qui un recente lavoro di una giovane ricercatrice italiana, Silvia Pugliese, ora all’Università di Copenhagen che ha pubblicato un interessante lavoro su cosa conferisca ai panni stesi al sole quel particolare profumo.

Silvia Pugliese

Come vedete dalla figura si tratta di un complesso effetto legato alla compresenza di idrocarburi atmosferici, luce solare e cotone bagnato.

Silvia Pugliese et al.  Environmental Chemistry 17(5) 355-363 https://doi.org/10.1071/EN19206 Chemical analysis and origin of the smell of line-dried laundry

Dice l’autrice: L'odore fresco e gradevole della biancheria asciugata all'aperto al sole è riconosciuto dalla maggior parte delle persone, ma nonostante decenni di speculazioni l'origine dell'odore non è stata dimostrata. Mostriamo che l'odore del bucato steso è dovuto alla combinazione unica di tracce di idrocarburi atmosferici, luce solare e superficie del tessuto bagnato. È probabile che questa fotochimica superficiale sia diffusa nell'ambiente su superfici di materiali naturali. E ancora: Proponiamo che l'ozono o le reazioni fotochimiche convertano i VOC (ossia i composti organici volatili, come gli idrocarburi) a catena corta nelle loro controparti ossigenate, che sono note per avere una varietà di odori, molti dei quali possono fungere da note che contribuiscono al caratteristico odore di bucato appena steso. La superficie del cotone lega i prodotti di reazione per fisisorbimento o legame idrogeno e può trattenere l'odore per alcuni giorni.

Brava Silvia!.

Da consultare:

https://www.polti.com/news/the-science-of-effective-ironing/

https://www.polti.it/stiro-e-cura-dei-capi/evoluzione-e-storia-del-ferro-da-stiro-con-caldaia/

La Polti produce ferri da stiro, ma ha anche costruito delle interessanti pagine web sul tema, dunque, al netto dei conflitti di interesse, grazie alla Polti ed alla collega Deborah García Bello che ne ha curate alcune molto interessanti.

Cocktail di erbicidi.

14 August, 2021 - 08:09

Mauro Icardi

Di glifosato come di altre centinaia di molecole che abbiamo sintetizzato ex-novo, e che poi sono state diffuse nell’ambiente, probabilmente  sentiremo parlare ancora a lungo. Perché il glifosato non è presente soltanto nel cibo che consumiamo ogni giorno, ma è stato rilevato anche nei fiumi italiani.

Un nuovo studio (vedi anche link in fondo) , condotto dall’Università Statale di Milano e coordinato da Caterina La Porta, docente di Patologia generale del dipartimento di Scienze e Politiche Ambientali e Stefano Bocchi, docente di Agronomia dello stesso dipartimento, ha valutato la presenza di erbicidi e insetticidi in fiumi e acque sotterranee della Lombardia. I risultati, anche stavolta, non sono certo confortanti e mostrano un livello di inquinamento da pesticidi molto alto.

Nelle acque lombarde (soprattutto quelle superficiali), infatti, vi è una grande presenza di sostanze “chimiche”, in particolare di glifosato e Ampa (metabolita che deriva dalla trasformazione microbica  dell’erbicida anche se dobbiamo ricordare che l’AMPA può derivare anche da altre fonti).

Lo scopo dello studio pubblicato su Scientific Reports però non rivolgeva l’attenzione solamente al glifosato, ma si prefiggeva di valutare gli effetti del mix di queste sostanze sull’ambiente, quello che è ormai noto come “effetto cocktail”. 

In merito al quale i ricercatori scrivono: Anche se un singolo pesticida potrebbe essere allo stesso tempo efficace e sicuro a una concentrazione sufficientemente bassa, oggi la questione principale è l’impatto dell’accumulo di più pesticidi nell’ambiente, considerando l’intero ecosistema e inclusi gli esseri umani.

Spesso insieme al glifosato, soprattutto nelle acque delle aree agricole, si trovano anche altri erbicidi come Terbutilazina, Bentazon, il 2,4-Diclorofenolo (intermedio di produzione di erbicidi) e Metolaclor (erbicida).

I risultati di questo studio hanno mostrato che l’esposizione per 7 giorni a un mix di inquinanti di questo genere è in grado di provocare problemi sulla crescita e sulla conformazione morfologica dell’alga C.Reinhardtii utilizzata come biosensore.

Il monitoraggio non ha preso in esame l’acqua che esce dal rubinetto ma quella dei corpi idrici.  Nella filiera di trattamento delle acque destinate al consumo umano, sono previsti sistemi di abbattimento e depurazione per poter immettere nel rubinetto acqua a norma. Questo perché i corpi idrici superficiali e sotterranei sono sempre più vulnerabili al cocktail di molecole definite come inquinanti emergenti.

Le aziende che gestiscono il ciclo idrico integrato perseguono una politica volta a implementare controlli e trattamenti adeguati per i nuovi inquinanti. Tra questi ad esempio il “water safety plan”.

Il 12 dicembre 2020 il parlamento europeo ha approvato in via definitiva la nuova direttiva sulle acque potabili (DIRETTIVA (UE) 2020/2184), la prima legislazione europea adottata in seguito a una mobilitazione dei cittadini, la campagna Right2Water del 2013. Per consentire e incoraggiare le persone a bere l’acqua del rubinetto piuttosto che l’acqua in bottiglia, la qualità dell’acqua sarà migliorata imponendo limiti più severi per alcuni inquinanti, tra cui il piombo. Entro l’inizio del 2022, la Commissione redigerà e monitorerà un elenco di sostanze o composti. Tra queste vi saranno i prodotti farmaceutici, i composti che alterano il sistema endocrino e le microplastiche.

Il problema però rimane aperto per quanto riguarda le acque superficiali. Ed è un problema che dovrebbe indurre a riflessioni importanti.

L’interesse verso la presenza di contaminanti emergenti risale  al famoso libro pubblicato da Rachel Carson nel 1962, Silent Spring, che mostrò come l’uso eccessivo di DDT e fitofarmaci avesse portato alla morte di molte specie, tra cui anche quelle che solitamente accompagnavano con il loro canto i mesi primaverili (da cui il titolo che voleva sottolineare come la primavera fosse diventata silenziosa).

E’ giusto precisare che l’inquinamento dovuto da un utilizzo eccessivo di prodotti fitosanitari può provocare una profonda alterazione dei suoli, ma anche altri fattori concorrono alla perdita di biodiversità. Per esempio il cambiamento climatico, e l’introduzione di specie alloctone.

 Sull’effetto della presenza diffusa di molecole di sintesi (nel senso di molecole non esistenti in natura e dunque ragionevolmente mancanti di meccanismi di depurazione naturali) nell’ambiente, occorre senza dubbio un attento lavoro di ricerca e di studio. Che data la complessità e l’importanza del tema, non potrà che essere multidisciplinare. Ma sul quale, come per altri problemi ambientali, non possiamo perdere troppo tempo.

Una nota finale è sulle quantità; ci sono molte altre molecole di sintesi che arrivano nei depuratori, farmaci umani per esempio o anche veterinari, (un buon esempio è il diclofenac un comune antinfiammatorio che ha effetti micidiali su alcuni uccelli); anche su questi i depuratori possono poco al momento, dovremo adattarli, ma considerate che il diclofenac viene prodotto in quantità che sono 400 volte inferiori al glifosato, 2400 ton/anno contro 1 milione in tutto il mondo.

Il lavoro di adeguamento degli impianti di trattamento delle acque reflue è iniziato già da tempo. Il percorso decennale che ha portato alla costituzione delle aziende di gestione del ciclo idrico, a livello di ambito provinciale, permette lo sblocco di investimenti  attesi e non più rimandabili. Per quanto riguarda  l’ambito provinciale di Varese  53 milioni nel quinquennio 2021-2025 sono destinati all’adeguamento tecnologico degli impianti di trattamento delle acque reflue già esistenti. Le tecnologie di abbattimento a livello di trattamento definito “terziario”, sono ormai tecnologie mature.  Il lavoro di depurazione deve essere completato in maniera più completa possibile, a monte del corpo idrico ricettore, diminuendo il carico di inquinanti che possano interferire con l’equilibrio ecologico dei corpi idrici. Una rivoluzione concettuale e progettuale, rispetto a quanto avveniva in passato quando si lasciava fare una parte del lavoro di rimozione degli inquinanti ai meccanismi di autodepurazione naturali.  Ma questa scelta mostrava già da tempo criticità importanti, legate al modificato regime delle precipitazioni idriche, alla riduzione dei ghiacciai alpini. Fenomeni che hanno impatti significativi sulle portate dei principali fiumi italiani. E che nei casi più gravi hanno provocato anche fenomeni di mancanza totale di acqua, come nel caso del Lambro nel 2015.

Link per approfondimento

https://www.nature.com/articles/s41598-021-93321-6#Fig2

Copyright © 2012 Società Chimica Italiana. All Rights Reserved.