slideshow 16 slideshow 1 slideshow 2 slideshow 3 slideshow 4 slideshow 5 slideshow 6 slideshow 7 slideshow 8 slideshow 0 slideshow 9 slideshow 10 slideshow 11 slideshow 12 slideshow 13 slideshow 14 slideshow 15

BLOG: LA CHIMICA E LA SOCIETA'

Syndicate content La Chimica e la Società
Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.
Updated: 12 weeks 5 days ago

Il futuro è agro-ecologia.

21 February, 2022 - 18:01

Katia Genovali*, Claudio Della Volpe e Luigi Campanella

La biodinamica non può essere equiparata all’agricoltura biologica secondo il testo approvato dalla Camera dei Deputati e che ha modificato la precedente versione in cui tale equiparazione era di fatto accettata. Il testo approvato è tutto sommato una mediazione: salta l’equiparazione fra metodo biologico e metodo biodinamico in agricoltura, ma quest’ultimo resta fra i beneficiari della legge.

Non si può che essere d’accordo sul non confondere il metodo scientifico con procedure e metodologie esoteriche, non scientifiche e per certi aspetti simili a stregoneria, basate sulle teorie di Rudolf Steiner. Queste ultime incorporano nella biodinamica alcuni dettami dell’omeopatia e dell’agricoltura biologica, che condivide con il biodinamico l’obiettivo di coltivare la terra in equilibrio con l’ecosistema terrestre. Tuttavia, proprio per queste commistioni, il discorso merita un approfondimento, al di là del freddo testo approvato che dovrà ora tornare al Senato per la definitiva approvazione. Ma prima dobbiamo fare un passo indietro e capire il percorso compiuto dall’agricoltura moderna che oggi rende il metodo biologico degno di essere, per certi aspetti rivalutato, sicuramente almeno per quanto concerne le ragioni su cui idealmente affonda le sue radici.

Il cambiamento epocale dell’agricoltura che l’ha resa ciò che conosciamo oggi si è avuto con la cosiddetta “rivoluzione verde”, un processo di industrializzazione e meccanizzazione dell’agricoltura che si è verificato essenzialmente dalla fine della seconda guerra mondiale. Si tende a volte a confondere questo processo col generico sviluppo, basato sulle conoscenze chimiche e biologiche a partire dalla metà del XIX secolo fino a risalire a Justus von Liebig (1803-1873), che scoprì i meccanismi metabolici dei vegetali, e a Gregor Johann Mendel (1822- 1884), che gettò le basi della genetica.

Liebig aveva compreso che gli scarichi fognari delle città potevano rappresentare ricche riserve di azoto e fosforo per l’agricoltura al posto del guano acquistato dall’estero, in perfetta ottica circolare; per questo forse oggi sarebbe il riferimento di una intera generazione di ecologisti e probabilmente un difensore cristallino del riciclo di materia ed energia.

Viceversa l’applicazione odierna della rivoluzione verde, dominata dal mercato, ha deformato le cose, nel senso di considerare prima di tutto la produttività come tale dell’area agricola usata; questo senza porre attenzione all’ecosistema in cui l’agricoltura è inserita con effetti drammatici, quali la riduzione di aree coltivabili e di biomassa, la dipendenza energetica, la riduzione della biodiversità, l’incapacità a riciclare le grandi quantità di N e P messe in circolo. Ma le cose sono poi ancora più articolate.

Un precursore poco conosciuto della rivoluzione verde fu un ricercatore italiano, Nazareno Strampelli (1886-1942), che riuscì ad ottenere fra gli altri il grano “Ardito”, un chiaro riferimento all’ideologia fascista imperante all’epoca; le sue scoperte vertevano essenzialmente sui fenomeni di ibridizzazione delle varietà. Dal punto di vista pratico il suo metodo di incrociare varietà differenti per ottenere nuove cultivar si dimostrò vincente sul metodo allora più in voga di selezionare le sementi solo all’interno di una singola varietà. Gli aumenti di produttività innescati da queste modifiche portarono l’Italia a vincere la cosiddetta “battaglia del grano”, ossia a reagire in modo significativo ai provvedimenti politico-economici scatenati contro l’Italia fascista che aveva invaso l’Etiopia per trovare il proprio posto al sole.

La sostenibilità in agricoltura, focus della rivoluzione verde, può essere misurata tramite indicatori che non sempre vanno a braccetto gli uni con gli altri. Il caso più lampante è quello del consumo di suolo utilizzato da Elena Cattaneo per screditare la sostenibilità del biologico rispetto al metodo convenzionale. È fatto altamente accertato che la produzione biologica necessita di una maggiore quantità di suolo a parità di resa. Tuttavia, presentare solo questo aspetto per valutare la sostenibilità di un metodo agricolo può rivelarsi un approccio, anche in questo caso, pericolosamente riduzionista.  Negli ultimi 150 anni abbiamo trasformato il 40% delle terre emerse in aree urbane o coltivate.

Il suolo disponibile per la coltivazione è in diminuzione a causa dell’aumento costante dell’urbanizzazione (si stima che la percentuale di persone che vivranno nelle città passerà dal 50% di oggi al 70% di qui al 2050), ma anche per la degradazione della qualità del suolo.

I dati italiani mostrano che negli ultimi 50 o 60 anni abbiamo perso oltre 100mila kmq di terreno adibito ad attività agricole e di questi il grosso non è ridiventato bosco, non si è “rinselvatichito”, se non per un 20% mentre il grosso di questa superficie è stata infrastrutturata in qualche modo, cosa che non appare strana se pensiamo che la popolazione nel frattempo è cresciuta di circa 15 milioni di abitanti e la qualità della vita, i bisogni di mobilità e il consumo energetico pro-capite sono aumentati. Il terreno abbandonato dall’agricoltura specie nella mezza montagna si è rinselvatichito forse di più ma la sua qualità complessiva si è ridotta nel senso che la gestione umana è venuta a mancare e i tempi di una riappropriazione “naturale” non ci sono stati: una foresta raggiunge il suo climax in secoli non in decenni. La conseguenza di questo è stata l’incremento massiccio della degradazione del paesaggio, del suolo, l’aumento del numero di “incidenti” naturali devastanti: alluvioni, frane, etc.

L’eccessivo sfruttamento del suolo può portare infatti a una perdita di qualità tale da renderlo inutilizzabile, producendo squilibri sui cicli dei nutrienti e dell’acqua e sulla biodiversità. Un metodo di coltivazione più estensivo permette di preservarne la qualità più a lungo, poiché ne riduce l’impoverimento in nutrienti e numero di specie presenti e aumenta la sua capacità di trattenere l’umidità. In questo senso l’agricoltura biologica offre prestazioni migliori nel preservare la biodiversità, compresa quella microbiotica, e, di conseguenza, la qualità del suolo.

L’altro aspetto da considerare legato al consumo di suolo, di cui pochissimo si parla, è quello energetico. Per aumentare le rese per ettaro è infatti necessario investire quantità maggiori din energia, a discapito dei costi biofisici già esposti (Conforti, Giampietro 1997). Considerando che oltre a una certa soglia ulteriori investimenti energetici non corrispondono a un parallelo aumento di resa, il rapporto tra energia investita e energia ricavata diventa sempre più svantaggioso superata una certa soglia. L’approccio della produzione biologica è quello di ridurre quanto più possibile le pratiche più impattanti sul terreno, come l’aratura profonda del suolo.

Abbiamo detto come la fertilizzazione di sintesi rappresenti uno dei maggiori consumi energetici dell’agricoltura convenzionale. Se aggiungiamo l’alto grado di meccanizzazione, le attività agricole convenzionali in genere contribuiscono maggiormente ai consumi energetici e alle emissioni complessive di CO2 in atmosfera, con maggiori contributi al riscaldamento globale, all’acidificazione degli oceani e, di conseguenza, alla perdita di biodiversità su scala globale. Sarebbe importante, sia da parte della politica che della comunità scientifica, cominciare ad affrontare il problema dell’agricoltura e della sua sostenibilità, presente e futura, con quella complessità che lo contraddistingue, riconoscendo meriti e limiti di ogni approccio finora sperimentato, così come quelli di nuova introduzione. Una complessità che dipende dalla enorme quantità di variabili in gioco, tra cui quella troppo spesso sottovalutata: dietro all’agricoltura ci sono le persone, con la loro necessità di lavorare e sostentarsi, il loro diritto a un cibo sano e sicuro, i loro interessi economici e sociali, la loro cultura, il legame con i loro territori.

Ci sono 5 punti che qualunque strategia deve assicurare; li copiamo quasi pari pari da un aureo libretto di pratica biologica scritto da uno dei padri del biologico europeo, Claude Aubert (Agricoltura biologica, tecniche di base La casa verde 1988) senza condividere per forza le convinzioni dell’autore:

– Produrre alimenti di qualità

– Salvaguardare l’ambiente

– Mantenere o migliorare la fertilità del suolo

– Ridurre o eliminare lo spreco di energia e materie prime

– Permettere agli agricoltori (e a tutti i lavoratori della terra, qualunque ruolo abbiano) di

vivere del proprio lavoro

Questi 5 punti irrinunciabili consentono di capire perché la prospettiva economica misurata a colpi di “rese agricole per ettaro” spesso non tiene esplicitamente conto dei costi sociali, energetici e ambientali e le politiche in questo hanno delle grosse responsabilità. In alcuni paesi emergenti, la scelta di sovvenzionare e liberalizzare i fertilizzanti di sintesi ha reso più conveniente mettere da parte la maggior parte delle problematiche ambientali per andare incontro alla necessità di risparmio di suolo. Non si può inoltre tralasciare come l’incentivazione del biologico possa trainare effetti positivi sulle abitudini alimentari dei cittadini. È stato infatti dimostrato che i consumatori di prodotti bio non soltanto hanno in media abitudini alimentari più salutari, ma adottano stili dietetici di minore impatto ambientale e più ecofriendly.

La ricerca scientifica è di fondamentale importanza per tutto questo discorso, anche per fronteggiare il momento storico che globalmente stiamo vivendo, in un mondo che non ha ancora finito di condividere equamente i benefici del progresso scientifico e tecnologico, ma già deve spartire le conseguenze di uno sviluppo umano troppo rapido per i tempi del Pianeta. E probabilmente neppure le innovazioni che la scienza ci offrirà saranno sufficienti se non capiremo che non si può crescere all’infinito nei limiti fissati dalla materia e dall’energia a disposizione sulla Terra. Dovremo presto porci il problema di dover attingere a una molteplicità di soluzioni che non necessariamente proverranno da quelle fornite decenni fa dalla rivoluzione verde né probabilmente dal biologico. Tutto ciò avrà bisogno di un nuovo nome: agroecologia.

  • Katia Genovali, giovane fisica con un dottorato in astrofisica, si dedica alla divulgazione della scienza e lavora attualmente presso il CNR di PIsa con una borsa di studio.

Innovazione: per fare cosa?

14 February, 2022 - 08:39

Vincenzo Balzani

(già pubblicato su Bo7 del 13 febbraio)

Nei periodi di crisi, come quello che stiamo attraversando, da molte parti si sostiene che è necessario fare spazio alla crescita e, quindi, all’innovazione, che è il motore della crescita. In effetti, è un momento favorevole per l’innovazione, anche perché è sostenuta con incentivi statali.

C’è un vento a favore dell’innovazione ma, come dice un noto aforisma di Seneca, “Non c’è vento a favore per il marinaio che non sa dove andare”. Ecco allora: di fronte a parole come crescita e innovazione, la prima cosa da chiedersi è: per andare dove? Per rispondere in modo corretto, bisogna sapere dove siamo e come siamo arrivati fin qui: siamo in una situazione di insostenibilità ecologica, perché stiamo distruggendo il pianeta, e di insostenibilità sociale, perché abbiamo creato disuguaglianze insostenibili; a tutto ciò vanno aggiunte gravi tensioni internazionali (ad esempio, Russia-Ucraina-NATO) e guerre più o meno dimenticate (Yemen).

Un’innovazione volta soltanto ad aumentare i consumi e ad accrescere le disuguaglianze, come è accaduto negli scorsi decenni, è la ricetta per accelerare la corsa verso la catastrofe di cui parla anche papa Francesco nell’enciclica Laudato si’. Per salvare il pianeta e noi stessi è necessario che l’innovazione non sia funzionale al consumismo e tanto meno alla creazione di ostilità e guerre, ma alla sobrietà, alla collaborazione e alla pace.

Spesso, le innovazioni sono viste positivamente perché contribuiscono a risolvere il problema della scarsità di lavoro. A volte, purtroppo, lo fanno a scapito della pace, fornendo strumenti di guerra sempre più sofisticati e micidiali. Più spesso, lo fanno a scapito della sostenibilità ecologica e sociale. Fra gli esempi di innovazione sbagliata, oltre a quelli nel settore degli armamenti, possiamo citare la conversione delle raffinerie di petrolio in bioraffinerie alimentate con olio di palma proveniente in gran parte dall’Indonesia e dalla Malesia, dove per far posto alle piantagioni di palme vengono compiute estese deforestazioni con gravi danni per il territorio e per il clima. Lo scopo recondito della produzione di biocarburanti è infatti quello di continuare ad usare i combustibili fossili, ai quali i biocarburanti vengono miscelati per ottenere gas e combustibili liquidi (diesel) ingannevolmente pubblicizzati e commercializzati come combustibili “verdi”.

I settori dove è più necessario innovare sono quelli dell’istruzione e della cultura. Bisogna far sapere a tutti i cittadini, in particolare ai giovani, quale è la situazione reale del mondo in cui viviamo per quanto riguarda risorse, rifiuti, disuguaglianze e guerre. L’istruzione è in gran parte di competenza dello Stato, ma anche a livello locale si può fare molto. Lo possono fare, con opportuni corsi di aggiornamento culturale e di formazione politica, le regioni, i comuni, le confederazioni dei lavoratori e degli industriali, i partiti e, perché no, le parrocchie.

Suggerimenti di lettura:

https://www.tandfonline.com/doi/full/10.1080/13662716.2020.1818555

https://www.tandfonline.com/doi/abs/10.1080/13662716.2020.1726729?journalCode=ciai20

Costituzione e ambiente

11 February, 2022 - 13:33

Luigi Campanella, già Presidente SCI

Scrivendo la Costituzione, tra il 1946 e il 1947, i nostri Padri Costituenti trascurarono del tutto la nozione di ambiente, che oggi siamo abituati a conoscere. D’altra parte non poteva certamente esistere nessuna presa di coscienza dei gravissimi danni provocati dall’azione umana al patrimonio naturale e dei grandi mutamenti che avrebbero successivamente toccato il Pianeta. Così nell’articolo 9 della Costituzione ci si limitò a prevedere l’impegno della Repubblica a tutelare il paesaggio e il patrimonio storico e artistico della nazione. 

La circostanza che nel nostro ordinamento giuridico non si rilevi un compiuto status costituzionale dell’ambiente non può certamente addebitarsi ai padri costituenti, ma piuttosto all’incapacità che negli anni a venire l’ordinamento giuridico ha palesato nel non riuscire a completare una riforma sistematica dell’impianto costituzionale, con cui riuscire ad assegnare all’ambiente quel valore dimostratosi sempre più necessario ed impellente. Infatti nel tempo le cose sono profondamente cambiate: l’esigenza innanzitutto, ma non solo, economica di recuperare i danni della seconda guerra mondiale ha obbligato a trascurare alcuni valori, fra i quali proprio l’ambiente, insieme a salute e sicurezza, puntando sulle produzioni spinte, favorite dai nuovi materiali, la plastica innanzitutto.

Questo ha portato ad una situazione di degrado ambientale che ci ha obbligati a rivedere le primarie posizioni. Progressivamente attenzione e sensibilità verso l’ambiente sono cresciute sfociando in norme e leggi che mai prima avevano però assunto un carattere costituzionale. Ora la Camera ha approvato l’inserimento della tutela ambientale nella nostra Costituzione, con riferimento anche alla protezione degli animali ed alla conservazione della diversità biologica. L’Italia diviene cosi il terzo Paese al mondo dopo Ecuador e Bolivia a sancire il diritto della Natura ad esistere. È la prima volta che viene modificata la prima parte della Costituzione (composta dai primi 12 articoli), cioè quella riguardante i principi fondamentali della nazione. Il testo ha ottenuto 468 voti favorevoli, un contrario e sei astenuti. La riforma, che era stata già approvata dal Senato in seconda lettura a novembre 2021, entra subito in vigore e non è sottoponibile a referendum (poiché votata da oltre due terzi del Parlamento). Ecco come cambiano i due articoli della Costituzione (in grassetto le nuove parti).

Articolo 9: “La Repubblica promuove lo sviluppo della cultura e la ricerca scientifica e tecnica. Tutela il paesaggio e il patrimonio storico e artistico della Nazione. Tutela l’ambiente, la biodiversità e gli ecosistemi, anche nell’interesse delle future generazioni. La legge dello Stato disciplina i modi e le forme di tutela degli animali”.

Articolo 41: L’iniziativa economica privata è libera non può svolgersi in contrasto con l’utilità sociale o in modo da recare danno alla sicurezza, alla libertà, alla dignità umana, alla salute, all’ambiente. La legge determina i programmi e i controlli opportuni perché l’attività economica pubblica e privata possa essere indirizzata e coordinata a fini sociali e ambientali”.

Cosa vuole significare questo cambiamento? Il superamento del rapporto individuale con l’ambiente per divenire un rapporto di comunità che sancisce questo valore come un patrimonio collettivo con diritto di proprietà e che pertanto se viene messo in discussione di fatto comporta un’azione anticostituzionale. In quanto proprietà della comunità la qualità ambientale deve essere garantita nel tempo, in questo introducendo un principio fondamentale alla base del concetto di sostenibilità. Si comprende come si tratti di una vera rivoluzione: ogni azione nei confronti dell’ambiente  da oggi in poi è regolata dal dettato costituzionale.   La innovazione introduce un riferimento all’interesse delle generazioni future e pone un preciso vincolo. L’attuazione della tutela ambientale non deve soltanto assicurare la soddisfazione dei bisogni delle odierne generazioni, ma deve essere concepita in modo tale da assicurare le migliori condizioni di vita alle generazioni che seguiranno. Di conseguenza, le politiche in materia non potranno essere pensate con obbiettivi di breve scadenza, ma dovranno essere rivolte al futuro in una prospettiva di lungo periodo.

Le opportunità della luce.

8 February, 2022 - 09:35

Luigi Campanella, già Presidente SCI

La scelta della luce più opportuna nelle gallerie e nei musei per rendere più fruibili le opere esposte al tempo stesso preservandole da possibili alterazioni correlate a processi fotochimici è un aspetto della gestione delle opere d’arte che non sempre viene considerato nella sua giusta importanza.

Ma si tratta anche di una questione che riguarda la nostra vita di tutti i giorni. Con il diffondersi dello smart working la condizione di illuminazione è divenuta sempre più essenza di qualità di vita. Oggi le lampadine più utilizzate sono quelle a led fatte di chip di silicio che trasformano la corrente in luce. Da settembre è entrata in vigore una nuova etichetta che ci aiuta a scegliere la luce ottimale.

I led non sono tutti uguali: c’é  una prima classificazione di qualità da A a G. Ci sono poi la potenza, la quantità di energia erogata e l’indice di resa cromatica da zero a cento che indica quanto la luce artificiale consenta di fare percepire i colori reali; ed infine la durata di vita della lampadina che dipende però anche largamente dal modo di uso.

Se parliamo però di benessere da cui siamo partiti con riferimento alle molte ore spese a tavolino il parametro più interessante è la temperatura di colore con i cosiddetti colori freddi e colori caldi che hanno sulla nostra vista effetti diversi in quanto alcuni di quelli freddi, il blu in particolare, sembrano avere ripercussioni negative sulla nostra vista con l’autodistruzione cellulare della retina. Al contrario ci sono tonalità che hanno effetti terapeutici perché possono regolare la produzione di neurotrasmettitori. Le lampadine imitando per quanto possibile la luce naturale generano luce bianca che contiene diversi colori corrispondenti alle varie lunghezze d’onda con spettro continuo emesso. Nel caso invece dei led l’emissione non è dovuta ad effetto termico  come in quelle ad incandescenza ed all’interno di una stessa lampadina ci sono led di colori diversi che portano per l’appunto a produrre luce calda o fredda con le differenze di cui ho prima parlato. Tornando al ruolo della luce per farci godere dinnanzi ad un’opera d’arte rendendocela fruibile al massimo vorrei ricordare che alcuni pigmenti sono fotodegradabili e che in presenza di umidità si possono creare con luce sbagliata condizioni di rischio per un quadro.

Ad esempio per impreziosire sfondi e dettagli decorativi di molte opere d’arte, si usavano foglie d’oro, ma a causa dei costi elevati, il loro impiego era riservato alla realizzazione di aureole e particolari preziosi e, per le zone più ampie, veniva usata una miscela composta da polvere d’argento metallico e orpimento: un pigmento giallo simile all’oro, destinato però a scurirsi con il tempo. La scoperta della causa dell’imbrunimento, è avvenuta grazie alle analisi condotte ai raggi X sul “finto oro” usato da Cimabue nella sua celebre opera “La maestà di Santa Maria dei Servi“, conservata a Bologna. Le analisi sono state condotte presso il sincrotrone di Grenoble e il Centro di Ricerca Desy di Amburgo. Il team (guidato dall’Istituto di Scienze e Tecnologie Chimiche “Giulio Natta” del CNR e dall’Alma Mater Studiorum di Bologna, in collaborazione con l’Università di Perugia e l’Università di Anversa) ha concluso che il fenomeno è imputabile principalmente all’umidità e può aggravarsi con l’esposizione alla luce.

La chimica della biosfera profonda

4 February, 2022 - 11:13

Claudio Della Volpe

C’è qualcuno dei nostri lettori più anziani che non abbia letto Verne?

Probabilmente il numero dei lettori di Verne si riduce con l’età, nel senso che Verne è stato sostituito da altri scrittori, casomai di fantascienza; ma sono sicuro che fra le persone di 50-70 anni che leggono queste pagine molti abbiano letto “Viaggio al centro della Terra”; per me una lettura indimenticabile che fu alla base, ancor più di altri romanzi del grande francese, della meraviglia con cui guardo ancora oggi la Natura.

L’idea che le grandi profondità del nostro pianeta ospitino la vita in forme che a stento immaginiamo è tornata ripetutamente nella nostra cultura a partire dall’Ade, dall’inferno cristiano, dal grande viaggio di Dante e poi dai ripetuti sogni esplorativi della grande novellistica ottocentesca.

Tuttavia la esplorazione concreta del sottosuolo e delle grandi profondità marine, spinte dalla sete di energia e risorse minerarie, se hanno fatto giustizia delle ingenue visioni di Verne, hanno fondato con grande base sperimentale un’altra visione del sottosuolo che oggi viene indicata col termine di biosfera profonda, deep biosphere.

Secondo Wikipedia:

Le prime indicazioni di vita profonda provenivano dagli studi sui giacimenti petroliferi negli anni '20, ma non era certo che gli organismi fossero autoctoni fino a quando negli anni '80 non furono sviluppati metodi per prevenire la contaminazione dalla superficie. I campioni vengono ora raccolti in miniere profonde e programmi di perforazione scientifica nell'oceano e sulla terraferma. Sono stati istituiti osservatori profondi per studi più ampi. Vicino alla superficie, gli organismi viventi consumano materia organica e respirano ossigeno. Più in basso, questi non sono disponibili, quindi fanno uso di "edibles" (donatori di elettroni) come l'idrogeno (rilasciato dalle rocce da vari processi chimici), il metano (CH4), i composti solforati ridotti e l'ammonio (NH4). Essi "respirano" accettori di elettroni come nitrati e nitriti, manganese e ossidi di ferro, composti di zolfo ossidati e anidride carbonica (CO2). C'è pochissima energia a profondità maggiori, quindi il metabolismo è fino a un milione di volte più lento che in superficie. Le cellule possono vivere per migliaia di anni prima di dividersi e non vi è alcun limite noto alla loro età. Il sottosuolo rappresenta circa il 90% della biomassa in due domini della vita, Archea e Bacteria, e il 15% del totale per la biosfera. Si trovano anche Eukarya, inclusi alcuni funghi vitali multicellulari e animali (nematodi, vermi piatti, rotiferi, anellidi e artropodi). Sono presenti anche virus che infettano i microbi.

Il nuovo mito è stato fondato dal libro di Thomas Gold di cui riporto qui sopra la copertina; in quel libro, pubblicato nel 1999 e preceduto da un articolo dello stesso titolo su PNAS l’autore sosteneva dei punti di vista altamente innovativi e che non si rivelarono tutti corretti, ma che sono stati molto stimolanti per la ricerca della vita nell’Universo:

Gold suggeriva che la vita microbica era probabilmente diffusa in tutto il sottosuolo terrestre, risiedendo negli spazi dei pori tra i grani nelle rocce. Inoltre, ipotizzava che questa vita probabilmente esisteva a una profondità di più chilometri, fino a quando la temperatura elevata non diventasse il fattore vincolante. Gold ipotizzò che la vita nelle aree sotterranee fosse supportata da fonti chimiche di energia, piuttosto che da fonti fotosintetiche, da cui in definitiva dipende la vita in superficie. I nutrienti che supportavano questa vita nel sottosuolo erano forniti, secondo l’autore, sia dalla migrazione di fluidi dalle profondità della crosta terrestre sia dalla roccia ospite stessa, che contiene minerali sia ossidati che ridotti. Sebbene sia probabile che sia tutto microbico, Gold ipotizzò che la massa della vita sotto la superficie in questa biosfera poco conosciuta fosse paragonabile a quella presente negli ambienti di superficie. Gold pensava che se c'è vita in profondità, le rocce che contengono o possono produrre  “idrogeno (H2), metano (CH4) e altri fluidi. . . sembrerebbero i luoghi più favorevoli per la prima generazione di sistemi autoreplicanti”, profondamente consapevoli che “tale vita può essere ampiamente disseminata nell'universo” . Inoltre, Gold ipotizzò che gli idrocarburi e i loro prodotti derivati ​​alimentano la vita chemiosintetica del sottosuolo e che questi idrocarburi non sono la biologia rielaborata dalla geologia, ma, piuttosto, la geologia rielaborata dalla biologia. Questi commenti sono tratti da un articolo commemorativo comparso sempre su PNAS nel 2017 di Colman e altri . L’idea più controversa e che si è poi dimostrata falsa di Gold era l’origine endogena del metano e dei fossili che oggi sappiamo con sicurezza originati invece dalla degradazione di materiali provenienti dalla biosfera superficiale. Tuttavia molte altre idee si sono dimostrate sperimentalmente concrete.

PNAS | July 3, 2017 | vol. 114 | no. 27 | 6895–6903

In particolare una biosfera profonda costituita da una vita essenzialmente microbica, ma non solo, si estende

al di sotto dei nostri piedi e arriva a profondità variabili in dipendenza della temperatura interna della crosta, fermandosi ragionevolmente attorno ai 150°C che significa però decine di chilometri.

A causa della elevata pressione l’acqua rimane liquida e questo giustifica, ma complica, la possibilità di mantenimento della vita; in laboratorio la massima temperatura per la sopravvivenza di batteri è stata misurata in 122°C a circa 400 atmosfere (Takai, Ken (2019). “Limits of Terrestrial Life and Biosphere”. Astrobiology. pp. 323–344. doi:10.1007/978-981-13-3639-3_20. ISBN 978-981-13-3638-6.) Questa situazione esemplifica un nuovo tipo di organismi, i batteri “piezofili” che non sopravvivono sotto le 50 atmosfere.

La temperatura elevata accelera ogni tipo di reazione ed obbliga alla costruzione di enzimi specifici che resistano alle nuove condizioni di impiego.

Noi siamo abituati ad una vita che respira un’ossidante il quale a sua volta ossida dei riducenti essenzialmente organici; dunque i riducenti sono il cibo di specie che respirano ossigeno; tuttavia questo non è possibile nel sottosuolo, dove i batteri possono si usare come riducenti specie organiche, casomai provenienti dalla biosfera superiore ma possono usare anche metano oppure idrogeno che viene generato da parecchie reazioni di tipo geologico, ma devono usare come ossidanti “respirabili” altre specie chimiche: nitrati e nitriti per esempio oppure manganese, ossidi di ferro, composti di zolfo ossidati e anidride carbonica (CO2).

Le condizioni specifiche e la bassa concentrazione dei materiali edibili (riducenti) o respirabili (ossidanti) implicano una vita che si accontenta di quel che trova e dunque molto meno intensa e veloce che in superficie.

Tuttavia si stima che la biosfera profonda sia una frazione significativa di quella totale specie per i batteri tipo Archea.

La cosa da notare è che stiamo parlando di processi che potrebbero svilupparsi in molte condizioni comuni in ambito astronomico: per esempio sotto strati di roccia all’interno di pianeti, satelliti, comete, dunque in condizioni molto lontane da quelle che associamo tipicamente alla vita; questo fa pensare che un simile tipo di sviluppo possa essere molto più comune di quanto immaginiamo e che la vita sia in qualche modo il portato “spontaneo” delle condizioni geologiche prevalenti in buona parte dell’universo.

Questa nuova idea si presenta come sconvolgente per molti scienziati, ma è basata su una vasta mole di osservazioni sperimentali. E’ relativamente probabile che nella nostra esplorazione del sistema solare la vita basata su queste condizioni e su analoghi processi possa essere scoperta nei prossimi anni “dentro” i corpi del sistema solare.

Una ultima nota riguarda il fatto che teorie di questa natura sono state sviluppate nell’ambito della cultura russa ben prima che in quella occidentale, ma che per meri motivi politici questa origine è stata messa quasi sempre ai margini; in Italia esiste per fortuna un gancio nei confronti di quella cultura che è il gruppo di epistemologia fondato a Milano da Ludovico Geymonat che ancora è presente sulla breccia tramite l’attività di Silvano Tagliagambe a cui dobbiamo una recentissima traduzione del fondatore del pensiero scientifico sulla natura “geologica” della vita, sulla sua origine “naturale” dall’ambito geologico, e cioè V. I. Vernadskij, che sviluppò ed articolò l’idea di biosfera (fondata da Suess qualche anno prima) e l’idea della noosfera, quanto di più simile all’attuale concetto di antropocene a cui dobbiamo il sottotitolo del nostro blog.

la Terra e la vita che la abitano costituisc(o)no un solo sistema, che ha la capacità di autoregolarsi in modo da mantenere al suo interno le condizioni adatte alla sopravvivenza degli organismi viventi mediante un processo attivo, sostenuto dall’energia fornita dalla luce solare. Lo studio di questo grande sistema non può, ovviamente, essere condotto in modo frammentario e parziale, rispettando i tradizionali confini tra le singole competenze disciplinari. Esso esige un approccio del tutto nuovo e diverso, che frantumi e attraversi ogni barriera divisoria tra campi differenti e proponga un’indagine che abbia attenzione primaria per i problemi teorici da affrontare e risolvere, e non per le suddivisioni del sapere scientifico che sono, tra l’altro, “un fatto formale, esterno e superficiale.

V.I. Vernadskij, Filosofskie mysli naturalista, cit., p. 389 cit da Silvano Tagliagambe, p.36 in Dalla biosfera alla noosfera. Pensieri filosofici di un naturalista di Vladimir I. Vernadskij, Mimesis 2022. A cura di Silvano Tagliagambe

a cura di Silvano Tagliagambe

Attenzione perché la noosfera non ha necessariamente i caratteri negativi dell’antropocene o peggio del capitalocene, ma al contrario implica che l’interazione fra materia vivente e materia inanimata sia del tutto naturale, faccia parte della spontaneità della Natura e possa essere completamente positiva; tutto dipende da cosa facciamo noi. E questo, ammetterete, è un bel suggerimento.

Rapporto Alma Laurea e le donne

2 February, 2022 - 15:37

Luigi Campanella, già Presidente SCI

il rapporto del.Consorzio Alma Laurea, il primo di genere presentato a Bologna, ha esaminato il rapporto fra studenti e studentesse nella carriera universitaria dagli studi ai primi impieghi alla carriera nel mercato del lavoro.

L’indagine ha coinvolto quasi 300 mila laureati del 2020 e quasi 600 mila del 2019,2017 e 2015, intervistati a distanza d1,3 e 6 anni dal conseguimento del titolo, attingendo principalmente alle Indagini sul Profilo e sulla Condizione Occupazionale dei Laureati realizzate annualmente dal Consorzio.

L’obiettivo é  mappare, riorganizzare, esplorare e approfondire il complesso e articolato insieme di informazioni statistiche su scelte formative ed esiti occupazionali, per rappresentare e comprendere le differenze tra laureate e laureati, sotto molteplici punti di vista, partendo da un dato: in Italia, nel 2020, le donne costituiscono quasi il 60% dei laureati.

Il primo dato che emerge è che le donne si laureano in maggior numero (60%), prima e con voti migliori (voto di laurea medio 82/100 contro 80/100degli uomini; risultano anche più intraprendenti ed appassionate dei loro colleghi. Quando poi però dallo studio passiamo al lavoro questa superiorità non produce frutti: la carriera degli uomini è più rapida ed è confortata da stipendi più elevati.

L’accesso al lavoro dipendente come anche alla libera professione è piu facile per l’uomo per 4-6 unità percentuali. Differenze significative si registrano anche nelle ambizioni: le donne cercano più degli uomini la stabilità del posto di lavoro, l’autonomia e l’utilità sociale, mentre gli.uomini pensano più al prestigio ed alla retribuzione.

Una differenza molto significativa: la laurea come ascensore sociale vale più per le donne che per gli uomini. La corrente pandemia ha aggravato tutte queste differenze che si attenuano, fino a quasi scomparire, quando il confronto viene limitato alle lauree STEM, il che è un altro contrasto con quanto talvolta si sente dire circa il presunto minore interesse della donna rispetto all’uomo circa l’attività in laboratorio per motivi di sicurezza e di disponibilità temporali.

Quasi a bilanciare questo Rapporto nello stesso giorno Wikipedia ha deciso di allargare la sua attenzione alle donne italiane che durante l’occupazione scelsero di combattere il nazismo. È stato lanciato un appello per conoscere quanto più possibile su dì loro: attivisti, politiche e combattenti hanno nomi e storie pressoché sconosciuti. Attualmente le presenti sono pochissime ed è stata attivata una maratona di contribuzioni per fare crescere il numero dei presenti nell’Enciclopedia. Di quelle presenti 19 sono corredate con biografie documentate e ricche: si tratta di medaglie al valore militare. La giornalista Ada Gobetti ha scritto a commento una nota di assoluto valore e significato: fu la Resistenza a dare alle donne italiane un’occasione importante per partecipare a tutte le attività della Liberazione, rompere il silenzio ed uscire dal ruolo subalterno che era stato loro assegnato dal Fascismo.

Intelligenza artificiale (AI) e fotonica.

31 January, 2022 - 13:32

Luigi Campanella, già Presidente SCI

Le intelligenze artificiali scambiano enormi quantità di dati e per fare questo richiedono reti ultraveloci che consumano energia in misura crescente con il loro diffondersi: si pensi che dal 2017 al 2019 i modelli di rete neurale prevedevano 100 milioni di variabili ed oggi ne prevedono un miliardo e che è stato valutato al 10% dell’utilizzo mondiale di elettricità l’energia consumata dai Data Center, i sistemi dotati di intelligenza artificiale. Per progettare ed addestrare una rete neurale a trovare la soluzione si produce CO2 in quantità circa 5 volte maggiore a quella emessa in tutta la sua vita da un’autovettura e circa 50 volte superiore a quella emessa in un anno da un essere umano. La componente più rilevante si riferisce all’energia spesa per il raffreddamento dei sistemi di calcolo. Un altro aspetto riguarda l’impatto ambientale: questi processori potenti richiedono minerali rari estratti da miniere con conseguente distruzione del territorio e poi alla fine della loro vita smaltiti nell’ambiente costituendo un rischio al degrado.

Il chip fotonico Xanadu. https://physicsworld.com/a/programmable-photonic-chip-lights-up-quantum-computing/

Alla Sapienza di Roma un gruppo di ricerca guidato dal fisico Claudio Conti ha elaborato un sistema a favore della sostenibilità dell’intelligenza artificiale. Tale sistema si basa sulla fotonica in luogo dell’elettronica. La fotonica, nata negli anni 70, impiega raggi laser per tante applicazioni, dalla medicina alla matematica. Per alcuni anni i suoi costi elevati non la rendevano vantaggiosa rispetto alla elettronica, ma oggi non è più così: un raggio luminoso, in particolare i fotoni che lo costituiscono, sostituisce la corrente elettrica per elaborare e veicolare le informazioni, ad esempio un’immagine, codificate attraverso un modulatore di luce. La macchina fotonica può, analogamente a quanto avviene per l’elettronica, essere addestrata all’intelligenza artificiale (machine learning). I vantaggi principali del nuovo processore fotonico rispetto all’elettronico sono la superiore capacità elaborativa  di informazioni in quanto i laser possono intrecciarsi e sovrapporsi senza interferenza di segnale e nel fatto che il fascio laser, al contrario della corrente, non scalda sprecando così energia: si valuta un’efficienza energetica superiore del processore fotonico rispetto a quello elettronico di circa 10mila volte. Infine se il raggio laser viene fatto propagare in aria non è necessario costruire una scheda di contenimento con un ulteriore vantaggio di semplificazione. Di fatto siamo dinnanzi ad una superintelligenza artificiale che non inquina.

Resta una domanda: avremo presto una delega totale all’algoritmo da parte del tecnico? Si tratta di una domanda particolarmente critica in certi settori, come la medicina.

Di recente di passaggio in un ospedale per la terza vaccinazione ho sentito un cittadino esclamare: non ho bisogno di un algoritmo, ma di un dottore. L’importante è non rinunciare da parte del tecnico ad un atteggiamento critico nei confronti della macchina, anche perché può sbagliare, come è ad esempio avvenuto nel caso dei veicoli a guida autonoma.

Questo atteggiamento critico però non deve cadere nell’errore opposto, lo scetticismo nei confronti di apparecchi che sono invece preziosissimi nella loro capacità elaborativa e nella velocità esecutiva. Il caso più noto è di certo il sequenziamento del genoma: milioni di dati che a mano non si potrebbero analizzare in modo compiuto. Si tratta non di una sostituzione degli esseri viventi, ma di un cambiamento dell’approccio, delle competenze, del modo di lavorare. Tornando da questo punto di vista alla medicina le direzioni future, quali la telemedicina, il tema è ormai solo quello di introdurre queste tecnologie all’interno degli ospedali e di gestire le ricadute organizzative. Un recente articolo su Nature dimostra che anche le politiche sanitarie risentono di questa svolta tecnologica: rispetto ad un incremento zero degli investimenti USA, c’è stato un aumento del 4,3% di quelli in telemedicina e sanità di precisione.

E questi dati non possono non faci porre una domanda: le risorse impegnate nelle intelligenze artificiali applicate alla telemedicina quanto possono essere considerate l’alternativa alla medicina del territorio le cui carenze si sono drammaticamente fatte sentire in occasione della pandemia?

June Monica Brooomhead Lindsey (1922-2021), un’altra donna dimenticata nella storia del DNA

28 January, 2022 - 15:46

Rinaldo Cervellati

La sua scoperta della struttura dell’adenina e della guanina è stata una parte fondamentale per risolvere il rebus della doppia elica del DNA, ma i suoi contributi sono quasi dimenticati.

June Broomhead (sposata Lindsey) è nata il 7 giugno 1922 da June Broomhead in un piccolo villaggio fuori Doncaster, nel Regno Unito. Alla sua scuola femminile, eccelleva nelle materie scientifiche. Tutti i suoi compagni di classe preferirono andare a Oxford e studiare i classici e argomenti del genere.

June Broomhead Lindsey in gioventù

Lindsey voleva studiare fisica. Qualcuno, forse sua madre Florence Broomhead, l’ha convinta a provare per Cambridge, un’università con esami di ammissione notoriamente difficili. “Anche la madre era una donna in anticipo sui tempi”, afferma la figlia di June, Jane Lindsey (una biostatistica presso la TH Chan School of Public Health di Harvard negli USA): “Suppongo che abbia instillato quel senso di indipendenza in mia madre, che l’ha portata a fare domanda a Cambridge per il suo talento“.

Dopo aver frequentato corsi di latino per soddisfare i requisiti di ammissione all’università, ha ricevuto un’offerta per studiare fisica a Cambridge con una borsa di studio completa.

Tuttavia, quando concluse la dissertazione nel 1944, ricevette un diploma, ma non una laurea completa. Prima del 1948, infatti, alle donne di Cambridge non era permesso ricevere lauree, un punto di vista antifemminista che l’università avrebbe impiegato 50 anni per correggere. Nel 1998, Lindsey e altre 900 donne l’avrebbero finalmente ricevuta in una sfarzosa cerimonia di laurea.

Durante gli ultimi anni della seconda guerra mondiale, Lindsey ha dovuto lasciare Cambridge e fare come le era stato detto. Ciò significava insegnare scienze in una scuola femminile, compensando la carenza di insegnanti di scienze che prestavano servizio nelle forze armate. Ma Lindsey tornò presto a Cambridge come ricercatrice per il dottorato. Fu convinta non solo perché le piaceva la fisica, ma perché lavorare con altri fisici dava più significato alla scienza, come scrisse all’epoca.

Nel 1945, Lindsey si unì al gruppo di cristallografia a raggi X di W.H. Taylor (1905-1984) presso il Cavendish Laboratory. Il dipartimento ospitava i più grandi nomi della cristallografia e di attrezzature all’avanguardia. Sotto la guida del pioniere della cristallografia Lawrence Bragg (1890-1971, Premio Nobel Fisica 1915), gli scienziati hanno puntato i raggi X su tutti i tipi di cristalli inorganici e organici. Ma la comprensione degli elementi costitutivi della vita – proteine ​​e DNA – era al centro dei loro sforzi.

June Lindsey e colleghi al Cavendish Laboratory

Incoraggiata dal successo di Dorothy Hodgkin (1910-1994)[1] e Kathleen Lonsdale (1903-1971)[2], Lindsey decise che la cristallografia sembrava essere un argomento in cui le donne potevano prosperare. Nel 2019 ha ricordato:”Fui messa in una stanza con due uomini e mi sono state date le sostanze su cui lavorare – e ovviamente si trattava di adenina e guanina”.

Nel corso di quattro anni, si assunse l’arduo compito di coltivare cristalli di adenina cloridrato emiidrato e guanina cloridrato monoidrato, ispezionarne le facce e gli assi, disponendoli con cura nel fascio di raggi X ed esponendoli per giorni o settimane per ottenere un modello di diffrazione: una foto con uno schema che mostrava un modello regolare di macchie.

Dovevo identificare da dove provenivano quelle macchie nel cristallo, quali piani stanno disperdendo i raggi X. Dovevo misurare l’intensità relativa di questi punti.” A quei tempi, l’unico modo per farlo davvero era a occhio, creando una specie di film cinematografico.

Fatto ciò, Lindsey dovette dedurre la struttura della molecola attraverso una serie di trasformazioni matematiche. Lindsey ricorda: “Stavo un sacco di tempo seduta alla scrivania  facendo questi noiosi calcoli“. In assenza di computer digitali, infatti, trascorreva ore a calcolare le trasformate di Fourier con le strisce di Beevers-Lipson[3]. Per prima cosa avrebbe ottenuto una mappa di Patterson[4], in cui i picchi rappresentano i vettori tra gli atomi. “L’intera arte consiste nel capire quale tipo di modello darà origine a quell’insieme di vettori. Una volta scelto un modello, torni indietro e stabilisci quali dovrebbero essere tutte le fasi, quindi si ricalcolano di nuovo le mappe, mostrando infine la struttura effettiva.”

June Lindsey (da: The Globe and Mail)

Dal punto di vista odierno, quando la maggior parte del calcolo e dell’elaborazione viene eseguita dai computer, “è difficile apprezzare quanto fosse dura e ripetitiva la cristallografia”, scrive il chimico e storico degli strumenti Andrea Sella, “potevano volerci mesi o forse un anno”.

Tuttavia, Lindsey ha definito il laboratorio “un luogo felice”. Dice la figlia Jane: “Penso che abbia trascorso il periodo migliore della sua vita”. Nonostante sia una delle sole quattro donne tra 100 uomini al Cavendish, Jane afferma che Lindsey “non ha mai percepito che ci fosse alcun tipo di discriminazione”.

Nel 1949, lo stesso anno in cui Lindsey terminò il suo dottorato di ricerca, Francis Crick arrivò al Cavendish. Quattro anni dopo, lui e James Watson avrebbero pubblicato la struttura a doppia elica del DNA e nel 1962 la coppia avrebbe condiviso un premio Nobel con Maurice Wilkins per la loro scoperta (v. https://ilblogdellasci.wordpress.com/2021/12/31/i-retroscena-del-nobel-rubato-a-rosalind-franklin/).

Ma alla fine degli anni ’40, il team sapeva poco della struttura del DNA a parte i componenti di base della molecola: uno scheletro zucchero-fosfato e quattro diverse basi azotate (adenina, timina, citosina, guanina) tutte presenti in quantità uguali. Ora si trovavano di fronte al puzzle di come “legare” quattro basi di dimensioni molto diverse tra due filamenti di zucchero-fosfato paralleli senza che la struttura dorsale si gonfiasse e si deformasse.

È qui che entrano in gioco le strutture a nucleobase di Lindsey, pubblicate in due studi nel 1948 [1]. “Chiunque stesse lavorando sul DNA, cercando strutture, usava praticamente quelle di June“, afferma Alex MacKenzie, professore di pediatria e scrittore a Ottawa (CAN). Secondo il libro dello storico della scienza Robert Olby, The Path to the Double Helix, finalmente Watson ha capito consultando la tesi di Lindsey: “Lì, con suo stupore, ha trovato uno schema regolare di legami idrogeno tra le basi di adenina e guanina proprio il giusto ordine di distanza per alloggiare all’interno della sua doppia elica“, scrive Olby.

Poiché gli atomi di idrogeno erano – e sono tuttora – notoriamente difficili da rilevare mediante la cristallografia a raggi X, Lindsey si era spinta molto a lungo per descrivere i legami a idrogeno intermolecolari tra le coppie di ciascuna base azotata. Da ciò, aveva dedotto le posizioni degli atomi di idrogeno di ogni molecola e molto probabilmente la forma tautomerica.

Watson ha avuto l’idea “meravigliosamente semplice” che le catene di DNA contenessero coppie di basi simili, secondo lo storico della scienza Horace Freeland Judson nel suo libro L’ottavo giorno della creazione. L’accoppiamento di basi consentirebbe anche a una molecola di DNA di decomprimersi e fornirebbe un meccanismo per copiare le informazioni genetiche.

L’idea si è rivelata un po’ troppo semplice: ora sappiamo che le basi non formano coppie simili ma piuttosto coppie purina-pirimidina. Ma è stato un passo importante nella giusta direzione. Sebbene le opere di Lindsey non siano citate nell’influente articolo su Nature del 1953 di Watson e Crick, la coppia ha discusso del suo contributo in un articolo pubblicato dalla Royal Society un anno dopo.

Nonostante abbia lavorato nello stesso edificio di Crick per un anno, Lindsey non ricordava di aver mai parlato con lui direttamente. “Non avevo importanza, ero una donna noiosa“, ha detto. “Se volevano informazioni sul mio lavoro, dovevano andare dal mio collega Bill Cochran“.

Dopo aver terminato il dottorato, Lindsey si trasferì a Oxford, dove ha lavorato con Dorothy Hodgkin sulla struttura della vitamina B12. Ammirava molto Hodgkin, ma a volte trovava frustrante lavorare con lei:  “passavo mesi e mesi a fare questi calcoli elaborati per arrivare al punto in cui poteva iniziare a cercare di capire la struttura fisica, e Hodgkin entrava, guardava l’immagine e capiva“.

Nel 1951, Lindsey si trasferì in Canada per raggiungere il marito George Lindsey[5]. Ha trovato lavoro presso il Consiglio Nazionale delle Ricerche (NRC) a Ottawa, ma poiché era una donna, non è stata assunta come ricercatrice. “Doveva timbrare il cartellino all’ingresso – qualcosa che i suoi colleghi maschi che erano classificati come scienziati non dovevano fare – e aveva uno stipendio abissalmente basso”, dice la figlia Jane.

Al NRC, ha risolto le strutture di importanti farmaci, codeina e morfina. Tuttavia, ha deciso di non pubblicare i suoi risultati su quest’ultimo medicinale quando ha scoperto che Hodgkin aveva incaricato uno degli studenti del suo gruppo di Oxford di lavorare sulla morfina per la sua tesi di dottorato. Preferiva invece che lo studente utilizzasse e si basasse sui suoi risultati.

“Poi ero determinata ad avere figli e non volevo rimanere alla NRC”, ha ricordato Lindsey nel 2019. “Né credevo che se hai bambini piccoli, dovresti avere un lavoro a tempo pieno”. Lindsey non è mai tornata alla ricerca scientifica. “Penso che a volte fosse dispiaciuta di aver lasciato la sua carriera.[Il suo periodo di ricerca] è stato un periodo molto felice della sua vita”, afferma Jane. “L’importanza del suo lavoro potrebbe, ironia della sorte, non essere nota a June come lo sarebbe stata per molte persone”, sostiene MacKenzie.

June Lindsey a 96 anni

Il 4 novembre 2021, June Lindsey è morta all’età di 99 anni. Anche se il suo nome manca da molti libri di storia della scienza, ora potrebbe ricevere un piccolo riconoscimento poiché il Newnham College, il college di Cambridge dove ha studiato come studentessa universitaria, sta valutando l’installazione di una targa in suo onore. Potrebbe anche avere un cameo in un prossimo film biografico su Rosalind Franklin (v. https://ilblogdellasci.wordpress.com/2017/11/27/scienziate-che-avrebbero-dovuto-vincere-il-premio-nobel-rosalind-franklin-1920-1958/).

“Mi piacerebbe, in definitiva, che fosse conosciuta, per non parlare di targhe e premi”, ha detto MacKenzie in un’intervista per il giornale Ottawa Citizen. “Solo se, quando si parla della doppia elica, la gente fosse consapevole del suo contributo.”

Bibliografia

[1] J.M. Broomhead, The structures of Pyrimidines and Purines. II. A Determination of the structure of Adenine Hydrochloride by x-Ray Methods., Acta Cryst., 1948, 1, 324-329.

*Tradotto e adattato da Katrina Krämer, June Lindsey, another forgotten woman in the story of DNA., Chemistry World, 13 December 2021, e da Elizabeth Payne, Obituary:’Unsung hero’ of science laid the ground work for epic DNA discovery., Ottawa Citizen, November 18, 2021.

[1] Dorothy Mary Crowfoot Hodgkin (maggio 1910 – luglio 1994) è stata una chimica britannica, premio Nobel per la chimica 1964, ha avanzato la tecnica della cristallografia a raggi X per determinare la struttura delle biomolecole, che divenne essenziale per la biologia strutturale.

[2] Dame Kathleen Lonsdale (1903 – 1971) è stata una pacifista, riformatrice carceraria e cristallografa irlandese. Ha dimostrato, nel 1929, che l’anello benzenico è piatto utilizzando metodi di diffrazione dei raggi X. Fu la prima ad utilizzare i metodi spettrali di Fourier mentre risolveva la struttura dell’esaclorobenzene nel 1931.

[3] Le strisce di Beevers-Lipson erano un aiuto computazionale per i cristallografi nel calcolo delle trasformate di Fourier per determinare la struttura dei cristalli dai dati cristallografici, consentendo la creazione di modelli per molecole complesse. Sono state utilizzate dagli anni ’30 fino all’avvento dei computer con una potenza sufficiente che furono disponibili negli anni ’60.

[4] La funzione (o mappa) di Patterson viene utilizzata per risolvere il problema della fase nella cristallografia a raggi X. È stata introdotta nel 1935 da Arthur Lindo Patterson mentre era ricercatore in visita al MIT. È essenzialmente la trasformata di Fourier delle intensità piuttosto che i fattori di struttura. Le posizioni dei picchi nella funzione di Patterson sono i vettori della distanza interatomica e le altezze dei picchi sono proporzionali al prodotto del numero di elettroni negli atomi interessati.

[5]ll canadese George Lindsey, incontrato al Cavendish Laboratory quando entrambi stavano lavorando a un dottorato di ricerca. George stava studiando fisica nucleare. Un erudito, svolse lavori di difesa militare durante la Guerra Fredda.

Copyright © 2012 Società Chimica Italiana. All Rights Reserved.