newsletter finesettimana #4
Buon venerdì,
questa settimana leggiamo dei Nobel assegnati per la medicina,
la fisica e la chimica, di quello che abbiamo imparato finora
sull'evoluzione di un caso moderato di infezione da coronavirus,
del paragone tra industria dei social media e del tabacco e di quasi
16 mila casi mancanti nel Regno Unito a causa di un foglio di calcolo
Excel con un numero di colonne limitato.
L'approfondimento di questa settimana riguarda l'impiego dei supercomputer
nel contrasto alla pandemia in corso, dalla simulazione del moto delle particelle di saliva
emesse da uno starnuto, alle previsioni epidemiologiche fino alla scoperta
o al riposizionamento di farmaci utili nel trattamento della COVID-19.
Buona lettura e al prossimo venerdì (per segnalare questa newsletter
agli amici
ecco il link per l'iscrizione
)
|
|
SEI PEZZI BELLI
|
1 Premio Nobel per la chimica alle scienziate di CRISPR
Il premio Nobel per la chimica è stato assegnato alla francese
Emmanuelle Charpentier e all'americana Jennifer Doudna
per le "forbici molecolari". L'Accademia svedese ha premiato
le due ricercatrici per lo sviluppo del sistema universale di
editing del genoma Crispr-Cas9
[Le Monde]
2 Il Nobel per la fisica ai buchi neri
Al fisico matematico inglese Roger Penrose è andato metà del premio per il suo articolo del 1965
che mostrava che "la formazione dei buchi neri è una robusta previsione della teoria generale della relatività".
L'altra metà del premio è condivisa dagli astrofisici Reinhard Genzel e Andrea Ghez,
per le osservazioni rivoluzionarie di stelle in orbita attorno al centro della Via Lattea
che hanno suggerito che un oggetto supermassiccio, invisibile e compatto dovesse risiedere lì
[Quanta Magazine]
3 Il Nobel per la medicina è andato a tre scienziati che hanno scoperto insieme l'epatite C
Harvey J. Alter, Michael Houghton e Charles M. Rice "hanno reso possibili esami
del sangue e nuovi farmaci che hanno salvato milioni di vite", ha dichiarato l'Assemblea svedese
delle scienze.
Prima della scoperta del virus dell'epatite C nessuno sapeva
perché molte persone che ricevevano trasfusioni di sangue sviluppassero
epatite cronica. Alter ipotizzò che un virus allora sconosciuto
potesse essere la causa principale della patologia,
mentre Houghton isolò il genoma del virus. Rice
fornì poi la prova finale che il virus dell'epatite C è in grado
di causare da solo l'epatite
[Vox]
4 Una rappresentazione grafica del corso di un'infezione da SARS-CoV-2
La grande quantità di dati ormai disponibile ha permesso agli scienziati
di ricostruire l'evoluzione di un caso sintomatico di infezione da coronavirus.
Dall'esposizione, all'insorgere dei sintomi, fino alla guarigione, come cambia la carica virale?
Quando raggiunge il suo picco? Qual è la finestra di tempo
più opportuna per effettuare i diversi tipi di test? E qual è l'effetto
di mascherine e distanziamento sociale? Un riassunto grafico di quello che
abbiamo imparato fin qui
[The New York Times]
5 Per regolare i social media prendiamo esempio dall'industria del tabacco
Tim Kendall, ex dirigente di Facebook, ha
paragonato i social media all'industria del tabacco in una testimonianza
difronte al Congresso. In particolare Kendall ha detto che
entrambi si sono impegnati per aumentare la dipendenza dei loro clienti.
Favorire la diffusione di disinformazione, teorie cospirazioniste e fake news
può essere paragonato all'impiego di sostanze chimiche come i broncodilatatori
che permettono al fumo di raggiungere più facilmente i polmoni.
Nella lotta alla dipendenza dal tabacco è stato cruciale limitare i luoghi in cui è
legale fumare, nello stesso modo i social media dovrebbero fare in modo
che contenuti ingannevoli raggiungano il minor numero di persone possibile
[MIT Technology Review]
6 La debacle di Excel
Sono 15 841 i casi mancanti nella settimana tra il 25 settembre e il 2 ottobre nel Regno Unito
che sono stati comunicati solo successivamente. La responsabilità è di un foglio di calcolo
Excel usato per tracciare il numero di casi positivi e che ha un numero limitato di colonne,
16 384. Quando il numero di nuovi casi ha superato questo limite il file non li ha più
conteggiati
[BBC]
|
|
SUPERCOMPUTER CONTRO LA PANDEMIA
|
Lunedì i CDC
hanno aggiornato
le linee guida sulla pandemia includendo gli aerosol tra
i possibili veicoli di trasmissione del virus. Gli aerosol
sono le particelle più piccole emesse dal naso e dalla bocca
di una persona quando starnutisce, tossisce o parla, e hanno
un diametro da qualche decimo di micrometro a dieci micrometri.
Queste particelle sono più leggere dei cosiddetti droplet,
che hanno diametri superiori fino a qualche centinaio di micrometri,
e dunque non sono attirati immediatamente a terra dalla forza di gravità
ma possono rimanere in movimento nell'aria per lunghi periodi.
La loro dinamica è particolarmente importante per valutare il
rischio di contagio in ambienti chiusi, in cui il ricambio dell'aria
è limitato.
L'aggiornamento delle linee guida dei CDC arriva tre giorni
dopo la notizia che Donald Trump è risultato
positivo al SARS-CoV-2 e a quattro giorni dal primo confronto
tra Trump e Biden in vista delle elezioni presidenziali
del 3 novembre prossimo. Biden e Trump si sono scontrati in
un dibattito trasmesso in diretta televisiva durato oltre
un'ora e mezza in cui hanno parlato
da podi distanziati di circa due metri. L'allestimento del
dibattito televisivo ha spinto molti
a chiedersi
se Biden è stato esposto a un rischio di contagio concreto.
Tra i modi per capire come droplet e aerosol circolano nell'aria
ci sono i modelli computazionali. Già ad aprile un gruppo di scienziati
del Kyoto Institute of Technology
aveva mostrato
che la distanza di sicurezza dovrebbe essere
maggiore di 1 metro (meglio 2 metri) per evitare di essere investiti
dagli aerosol.
Sempre la simulazione della dispersione di queste particelle nell'aria,
ha permesso, poche settimane fa, al supercomputer giapponese Fugaku di concludere che
le visiere
sono sostanzialmente inutili a contenere la diffusione dei droplet
(un risultato confermato di recente anche da
un altro studio
con un approccio diverso, ovvero la visualizzazione
in laboratorio tramite laser del movimento di queste goccioline nell'aria dopo uno starnuto).
A fine agosto, sempre Fugaku aveva stabilito che
le mascherine in polipropilene sono più efficaci di quelle in tessuto.
Il supercomputer Fugaku è ospitato dal RIKEN Center for Computational Science a Kobe
ed è stato sviluppato in collaborazione con Fujitsu. È oggi il computer
più potente al mondo,
capace di eseguire 415,5 milioni di miliardi di operazioni al secondo
(si dice che la sua potenza di calcolo è di 415,5 petaflops),
quasi trenta volte più veloce del secondo più potente supercomputer
del mondo, il Summit di IBM. Per avere un'idea di cosa vogliano
dire questi numeri, basti pensare che un processore presente in
un personal computer può arrivare a qualche centinaio di gigaflops,
ovvero un milione di volte meno potente di un supercomputer.
L'inizio delle attività di Fugaku era previsto per il 2021, ma ad aprile
di quest'anno il centro
ha annunciato
che avrebbe messo a disposizione parte della sua capacità
computazionale per progetti di ricerca su SARS-CoV-2 e COVID-19.
Lunedì NVIDIA ha annunciato che
sta costruendo nel Regno Unito il più potente supercomputer del mondo
che aiuterà i ricercatori ad affrontare domande difficili in campo medico,
in particolare riguardo COVID-19. Insomma,
le piattaforme di high performance computing sono
considerate uno strumento cruciale per
contrastare con la ricerca scientifica l'avanzata di questa nuova malattia.
I loro impieghi sono infatti molteplici.
Modelli epidemiologici. La simulazione della dispersione delle goccioline di saliva
nell'aria è infatti solo uno dei modi in cui i supercomputer hanno
partecipato alla ricerca contro la pandemia di COVID-19.
Un ruolo prominente lo hanno avuto infatti nelle prime settimane
dell'epidemia per provare a prevedere il grado di diffusione
del virus nelle popolazioni e misurare gli effetti delle diverse
misure di distanziamento sociale che i governi stavano allora
considerando di introdurre per gestire l'emergenza.
Un esempio è la
collaborazione
tra il Gauss Centre for Supercomputing,
che raggruppa i tre supercomputer tedeschi Hawk a Stoccarda,
JUWELS a Julich e SuperMUC-NG a Garching vicino Monaco di Baviera,
e gli epidemiologi dell'Università di Heidelberg e del Frankfurt
Institute for Advanced Studies coordinata dall'italiana Maria
Vittoria Barbarossa. La collaborazione ha permesso di elaborare delle
stime sull'evoluzione del numero di contagi
in Germania nei mesi successivi considerando
diversi gradi di riduzione dei contatti sociali. Per farlo
gli epidemiologi hanno impiegato il modello SEIR (acronimo
di Susceptible, Exposed, Infectious, or Recovered) che assegna tutti
gli individui della popolazione a una fra quattro categorie,
i suscettibili, i contagiati, gli esposti (coloro che sono
stati infettati ma non sono ancora contagiosi) e i guariti,
che si assume non possano più reinfettarsi. Il numero di individui
appartenente a ciascuna di queste quattro categorie è una variabile
che evolve nel tempo in dipendenza dalle altre. La loro collettiva
evoluzione temporale è descritta da un sistema di equazioni differenziali
che può essere risolto ricorrendo a metodi numerici e da qui la necessità
di impiegare piattaforme di calcolo sufficientemente potenti per elaborare
i risultati del modello in breve tempo. Nel caso
della collaborazione coordinata da Barbarossa è stato scelto
un modello che tiene conto della suddivisione della popolazione
in fasce di età, attribuendo a ciascuno un diverso profilo di
rischio di infettarsi e di infettare gli individui appartenenti
al proprio gruppo o ad altri gruppi. Inoltre il modello è stato rifinito
per tenere conto delle diverse fasi dell'infezione.
Esiste però un universo di modelli epidemiologici che richiedono
simulazioni numeriche per poter ottenere delle previsioni.
Come si legge
in questo articolo
pubblicato dalla rivista Nature all'inizio di aprile,
una categoria di modelli ad alto fabbisogno computazionale è quella chiamata agent-based,
in cui si simula il comportamento di ciascun individuo della
popolazione tenendo in considerazione la rete sociale con cui
interagisce.
Appartiene a questa categoria il modello impiegato dal gruppo di epidemiologi
dell'Imperial College coordinati da Neil Ferguson, soprannominato
dai media inglesi 'professor lockdown', per produrre una delle
prime previsioni dell'andamento dell'epidemia a marzo scorso.
Il modello in questione era stato
formulato
da Neil Ferguson e colleghi per descrivere l'epidemia di influenza H5N1 in Tailandia nel 2005
(qui
i dettagli tecnici).
La popolazione viene generata a computer tenendo conto dei dati sulla
densità abitativa, sulla stratificazione per età, sulla distribuzione di dimensione delle famiglie,
di quella delle scuole e dei luoghi di lavoro e infine sugli spostamenti
effettuati per raggiungere quotidianamente il luogo di lavoro o la scuola.
Considerando il fatto che ogni ambiente ha una diversa probabilità di
diffondere il virus (ad esempio è più probabile il contagio in famiglia che quello a scuola)
si calcola la probabilità individuale di essere infettati in un certo momento e per un certo arco temporale,
probabilità che dipende dalla configurazione di tutto il resto della popolazione che viene simulata.
Con questa probabilità si effettuano delle simulazioni: tanti mondi
possibili in cui le persone si spostano da casa per andare a scuola
o al lavoro e a ogni passo temporale ciascuna di queste persone
si infetterà o meno in base alla sua probabilità individuale
(a ogni passo si sorteggia una variabile casuale da una distribuzione che tiene
conto della probabilità di contagio di quell'individuo in quel momento particolare
e in quello specifico corso degli eventi).
Questo insieme di possibili mondi permette di dare una stima probabilistica di
quale sarà il numero di infetti nel futuro giorno per giorno.
Chiaramente per poter simulare questi mondi c'è bisogno di
conoscere alcune caratteristiche di base dell'epidemia, come
il grado di infettività in diversi ambienti (al chiuso o all'aperto),
il decorso della malattia, in particolare il periodo di incubazione, e così via.
Come è facile immaginare una simulazione così dettagliata
della dinamica di una popolazione ha un enorme fabbisogno computazionale
e dunque la disponibilità di supercomputer in grado di macinare
un gran numero di calcoli in tempi brevissimi è cruciale.
Quando queste prime simulazioni sono state realizzate, l'epidemia
era molto giovane e dunque è stato necessario fare delle assunzioni
non basate necessariamente sui fatti. Man mano che l'epidemia
è progredita abbiamo guadagnato informazioni e conoscenza sul virus
e ora queste previsioni sono più affidabili.
Un altro modello agent-based è quello formulato
da Alessandro Vespignani e dal suo gruppo alla Northeastern
University di Boston. Si chiama
GLEaM
(Global Epidemic and Mobility)
e si basa su una simulazione del comportamento individuale delle
persone includendo però anche i dati di mobilità su brevi e lunghe distanze,
suddividendo la popolazione mondiale in 3300 sottogruppi, ciascuno
associato a un hub aeroportuale.
Utilizzando il modello GLEaM il gruppo statunitense ha prodotto
uno studio,
pubblicato sulla rivista Science, sull'impatto che le restrizioni imposte sui viaggi
internazionali hanno avuto sul progredire dell'epidemia di COVID-19 a livello globale nelle fasi iniziali.
Tra i modelli agent-based e quelli che descrivono l'evoluzione
dell'epidemia tramite la dinamica aggregata degli individui
appartenenti alle quattro categorie suscettibili, esposti, infetti e guariti
(il primo tipo di modelli che abbiamo descritto) esistono
molte possibilità intermedie. Un esempio è il modello descritto
dal matematico Nicola Bellomo e dall'economista Pietro Terna
su
Scienza in rete in cui ogni individuo appartiene a una diversa categoria
in base al suo stato di salute iniziale e ciascuna di queste categorie ha
una diversa probabilità di infettarsi e va incontro a un differente decorso.
La ricerca di nuovi farmaci. La terza area in cui le piattaforme di high performance computing
hanno avuto un ruolo cruciale è stata quella del cosiddetto drug
discovery, ovvero la ricerca di farmaci efficaci nel trattamento
della COVID-19.
EXCSALTE4COV
è un consorzio finanziato con 3 milioni di euro
tramite il programma Horizon 2020 della Commissione Europea
che raggruppa 18 istituzioni da 7 Paesi con lo scopo di individuare molecole
già note o già impiegate per la cura di altre malattie
che possano essere efficaci contro i casi moderati o lievi di COVID-19.
Il consorzio mette insieme tutti i soggetti
che compongono
la 'filiera' del drug discovery.
C'è il sincrotrone
ELETTRA di Trieste, che tramite cristallografia a raggi X è in grado
di costruire modelli tridimensionali delle 25 proteine del virus che hanno
diversi ruoli biologici nel processo di infezione. Poi c'è la farmaceutica Dompé,
che ha messo a disposizione la sua libreria di molecole e i suoi
modelli di simulazione della dinamica molecolare passando in rassegna
oltre 400 mila composti per trovare quelli
capaci di legarsi alle proteine del virus e inibirne il processo di replicazione.
Per farlo Dompé ha potuto contare
sul supercomputer Marconi100 del consorzio interuniversitario CINECA,
con una potenza computazionale che raggiunge i 32 petaflops.
E andando ancora avanti nel processo di drug discovery, c'è
la Katholieke Universiteit Leuven in Belgio che ha testato in vitro
in cellule infettate col SARS-CoV-2 le molecole più promettenti
selezionate dai modelli computazionali. Il consorzio già a giugno
ha prodotto un primo risultato, individuando nel Raloxifene,
un farmaco usato nella cura dell'osteoporosi in menopausa ma non solo,
un candidato promettente e avanzando all'EMA, l'agenzia europea del farmaco, la richiesta di
avviare studi clinici sugli esseri umani.
Un altro grande consorzio
è nato dalla collaborazione tra il centro di eccellenza CompBioMed,
anch'esso finanziato da Horizon 2020,
il Gauss Centre for Supercomputing e una serie di centri di high performance computing
negli Stati Uniti, tra cui il supercomputer Summit di IBM ospitato presso
lo Oak Ridge National Laboratory.
Il
centro CompBioMed
è coordinato dal Professor Peter Coveney
direttore del Centre for Computational Science alla University College London,
e mette a disposizione le competenze
maturate nell'ambito della biologia computazionale, in particolare
nella ricerca di nuovi farmaci antivirali.
In questa rassegna vale infine la pena di includere il consorzio
statunitense
COVID-19-HPC, che mette insieme i
centri di calcolo di laboratori federali, università, centri
di ricerca ma anche società private (IBM e Microsoft tra le altre)
per offrire una capacità di calcolo fino a 600 petaflops.
A oggi ha permesso lo sviluppo di 87 progetti, che
vanno dalla previsione della struttura delle proteine del virus
fino allo sviluppo di una applicazione per il contact tracing
che sia rispettosa delle leggi sulla privacy europee.
|
|
|
Per suggerimenti e commenti scrivere a: [email protected]
|
Per donare alla Newsletter clicca qui
|
Se invece non vuoi più ricevere la newsletter clicca qui
|
PS: per tenere Scienza in rete fuori dallo spam aggiungi la nostra mail [email protected]
tuoi contatti (per Gmail, vai a contacts.google.com e clicca su "crea contatto").
Se Scienza in rete finisce nelle promozioni di Gmail, trascinala nella casella della tua posta
in entrata per non perdere mai un numero!
|
Segui Scienza in rete
|
|
|
By:
|
|
|