fbpx Vaccini anti-COVID-19 e mortalità: ben venga un confronto scientifico serio | Scienza in rete

Vaccini anti-COVID-19 e mortalità: ben venga un confronto scientifico serio

L'articolo di Eugenio Paci pubblicato su Scienza in rete il 4 settembre ha chiesto un confronto scientifico serio e indipendente sui vaccini contro COVID-19, facendo in particolare riferimento al ‘caso da discutere’ di uno studio sulla provincia di Pescara, con risultati controcorrente sul rapporto tra questi vaccini e mortalità. Paci sosteneva che «errori di disegno, debolezze nella qualità dei dati, analisi non adeguate degli studi di efficacia vaccinale come quelle segnalate sono assai pericolosi… Le valutazioni» a suo dire «metodologicamente approfondite attualmente presenti nella letteratura internazionale non vanno nella direzione suggerita [dallo studio pubblicato su Microorganisms]…, con conclusioni che sono inconclusive e incerte e basate come sono su dati che mostrano problemi di qualità sostanziale». Gli autori di questo studio vogliono ora documentare come i problemi metodologici e di qualità dei dati attribuiti alla loro ricerca siano infondati, mentre essi sono presenti nella letteratura internazionale. Segnaliamo qui la contro-risposta di Eugenio Paci.

Immagine Freepik, Pixabay).

Tempo di lettura: 10 mins

L’articolo di Eugenio Paci Vaccini e commissione Covid-19: serve un confronto scientifico serio (Scienza in rete, 4 settembre 2024) ha nel titolo una proposta che condividiamo, che coincide con quanto la Commissione Medico-Scientifica indipendente (di cui gli autori sono membri o collaboratori) non cessa di chiedere alle istituzioni, dalla sua nascita nel novembre 2021.

Accogliamo dunque con grande favore l’invito già nelle prime righe dell’articolo di Paci: «La controversia sui vaccini, amplificata dalla pandemia, evidenzia la necessità di un confronto scientifico aperto e indipendente - necessità che anche Scienza in rete sostiene, per poter trovare uno spazio di discussione metodologica seria che contribuisca in modo costruttivo al dibattito».

Finora tale confronto ci è stato negato nella quasi totalità dei media, con una censura sempre più pervasiva delle posizioni scientifiche critiche da noi espresse anche sulle riviste scientifiche mediche. Siamo dunque felici di cogliere l’opportunità aperta da Scienza in rete, a partire da un’argomentata replica all’articolo di Paci.  

Perché questo importantissimo confronto risponda agli intenti espressi da Paci, che coincidono con i nostri, chiediamo il rispetto di alcuni presupposti di un dibattito scientifico, come quello che alle posizioni a confronto sia dato analogo spazio (finora non lo abbiamo certo avuto nel dibattito scientifico italiano), con diritto regolare di replica, scientificamente documentata, agli articoli che ci chiamano in causa. Ovviamente ciò varrebbe anche per altri che fossero chiamati in causa da noi.

Ciò premesso, rispondiamo nel merito delle osservazioni di Paci, in 8 punti, richiamando ove occorre sue obiezioni, seguite per chiarezza dalla lettera R. (risposta).

1. Con riferimento ai primi capoversi del sottotitolo di Paci “Il dataset Abruzzo, un caso editoriale da discutere”, occorrono tre precisazioni, perché i lettori abbiano un quadro chiaro dei presupposti del nostro articolo su Microorganisms, pubblicato il 30 giugno 2024. Un articolo dell’agosto 2023 delle Università di Ferrara e Bologna e ASL di Pescara (d’ora in poi per brevità ‘Gruppo di Pescara’) cui Paci fa riferimento, senza peraltro inserire il link, riporta un follow-up di 24 mesi, non di 18. La durata di 18 mesi era quella di un precedente studio del 2022 dello stesso gruppo di Pescara, sulla popolazione dell’omonima provincia. Inoltre, Paci riporta il solo risultato relativo ai decessi per cause COVID-correlate nella fase di Omicron, non quelli relativi alle morti per tutte le cause. L’omissione è rilevante, in quanto non permette ai lettori di comprendere gli effetti complessivi della somministrazione di un farmaco nella popolazione in oggetto. Infine il nostro articolo del 2024, poi commentato da Paci, fa riferimento al lavoro del Gruppo di Pescara dell’agosto 2023, relativo al biennio 2021-2022, e utilizza il dataset messo a disposizione dagli autori di quel lavoro.

2. Paci apprezza che il nostro articolo rilevi un pesante errore di classificazione nelle cause di morte COVID-correlate, che ci avrebbe fatto concludere che è «impossibile credere» che una stima per queste cause sia attendibile.

R. Ma il reale significato della nostra affermazione risulta distorto: se i dati relativi alle morti COVID-correlate sono inattendibili, va da sé che anche le stime per questo esito non siano attendibili. Non si tratta dunque di “credere”, ma di riconoscere un nesso tra la misclassificazione e la conseguente distorsione della stima, come da noi ampiamente descritto. Altra cosa, invece, sono i dati delle morti per tutte le cause. In modo indipendente dalla causa, il decesso è un dato certo. Di qui la scelta di non considerare l’esito “morte COVID-correlata”, ma di considerare solo l’esito “morte per qualsiasi causa”, che oltretutto è quello che la maggior parte della popolazione, se correttamente informata, considera di importanza primaria.

3. Paci affronta poi la questione della qualità dei dati, e cita uno studio (Hulme et al.) del maggio 2023, su più di 2 milioni di persone del Regno Unito.

R. Per altro, oltre alle considerazioni sulla numerosità del campione, bisogna tener conto anche della durata del follow-up e dei conseguenti tempi-persona dei partecipanti. Nello studio di Hulme, il tempo totale di osservazione è stato di 4 mesi scarsi (dal 14 dicembre 2020 al 12 aprile), mentre nel nostro studio è stato di oltre 24 mesi, cioè 6 volte maggiore. I 2 milioni di soggetti dello studio di Hulme ammontano a 19.753.800 giorni-persona che, per le morti totali, corrispondono a circa 50 giorni di follow-up massimo (vedi figura 2 dell’articolo) e a circa 20 giorni in media. Invece, ai 300 mila soggetti del nostro studio corrispondono 15.067.491 giorni-persona, con un follow up medio di circa 60 giorni e massimo di circa 760. Com’è noto, la maggiore lunghezza del follow-up consente di intercettare eventi non rilevabili con follow-up molto brevi. Inoltre, i dati di Hulme si riferiscono a una popolazione di età mediana di 76 anni, con un range interquartile da 73 a 82 anni, quindi non sono generalizzabili a tutta la popolazione, a differenza del nostro studio, dove l’età media per tutti gli stati vaccinali considerati era di circa 50 anni, con deviazione standard di circa ± 20 anni.
Lo studio di Hulme, inoltre, considera solo uno stato vaccinale (una dose), mentre il nostro considera tutti gli stati vaccinali.

4. Paci rimarca che lo studio di Hulme definisce i fattori confondenti usando record elettronici integrati da diversi database su base di popolazione, permettendo di raccogliere informazioni dettagliate sulle malattie preesistenti (comorbidità) e di fare valutazioni che tengono conto di come queste condizioni cambiano nel tempo. «Al contrario», secondo Paci «i dati raccolti specificamente per Covid-19 in Abruzzo, come nel caso del dataset usato nello studio di Pescara, sono più limitati. Questi dati si basano su domande fatte al momento della vaccinazione, riguardano solo poche malattie, e non sono stati verificati con altre fonti, rendendoli meno accurati e meno completi».

R. La sua affermazione è però del tutto infondata se riferita agli esiti (mortalità totale) considerati nel nostro studio, dove è chiaramente descritta la fonte dell’origine dei dati. Anche nel nostro studio le patologie considerate nell’analisi multivariata derivano da registri elettronici, cioè dai database delle esenzioni dal ticket e dalle schede di dimissioni ospedaliere (come ben specifichiamo) e non da “domande fatte al momento della vaccinazione”. Quanto al fatto che riguardino “poche malattie”, queste sono state selezionate (non da noi, ma dal gruppo di Pescara) tra quelle che incidono in maggior misura sugli esiti considerati dagli autori dell’articolo originale.

Inoltre, un’attenta lettura del lavoro di Hulme, fa capire che

  • il livello di dettaglio della raccolta delle comorbidità è sovrapponibile al nostro: Hulme fornisce numeri assoluti e frequenze come nel nostro lavoro
  • le considerazioni di Hulme sui confondenti che cambiano nel tempo si riferiscono alle covariate che hanno queste caratteristiche (condizione socioeconomica, BMI, deprivazione sociale) e non a patologie preesistenti (come affermato da Paci), definite da Hulme come croniche (esattamente come sono considerate nel nostro lavoro).
  • Infine, quale può essere il peso di covariate che variano nel tempo sulle stime finali delle misure di associazione, visto che il follow-up dello studio di Hulme è molto breve e non indica alcun test di bontà di adattamento del modello con e senza tali covariate?

5. Più oltre, Paci sostiene «Errori di disegno, debolezze nella qualità dei dati, analisi non adeguate degli studi di efficacia vaccinale come quelle segnalate sono assai pericolosi, anche perché divengono fattori potenti di polarizzazione».

R. Anche se non lo specifica, i lettori potrebbero pensare che gli errori di disegno siano nel nostro studio, mentre non possono che riferirsi ai lavori originari del gruppo di Pescara, in cui è presente l’Immortal time bias: se questo è il senso, concordiamo. Quanto alle “debolezze nella qualità dei dati”, riteniamo riguardino solo le misclassificazioni delle morti COVID-correlate (che anche per questo non abbiamo usato), e non delle morti per tutte le cause, basate su dati incontrovertibili, non soggetti a errori di classificazione. Importanti “debolezze nella qualità dei dati” non sono neppure riferibili alle comorbidità: infatti i dati relativi hanno origine, come già ribadito, da registri elettronici ufficiali, in uso nella gran parte degli studi ad oggi pubblicati. Infine, si sottolinea che il nostro studio non fa in alcun modo riferimento alla valutazione dell’efficacia vaccinale, che Paci cita, ma fuori contesto.

6. Più oltre Paci afferma «Promuovere oggi una validazione basata su un solo studio senza tenere in considerazione le complesse valutazioni in corso, basate su grandi e qualitativamente valutati dataset, o delle pubblicazioni dei sistemi di sorveglianza italiani e internazionali, significa voler contribuire a innestare un cortocircuito mediatico».

R. Qualora si riferisca a noi, sottolineiamo con fermezza che il nostro studio non intende “promuovere” alcuna “validazione”, ma stimolare riflessioni e dibattiti costruttivi sul tema, gli stessi che Paci propone su Scienza in rete.

7. «… Le valutazioni metodologicamente approfondite attualmente presenti nella letteratura internazionale non vanno nella direzione suggerita da Alessandria con conclusioni che sono inconclusive e incerte e basate come sono su dati che mostrano problemi di qualità sostanziale».

R. Respingiamo con fermezza questa affermazione, in quanto basata su una descrizione errata che Paci fa sull’origine dei nostri dati (vedi risposte precedenti).

Ciò premesso, ricordiamo che cosa fa della nostra ricerca un importante avanzamento nelle conoscenze:

  • usa i dati di mortalità per tutte le cause, suddivisi per classi di età e per stato vaccinale. In poche parti del mondo i dati sono stati presentati in questo modo fondamentale; l’esempio più noto è quello dell’Ufficio per le Statistiche Sanitarie del Regno Unito (ONS), che ha pubblicato i dati di mortalità totale inglesi, divisi per classi d’età e stato vaccinale COVID-19, con follow-up reso pubblico fino a Maggio 2023, quando l’ONS ha dato l’annuncio shock che avrebbe smesso di pubblicarli…
  • con un follow-up lungo 2 anni, il che aiuta a mitigare gli effetti di bias (healthy-vaccinee bias, case-counting window issues [che include counting window delay/bias/misclassification] – si vedano i riferimenti bibliografici nel nostro articolo) che con follow-up brevi accentuano molto l’esagerazione sia dell’efficacia che della sicurezza vaccinale
  • ha corretto l’Immortal-time bias, errore sistematico che affligge non pochi studi osservazionali sulla mortalità da COVID-19 (e non solo).
  • ha inoltre corretto il Confounding by indication bias, considerando il meglio delle informazioni correntemente disponibili nel data set relativo alla popolazione analizzata, grazie a un’analisi multivariata che ha tenuto conto dell’età e delle patologie presenti in ciascun individuo prima della morte.

Tale correzione ha consentito di rispondere alla comune obiezione sollevata anche rispetto ai dati ONS, dove non c’è analisi multivariata. Infatti, le morti in Inghilterra si sono concentrate in modo crescente tra i vaccinati, con percentuali che eccedono drammaticamente le percentuali di popolazione inglese effettivamente vaccinata. L’analisi multivariata nel nostro studio non ha confermato la comune credenza che ciò accada perché sono vaccinati/rivaccinati in modo prioritario i più anziani, fragili e malati, per questo più esposti alla morte.

8. Per finire, torniamo al commento di Paci su Hulme, che a suo dire offrirebbe un approccio alternativo superiore al nostro. A parte vari altri problemi, Hulme et al. ammettono un problema gravissimo nel loro studio. Hanno stranamente scoperto che l'efficacia vaccinale è molto alta (anche al livello più alto per la maggior parte delle categorie nel materiale supplementare) entro i primi 3 giorni dalla vaccinazione. Quindi l'efficacia diminuisce durante la seconda settimana, solo per aumentare di nuovo. Riconoscono questa stranezza e che ciò sembra illogico, perché si usa dire che al vaccino occorrono alcune settimane per fare effetto: «La sostanziale efficacia stimata del vaccino immediatamente dopo la vaccinazione che è stata osservata qui e in altri studi osservazionali è incoerente con i risultati di studi randomizzati (16-18) ed è inaspettata dato il tempo necessario per sviluppare una risposta immunitaria alla vaccinazione e il periodo di latenza per lo sviluppo della COVID-19 sintomatica. Ciò suggerisce che l’efficacia stimata subito dopo la vaccinazione fosse distorta per fattori confondenti non misurati (ad es., il rinvio della vaccinazione quando le persone presentavano sintomi respiratori)».

L’healthy-vaccinee bias potrebbe in effetti essere la causa di questo curioso risultato (e le comunicazioni personali tra Lataster e alcuni coautori di Hulme rivelano che la loro posizione non è cambiata). Ma sospettiamo che anche il bias della finestra di conteggio dei casi e quello di categorizzazione dello stato vaccinale giochino un ruolo, poiché spiegherebbero bene perché i vaccini sono in apparenza così efficaci quando non dovrebbero esserlo. Le ricerche di Fung, Jones e Doshi, e di Lataster, hanno chiarito molto bene che i ritardi della finestra di conteggio dei casi (counting window issues) e i bias di classificazione dello stato vaccinale sono onnipresenti nella ricerca sui vaccini COVID-19 ed è probabile che portino a grandi esagerazioni di efficacia/efficienza e sicurezza.

Tali problemi di finestra di conteggio dei casi si riscontrano anche nei dati governativi, come quelli utilizzati da Hulme, e in altri paesi (es. in Australia). Anche in Italia l’Istituto Superiore di Sanità (ISS) li ha tranquillamente teorizzati:

«L’ISS, sia nelle pubblicazioni scientifiche che nei report che ha pubblicato negli ultimi due anni, ai fini della valutazione dell’efficacia dei vaccini anti-COVID-19, considera le persone che vengono diagnosticate (indipendentemente se hanno sviluppato una malattia grave o se siano morte) nei primi 14 giorni dalla somministrazione della prima dose, come “non vaccinati”…». E ancora (Ufficio Stampa ISS, 18 agosto 2013. Oggetto: Ultimo chiarimento): «Ho parlato con gli esperti, si viene considerati nella colonna “vaccinati con booster” dopo due settimane dall’iniezione. Lo stesso per le altre categorie (es. se si fa la seconda dose e ci si ammala dopo una settimana si viene considerati con una dose, dopo due con due dosi)».

Hulme cita anche come esempi ideali studi come Dagan et al, Hall et al e Vasileiou et al, chiaramente soggetti a problemi di ritardo della finestra di conteggio dei casi, mostrando di non avere affatto chiara l’esistenza di questo grave bias.

 

Articoli correlati

Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Il soffocamento delle università e l’impoverimento del Paese continuano

laboratorio tagliato in due

Le riduzioni nel Fondo di Finanziamento Ordinario (FFO) limitano gli investimenti essenziali per università e ricerca di base: è una situazione che rischia di spingere i giovani ricercatori a cercare opportunità all'estero, penalizzando ulteriormente il sistema accademico e la competitività scientifica del paese.

In queste settimane, sul tema del finanziamento delle università e della ricerca, assistiamo a un rimpallo di numeri nei comunicati della CRUI (Conferenza dei Rettori delle Università Italiane) e del MUR (Ministero della Università e della Ricerca). Vorremmo provare a fare chiarezza sui numeri e aggiungere alcune considerazioni sugli effetti che la riduzione potrà avere sui nostri atenei ma anche sul paese in generale.