fbpx Gli imperativi dell’open science | Scienza in rete

Gli imperativi dell’open science

Read time: 18 mins

Molti dei principi che sono alla base della scienza moderna, come il modo più affidabile di acquisire conoscenze, sono stati definiti nei primi anni dell’Illuminismo. Molti storici della scienza ritengono che all’origine delle rivoluzioni scientifiche dei secoli XVIII e XIX ci sia stata quella che noi oggi chiameremmo open science, nata grazie alla diffusione dei primi giornali scientifici.
La prima rivista pubblicata dal 1665, tuttora un giornale scientifico di primo ordine, è stata Philosophical transactions of the Royal Society, concepita da Henry Oldenburg, un teologo tedesco, primo segretario della appena nata Royal Society. Henry intratteneva un’assidua corrispondenza con persone che oggi chiameremmo scienziati, sia in Europa che altrove. Invece di tenere privato il suo carteggio, Oldenburg pensò che sarebbe stata una buona idea pubblicarlo. Convinse così la nuova Society a farlo, creando appunto un giornale. Fece due richieste ai suoi corrispondenti: la prima che avrebbero dovuto scrivere nella propria lingua e non in latino; la seconda, cruciale, che le prove (i dati) a sostegno di un’ipotesi scientifica dovessero venire pubblicate insieme all’ipotesi stessa.
Olderburg inventò anche la peer review chiedendo a due colleghi di esaminare gli articoli prima della pubblicazione per accertare che avessero una solida logica, che le prove fossero comprensibili e che le osservazioni fossero originali.
Conformarsi al secondo principio di Oldenburg permise ad altri di esaminare la logica di un’idea pubblicata e in che misura questa idea fosse corroborata dai dati associati e permise la replicazione e il riutilizzo. Una tale apertura al controllo si è dimostrata la più potente forma di peer review, in definitiva molto più efficace della peer review precedente alla pubblicazione.
Questa prassi cominciò a venire considerata come la base dell’autocorrezione scientifica (scientific self correction) e il fatto di rendersi disponibili alle confutazioni come l’elemento fondamentale per il progresso della scienza il motto “Nullius in verba”, o non dare mai per certa la parola di nessuno, come espressione della volontà di resistere al dominio dell’autorità e di verificare tutte le dichiarazioni attraverso un ricorso ai fatti stabiliti dagli esperimenti o dall’osservazione. Un esempio moderno dell’efficacia della prassi dell’open science si può rinvenire negli eventi successivi all’epidemia di una grave infezione gastrointestinale avvenuta ad Amburgo, in Germania, nel maggio del 2011.
L’epidemia si diffuse in diversi Paesi europei e negli Stati Uniti coinvolgendo circa 4.000 persone e provocando oltre 50 morti. Tutte le persone coinvolte risultavano positive a un raro e poco noto ceppo del batterio Escherichia coli produttore della shiga-tossina. Il ceppo venne analizzato da scienziati del BGIShenzen in Cina che lavoravano insieme ai loro colleghi di Amburgo.
Dopo tre giorni venne diffusa una prima bozza di genoma con una licenza open data. Ciò diede il via a ulteriori analisi da parte di gruppi di bioinformatici dei quattro continenti. Ventiquattro ore dopo la pubblicazione, il genoma era stato assemblato. Nel giro di una settimana due dozzine di rapporti erano stati archiviati su un sito open source dedicato all’analisi del ceppo.
Queste analisi fornivano informazioni cruciali sulla virulenza del ceppo e sui geni resistenti, su come si diffonde il batterio e sugli antibiotici efficaci per combatterlo. I risultati vennero raggiunti in tempo per aiutare a contenere l’epidemia e a luglio del 2011 gli scienziati pubblicarono gli studi basati sulle loro analisi. Aprendo i loro primi risultati sul sequenziamento alla collaborazione internazionale, i ricercatori di Amburgo hanno prodotto risultati che sono stati vagliati in tempi brevi da un gran numero di esperti, e usati per produrre nuove conoscenze e, infine, per tenere sotto controllo un’emergenza sanitaria.

L’esplosione di dati e le sfide al principio dell’autocorrezione

Il mondo di Oldenburg è cambiato. Gli ultimi vent’anni hanno visto una rivoluzione nella velocità alla quale i dati possono essere acquisiti, nel volume e nella complessità a cui possono essere immagazzinati e nell’immediatezza dell’onnipresente comunicazione. Ci troviamo di fronte a una tempesta e la costruzione del sapere scientifico. Infatti, la nuova Society fece suo di dati senza precedenti che crea allo stesso tempo sfide importanti e grandi opportunità per il modo di fare scienza.
La sfida fondamentale consiste nell’autocorrezione scientifica. Le riviste non possono più contenere i dati che sono alla base di molti concetti scientifici e né gli scienziati né le riviste hanno compiuto il passo, che sarebbe stato ovvio, di rendere i dati rilevanti per una pubblicazione disponibili contemporaneamente e immancabilmente in una banca dati elettronica. Un esempio delle conseguenze di questo legame perduto tra l’idea e la prova è rappresentato da quanto accaduto nel 2011 quando si cercò di replicare i risultati di 50 lavori di riferimento in oncologia preclinica e si riuscì a farlo solo con l’11%. Questo perché i dati erano completamente assenti o solo parziali oppure i metadati (i dati sui dati) erano mancanti o inadeguati, oltre al problema diffuso delle analisi sbagliate.
Questo è un tema di grande importanza per la scienza perché, senza il secondo principio di Oldenburg, la chiave di volta dell’arco che connette prove e inferenze viene rimossa e l’autocorrezione scientifica compromessa. È un cambiamento capace di compromettere l’utilità del ragionamento scientifico e la sua credibilità. Dal mio punto di vista, non diffondere i dati relativi a una teoria scientifica pubblicata andrebbe considerato come negligenza. Gli scienziati stessi devono evitare che ciò accada fornendo i dati, mentre coloro che pubblicano gli articoli scientifici devono commissionare la concomitante pubblicazione dei dati.
Tuttavia l’apertura di per sé non ha valore se non risponde alla definizione contenuta nella relazione della Royal Society sull’open science: “apertura intelligente”. Con ciò intendiamo dire che i dati pubblicati dovrebbero essere:
Accessibili – possono essere facilmente trovati?
Comprensibili – possono essere capiti?
Valutabili – possono essere sottoposti a valutazione? Per esempio, chi li ha prodotti?  Potrebbero avere un interesse (finanziario o di reputazione) verso un particolare risultato?
Riutilizzabili – i dati hanno tutti i meta-dati necessari per permettere il riutilizzo dei dati stessi? Tutto ciò che viene pubblicato senza che si possa accedere ai dati secondo questi criteri ha lo stesso valore che ha la pubblicità dei prodotti rispetto ai prodotti stessi e merita di essere trattato con lo stesso poco credito che daremmo alla pubblicità di un detersivo in polvere.

L’esplosione dei dati: sfruttando le opportunità

Nuove e importanti opportunità derivano oggi dall’enorme e complesso volume di dati generato dalla ricerca finanziata con fondi pubblici, sia quella che è la base di lavori pubblicati sia quella che potrebbe non vedere mai la luce del giorno. Alcuni hanno sostenuto che potremmo essere sull’orlo di un’altra rivoluzione scientifica di dimensioni e significato equivalenti a quella dei secoli XVIII e XIX, a condizione che questi dati possano essere aperti in modo intelligente.
L’integrazione di dati da un grande numero di database affini, la possibilità che i dati vengano automaticamente aggiornati non appena nuove informazioni vengano alla luce, il ricorso a tecniche efficaci, per interrogare i database ed estrarre dati e testi, ci permette di porre domande in modi nuovi, con la possibilità di acquisire una più profonda comprensione delle relazioni tra i dati e le informazioni e le conoscenze che essi contengono. Si tratta di una visione del mondo promessa dal concetto di Web semantico. Si sostiene che includendo un contenuto semantico nelle pagine web l’attuale World Wide Web, dominato da documenti semi-strutturati o non strutturati, potrebbe essere trasformato in un Web di dati (web of data) attraverso un framework comune che permette ai dati di essere condivisi e riutilizzati.
Mentre i suoi critici ne hanno messo in discussione la fattibilità, i fautori sostengono che le applicazioni nell’industria, nella ricerca biologica e nelle scienze umane hanno già dimostrato la validità dell’idea e gli studiosi hanno esplorato le potenzialità del Web semantico nei settori degli affari e della salute e nel social networking. È stato sostenuto con forza, non da ultimo nel settore dell’industria, che grandi volumi di dati (i cosiddetti big data) e la moderna analisi dei dati possono trasformare il modo in cui molte compagnie fanno affari, migliorando le prestazioni e aprendo nuove strade a un vantaggio competitivo.
Data sharing?
Ci sono validi argomenti a favore del fatto che la condivisione dei dati sia molto vantaggiosa sia nell’ambito della ricerca e che delle sue applicazioni.
Alcuni campi, come la Bioinformatica, hanno dimostrato che i singoli ricercatori ottengono maggiori vantaggi condividendo i propri dati all’interno di una comunità di scienziati piuttosto che tenendoseli stretti.
Nuove collaborazioni
La scienza aperta può stimolare nuove, altamente creative ed efficaci forme di collaborazione scientifica. Per esempio: nel gennaio del 2009 Tim Gowers (eminente matematico premiato con la medaglia Fields) lanciò il Polymath Project, un blog che funzionava come un forum aperto a tutti coloro che volessero contribuire a risolvere un complesso problema matematico rimasto senza soluzione. Impostò il problema, rese note le sue idee e invitò altri a contribuire alla sua soluzione. Ventisette persone scrissero più di 800 commenti e rapidamente cominciarono a sviluppare o a scartare nuove idee. In poco più di un mese, il problema venne risolto. Insieme riuscirono a risolvere non solamente il problema in sé ma una sua ulteriore generalizzazione.
Gowers così descrisse l’esperimento: “È come guidare una macchina, mentre la ricerca normale è come spingerla”. Perché non lavoriamo insieme in questa maniera creativa più spesso? La ragione è semplice: i criteri per l’avanzamento della carriera e per ottenere promozioni sono rimasti fermi alla tradizionale pubblicazione di articoli su riviste con un alto impact factor. Se vogliamo liberare il potenziale creativo che una non convenzionale condivisione di idee e dati offre, dobbiamo ripensare nuovi criteri per l’attribuzione dei crediti.

La scienza dei cittadini

Un accesso ai dati che rispetti i requisiti di accessibilità, intellegibilità, valutabilità e fruibilità è di fondamentale importanza per il coinvolgimento dei cittadini nella scienza e il perseguimento del sapere attraverso quei dati che, dopotutto, hanno loro stessi finanziato con le tasse. Un numero crescente di nostri concittadini non è più disposto ad accettare la conclusione degli scienziati su temi che influenzano in modo significativo la loro vita o la società in cui vivono, come le malattie che li colpiscono personalmente o le tematiche globali come il cambiamento climatico. Vogliono essere in grado di controllare le prove che sono alla base delle conclusioni scientifiche.
C’è inoltre un crescente stuolo di “cittadini scienziati” impegnati che vorrebbe scavare a fondo tra i dati scientifici relativi ad alcuni temi particolari. Costoro stanno sviluppando una coscienza critica sempre più influente, nonostante molti di loro non abbiano una formazione specifica nel campo di interesse. Alcuni si sono dimostrati profondamente scettici riguardo alle conclusioni scientifiche su temi quali il mais geneticamente modificato, le nanotecnologie, l’HIV, l’origine umana del cambiamento climatico. Alcuni di loro pongono domande dirimenti e circostanziate, evidenziando errori importanti od omissioni. Altri sono entrati effettivamente a far parte di alcune comunità scientifiche grazie alle loro rigorose e valide osservazioni e misurazioni e sono stati formalmente coinvolti in progetti scientifici come Foldit dove i partecipanti sono alle prese con il complicato problema di scoprire i modi in cui gli aminoacidi si piegano per dare origine a differenti proteine. Oppure come Galaxy Zoo, dove si devono analizzare immagini provenienti da centinaia di migliaia di galassie nell’archivio del telescopio spaziale della NASA Hubble e nel Sloane Digital Sky Survey. O ancora come BOINC che include numerosi progetti di cittadini scienziati che sfruttano il cosiddetto calcolo volontario: singoli individui mettono a disposizione i loro computer per contribuire alla grande ricerca scientifica.
La maggiore disponibilità di grandi database aperti si sta sempre più dimostrando una risorsa per questa comunità scientifica di cittadini e un modo per incrementare il loro contributo al progresso scientifico. La crescita di un movimento di cittadini scienziati potrebbe rappresentare un importante cambiamento nelle dinamiche sociali della scienza, riducendo il divario tra professionisti e dilettanti e cambiando la natura del coinvolgimento pubblico nella scienza. L’accesso ai dati che risponda ai requisiti di accessibilità, intellegibilità, valutabilità e fruibilità è perciò importante per la partecipazione dei cittadini. Ma sebbene alcuni dati scientifici si possano rendere rapidamente riutilizzabili da persone non esperte in quel particolare campo di ricerca, ciò potrebbe essere un compito irragionevolmente arduo per molti altri tipi di dati. Un modo per affrontare questo problema potrebbe essere quello di far preparare agli scienziati un numero ragionevole di set di dati di pubblico interesse contemporaneamente ai metadati richiesti per renderli intellegibili e utilizzabili.
Frodi
I premi per le scoperte scientifiche negli ultimi anni sono stati talmente consistenti che molti sono tentati di adottare misure estreme, compresa la frode, per conquistare i consensi e le promozioni che ne conseguono. Ultimamente abbiamo assistito a un gran numero di casi di frodi scientifiche di alto profilo dove i dati sono stati inventati o manipolati per ottenere un risultato prefissato.
Autorizzare la diffusione degli open data in concomitanza con la pubblicazione dello studio può funzionare da deterrente contro questo tipo di frodi perché, sebbene sia importante esigere alti standard di integrità dalle persone, l’integrità dell’intero sistema, capace di fare da deterrente vista l’alta probabilità di venire scoperti, è altrettanto importante.
Sfide globali
Infine, il data sharing offre mezzi più efficienti e più veloci per affrontare molte sfide globali moderne come il cambiamento climatico, le energie rinnovabili, le infezioni, la produzione e distribuzione di cibo, il rifornimento di acqua.

I limiti

Nonostante sia giusto mantenere una posizione a favore di una intelligente apertura dei dati, questa apertura non è però priva di problemi. Ci sono tre aree dove le restrizioni sono giustificate: interessi economici, informazioni personali, sicurezza nazionale. Il problema è: come gestire queste restrizioni senza incoraggiare un ripensamento dalla posizione di partenza? 
Interessi commerciali
Esiste un equilibrio sottile tra la tendenza a incentivare lo sfruttamento di nuova conoscenza scientifica da parte di individui o gruppi per la crescita finanziaria e i vantaggi sociali che derivano dai prodotti e servizi sviluppati e i benefici macroeconomici che maturano quando la conoscenza è ampiamente accessibile e può essere sfruttata in modo creativo in un gran numero di modi. Finché i dati verranno visti come una risorsa commerciale, la pressione per custodirli piuttosto che diffonderli può solamente crescere.
È ampiamente condivisa l’opinione che i dati siano la principale materia prima degli affari, alla pari del capitale e della manodopera. Google ha più dati dell’European Bioinformatics Institute e del Large Hadron Collider del CERN messi insieme e ha creato un’industria enorme di analisi dei dati. Si stima che le aziende specializzate nella gestione dei dati e nell’analisi valgano più di 100 miliardi all’anno e che stiano crescendo a un ritmo del 10% l’anno, grossomodo due volte più velocemente dell’intero settore dei software. Questi service permettono alle compagnie di comprendere le abitudini e le priorità di potenziali clienti e identificare le strategie migliori per vendere servizi. Da quando le università hanno cominciato a contribuire più direttamente all’economia nazionale commercializzando le loro ricerche e collaborando con il mondo degli affari, è diventato più difficile tracciare un confine tra queste attività e il loro storico ruolo di produrre e pubblicare nuova conoscenza. La prima situazione richiede che i dati vengano custoditi, mentre la seconda che vengano diffusi per essere analizzati.
È una contraddizione di non immediata soluzione. Un’università potrebbe per esempio partecipare a una negoziazione per un lavoro assegnato a scopi commerciali o uno finalizzato a una pubblicazione aperta, ma in entrambi i casi i lavori potrebbero avere ricevuto interamente o in parte finanziamenti pubblici; allo stesso tempo, le richieste di riservatezza dei partner commerciali possono esercitare un preoccupante effetto sull’attività di ricerca e sulla trasparenza che dovrebbe caratterizzarla. Le università vanno fiere, spesso senza una ragione, delle loro attività commerciali anche se gli sforzi commerciali ottengono entrate non superiori al 2% dei guadagni totali, il che pone la questione se il loro ruolo nel creare nuova conoscenza sia conveniente.
L’importanza degli open data varia a seconda dei contesti. I modelli di business si stanno evolvendo verso un approccio più aperto all’innovazione. Ciò influisce sul modo in cui le imprese valutano i dati. In alcune aree si pone una maggiore attenzione allo sviluppo di strumenti analitici piuttosto che a mantenere segreti i dati. Nonostante ciò, proteggere i diritti della proprietà intellettuale dei dati è ancora di vitale importanza in molti settori e le legittime ragioni per mantenere i dati segreti devono essere rispettate. Una maggiore apertura è inoltre desiderabile nel caso in cui i dati della ricerca siano potenzialmente pericolosi per la società. Per esempio, la tendenza nella sperimentazione clinica di riportare dati viziati, diffondendo solo i positivi e non i negativi, può distorcere la relazione tra causa ed effetto. Ugualmente esiste un interesse diffuso a rendere accessibili i dati che hanno a che fare con i casi di sicurezza delle attività industriali che possono compromettere l’incolumità dei cittadini, direttamente al pubblico oppure tramite una figura istituzionale che agisca nell’interesse pubblico. E ciò comporta un’altra questione: quanto è diffusa la fiducia del pubblico su questi sistemi di regolamentazione.
Privacy e riservatezza
La condivisione di insiemi di dati che contengono informazioni personali è di fondamentale importanza per la ricerca nelle scienze mediche e sociali, ma presenta delle sfide per la gestione dell’informazione e la protezione della riservatezza. Può essere senz’altro rivolta all’interesse pubblico purché sia il fatto che la sicurezza dei dati personali nei database non può essere garantita dalle procedure che sostengono di rendere le informazioni anonime. Il modo più efficace per affrontare questi problemi è attraverso i cosiddetti safe havens (rifugi sicuri) dove i dati sono tenuti fisicamente al sicuro e resi disponibili solo ai ricercatori in buona fede, con sanzioni legali contro il rilascio non autorizzato.
Sicurezza e protezione
L’esame accurato dei limiti degli open data è importante laddove la ricerca può in linea di principio essere usata male per minacciare la sicurezza, l’incolumità pubblica o la salute.
È importante in questi casi usare un approccio bilanciato e proporzionato piuttosto che un divieto assoluto. Le scoperte scientifiche spesso hanno un potenziale doppio uso: per il bene o per il male . Sono rari i casi in cui le preoccupazioni per la sicurezza nazionale sono sufficienti a giustificare il rifiuto in blocco della pubblicazione di insiemi di dati.
Il gruppo editoriale di Nature tra il 2005 e il 2008 ha ricevuto 74.000 articoli di Biologia per la pubblicazione; di questi solo 28 sono stati segnalati perché potevano avere un potenziale doppio uso. Nessuno è stato respinto. Tuttavia, benché non sia a conoscenza di nessun caso in cui siano sorte conseguenze pericolose, trovo che sarebbe sciocco pensare che questo non possa accadere. Responsabilità e azioni
Se vogliamo reinventare con successo l’open science per l’età moderna, i protagonisti di questo processo devono riconoscere e affrontare alcune responsabilità. Gli scienziati, in primo luogo, devono accettare la responsabilità che impone loro di mantenere il principio di auto-correzione scientifica assicurando la pubblicazione simultanea delle teorie e delle prove (i dati).
Ma abbiamo anche bisogno di spogliarci dell’idea che i dati sono nostri in quanto scienziati. Laddove sono stati finanziati con denaro pubblico, noi siamo solamente i loro custodi per conto dei nostri concittadini e abbiamo il dovere di garantire che siano usati nel modo più efficiente ed efficace assicurando che siano disponibili per venire riutilizzati da altri e portare a un riutilizzo creativo e nuovo che non era stato immaginato da coloro che avevano prodotto i dati. Le società scientifiche hanno un ruolo importante nella scienza moderna come organismi che riflettono e incarnano i principi e le priorità delle discipline che rappresentano.
La loro comprensione delle potenzialità che gli open data hanno per la loro disciplina e l’influenza che hanno sui loro membri le mettono in pole position per promuovere e sviluppare approcci agli open data. Università e istituti di ricerca dovrebbero essere responsabili della conoscenza che producono e del modo in cui viene utilizzata e resa disponibile. Creano incentivi e definiscono criteri di promozione per il loro personale e dovrebbero sviluppare progressivamente indici che danno conto della creazione e della pubblicazione dei dati. Lo stesso vale per il contributo che il loro staff dà alla creatività scientifica anche quando questa non si realizza, come dice il mantra tradizionale “attraverso la pubblicazione in una rivista ad alto impatto”. Ci sono anche implicazioni onerose per tali istituzioni.
Le competenze richieste in molti settori del trattamento dei dati sono spesso di un ordine elevato e potenzialmente superano le capacità di uno specialista. Jim Gray, uno dei leader della moderna data science, ha commentato: “Quando guardi a ciò che gli scienziati stanno facendo, giorno dopo giorno, in termini di analisi dei dati, è veramente terribile. Siamo imbarazzati dai nostri dati!”. È un problema che in molti casi può essere affrontato solo fornendo un sostegno da parte di “scienziati di dati” adeguatamente qualificati, che dovrebbero assumere il ruolo classico del bibliotecario in quella che è diventata, almeno per la scienza, un’era “post Gutenberg”. Per questo motivo, le nostre biblioteche scientifiche impiegano le persone sbagliate che fanno le cose sbagliate e adeguare la funzione di una biblioteca universitaria a questa nuova era richiederà maggiori investimenti in infrastrutture, persone e processi di gestione della conoscenza.

Enti pubblici e di beneficenza che finanziano la ricerca destinata alla pubblicazione dovrebbero richiedere “l’apertura intelligente” da parte delle istituzioni che essi sostengono. Dovrebbero dare credito a una gamma diversificata di risultati, compresi quelli basati su crowdsourcing. Essi dovrebbero adottare il precetto fondamentale che il costo degli open data e il sostegno alla cura dei dati sono parte del costo della ricerca. Dire che bisogna scegliere tra fare ricerca e spendere per la corretta cura dei dati prospetta una falsa dicotomia. Entrambe le cose sono parti integranti della scienza moderna e non dovrebbero essere considerate separatamente. Una questione strategica cruciale per i Consigli nazionali di ricerca è lo sviluppo degli strumenti necessari ai ricercatori in un ambiente ricco di dati. Essi comprendono strumenti per l’integrazione dei dati, la manutenzione di dati dinamici, strumenti di provenienza e annotazione, la generazione automatica di metadati, gli identificativi permanenti e strumenti di citazione. I Consigli di ricerca dovrebbero prendere in considerazione il finanziamento mirato per le priorità fondamentali, tenendo conto degli sviluppi che avvengono altrove. Nello sviluppo delle strategie che riguardano i dati, sia nazionali che multi-nazionali, è importante bilanciare un’organizzazione e una gestione dall’alto verso il basso con una creatività dal basso verso l’alto che può generare nuovi modi di soddisfare le esigenze riportate nel paragrafo precedente e nuovi metodi che cambiano radicalmente il modo in cui siamo in grado di analizzare e integrare i dati. Un’eccessiva rigidità nella progettazione dei sistemi di gestione di dati o infrastrutture (nazionali o internazionali) che siano incompatibili con gli sviluppi imprevisti possono rivelarsi molto costosi.
Gli editori delle riviste scientifiche dovrebbero obbligare gli autori a inviare, contemporaneamente all’articolo per la pubblicazione, i dati su cui l’articolo si basa a un database riconosciuto in modo che vengano soddisfatti i criteri di apertura intelligente. Fare altrimenti dovrebbe essere considerato una malpractice scientifica. Tuttavia, tali innovazioni devono essere introdotte gradualmente, progressivamente, piuttosto che attraverso bruschi cambiamenti nel modo di operare. Devono essere raggiunte attraverso il dialogo con le relative comunità scientifiche, piuttosto che per decreto.

Una prospettiva moderna

L’open science si compone di tre elementi: fare scienza apertamente per quanto riguarda il modo in cui le priorità di ricerca sono definite e i dati sono raccolti; rilasciare gli open data in modo intelligente, se tali dati sono detenuti dalle autorità pubbliche o sono creati da istituti di ricerca pubblici o università la cui ricerca è sostenuta da fondi pubblici; pubblicare in modalità open access. L’open science così definita è importante per due ragioni. In primo luogo, l’impatto della scienza sulla vita moderna è così profondo che il controllo aperto delle prove che stanno alla base delle conclusioni scientifiche è un prerequisito perché le democrazie, che riflettono le scelte e le usanze dei loro cittadini, funzionino. In secondo luogo, sia l’integrità che l’efficienza del processo scientifico dipendono dall’apertura intelligente e dalla velocità e il rigore con cui il ragionamento scientifico viene esaminato, gli errori individuati e le nuove teorie messe alla prova. La nostra aspirazione deve essere che la scienza sia un’impresa pubblica, non un’impresa condotta dietro le porte chiuse di un laboratorio. Il principio dell’open data è il fondamento su cui poggia una tale impresa.

Geoffrey Boulton

 

Tratto da Scienza & società - Open Science Open Data


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Selvatici o domestici? Il confine tra cattività e domesticazione

Un maiale e un cinghiale ad acquarello

Nonostante la crescente popolarità di animali esotici come pet, la loro diffusione come animali d’affezione non equivale né contribuisce alla domesticazione. Quest’ultima richiede processi genetici complessi, che avvengono nel corso di migliaia di anni, e influenzano comportamento, fisiologia e riproduzione.

Il commercio di animali esotici venduti come pet, animali d’affezione, sembra essere in perenne crescita e, alimentato anche dai social media, vede anche di continuo nuove specie che si aggiungono alla lista di quelle in voga, dai galagidi ai gufi.