fbpx Sempre più precisi | Scienza in rete

Sempre più precisi

Read time: 7 mins

Non c’è conoscenza soddisfacente senza la capacità di misurare e quantificare ciò che si osserva.
Già Lord Kelvin diceva: “... quando sei in grado di misurare  ciò di cui stai parlando, ed esprimerlo in numeri, allora sai effettivamente qualcosa di esso ma, quando non sei in grado di esprimerlo in numeri, allora la conoscenza al riguardo  è scarsa e insoddisfacente...”.
Esprimere una grandezza in numeri vuol dire non solo ottenere per essa un valore ma anche conoscere l’incertezza associata al valore stesso ed è ovvio che, tanto più piccola è l’incertezza associata alla misura, tanto migliore è la conoscenza di quello che si sta misurando e tanto più si possono valutare eventuali differenze tra quanto si osserva e quanto è previsto da un modello, piuttosto che da osservazioni precedenti o quant’altro.
Ecco dunque spiegato perché molti ricercatori si dedicano, a volte con un’attitudine apparentemente maniacale, a rimisurare cose già misurate. Lo fanno per ottenere stime sempre più precise delle grandezze in gioco o per ridefinire in maniera sempre più accurata alcune grandezze fondamentali.
Prendiamo ad esempio la legge di Coulomb, che descrive come due cariche elettriche interagiscano tra loro. Sappiamo che la forza con cui si respingono (o attirano  se di segno diverso) varia inversamente alla seconda potenza (il quadrato) della loro distanza, cioè come 1/r2.
Ma quanto bene si conosce il valore numerico dell’esponente della distanza r? È dai tempi in cui la legge fu enunciata che si conducono esperimenti per determinarne il valore con sempre maggior precisione, così da poter rilevare eventuali piccole deviazioni dal valore “2”.
Alla fine del ‘700 si sapeva che – se diverso da 2 – l’esponente lo era solo per pochi percento.
Un secolo dopo già si era arrivati a determinare che lo scostamento dovesse essere più piccolo di 5x10-5.
Il limite fu poi abbassato nel secolo scorso, prima a 2,0x10-9 (1936), poi a 1,3x10-13 (1970), quindi a 1,0x10-16 (1971) e infine a 1,0x10-17 (1983). Nuovi esperimenti per aumentare la precisione con cui si conosce il valore dell’esponente nella legge di Coulomb vengono ancora oggi ideati e condotti.

Sforzi analoghi sono dedicati a determinare l’eventuale tempo di decadimento del protone, il cui limite inferiore è arrivato – per alcuni dei canali ipotizzati – a più di 1033 anni, o a verificare se alcune costanti fondamentali, come ad esempio la costante di struttura fine, varino nel tempo. Perché ingenti risorse, umane e materiali, sono continuamente dedicate a progetti che si propongono di raffinare misure già disponibili?
È così importante sapere che nella legge di Coulomb la potenza in gioco sia “esattamente 2” e non, ad esempio, 2,0000000001? O che effettivamente il protone decada e abbia una vita media superiore a 1034 anni (ricordiamo, per contestualizzare i 1034 anni, che l’età dell’Universo  è di soli 1,38x1010 anni!)?
La risposta non può che essere affermativa: sì, è importante, molto importante. Una deviazione dall’esatto valore di 2 implicherebbe infatti una massa a riposo del fotone diversa da zero e il decadimento del protone  non  è previsto dal Modello Standard  (recentemente  rafforzato dalla scoperta del bosone di Higgs) ma lo è in alcune Grandi Teorie Unificate (GUT).
Questo spiega l’interesse nell’ottenere misure sempre più precise e anche la loro importanza. 
Stabilire che esiste una pur piccola deviazione dal valore previsto da un modello consolidato, porterebbe a un cambiamento di paradigma, mandando molta fisica a gambe all’aria.
Ma anche quando lo scopo dell’ottenere una maggior precisione di misura non è quello di rivoluzionare (eventualmente) i nostri modelli correnti del mondo, la riduzione delle incertezze  associate a determinate grandezze permette notevoli progressi tecnologici o scientifici.
Basti pensare alla mappatura completa della radiazione cosmica di fondo per misurarne le anisotropie, eseguita una prima volta da COBE (1989-1993) poi da WMAP (2001-2010) e infine da Planck (2009-2013), ogni volta con maggior precisione.
Ma prendiamo ad esempio una delle attività più classiche e antiche dell’astronomia: l’astrometria, che si prefigge di determinare la posizione e i moti delle stelle. Le misure astrometriche sono andate ripetendosi nei secoli e, ancora oggi, sono oggetto di estremo interesse. Ogni volta che si sono ottenute misure delle posizioni delle stelle significativamente più precise di quelle già disponibili (e, parallelamente, si sono estese tali  misure  a  popolazioni  stellari sempre più deboli – e quindi mediamente più lontane)  si sono ottenuti  risultati importanti.

All’inizio fu Ipparco (l’astronomo  greco; al satellite Hipparcos  arriveremo tra breve) che compilò un catalogo stellare  di quasi mille stelle e, paragonando le posizioni di alcune di esse con quelle determinate da suoi predecessori, notò che vi erano differenze sistematiche.
Le interpretò correttamente, capendo che era stata la Terra a “muoversi” nel tempo intercorso tra le sue misure e quelle più antiche  di riferimento  (di cui aveva una ragionevole conoscenza dell’epoca) e scoprì così il fenomeno della precessione degli equinozi. A quel tempo la precisione con cui erano note le posizioni delle stelle era circa di una frazione di grado ma ciò gli bastò per riconoscere come vere le differenze osservate (che erano di pochi gradi).
Nel 1718 Halley, paragonando le posizioni di alcune stelle brillanti determinate da Ipparco con quelle correnti, scoprì il moto proprio delle stelle.
Poi Bessel, nel 1838, per primo osservò la parallasse di una stella: 61 Cygni, ricavando così la prima misura trigonometrica della distanza della Terra da una stella. I tempi erano maturi: nello stesso anno altri misurarono la parallasse di Vega e di Alpha Centauri. Misure fondamentali, queste delle parallassi stellari, perché permettono di fissare con sicurezza i primi pioli della cosiddetta “scala delle distanze”. Le parallassi delle stelle più brillanti e vicine si misurano in frazioni di secondo d’arco, ecco dunque che solo misure con queste precisioni permettono  di quantificarle. È stato dunque  necessario attendere la costruzione  di buoni telescopi per poterle apprezzare. Nel mezzo, tra Ipparco e Bessel, troviamo una moltitudine di osservazioni ripetute, di cataloghi stellari sempre più utili per quantità di stelle catalogate e per qualità dell’informazione registrata. Fu contando stelle in maniera sistematica e registrando la loro posizione che William Herschel  ricavò una prima misura della struttura  tridimensionale  della nostra galassia (v. “le Stelle” n. 96, pp. 62-66). Sono stati molti  i successi dell’astrometria, basati appunto su misure sempre più complete e accurate, e sono stati molti e continui i suoi progressi, destinati tuttavia a esaurirsi quando fosse venuta meno la capacità di ottenere misure sempre più precise. E ciò sarebbe inevitabilmente accaduto in assenza di un’innovazione rilevante.
L’innovazione si è però presentata con la possibilità di condurre nuove misure dallo spazio.
È stata l’Agenzia Spaziale Europea (ESA) a sfruttare, verso la fine del secolo scorso, con un satellite interamente dedicato all’astrometria, questa opportunità. Hipparcos (HIgh Precision PARallax COllecting Satellite – e il tributo a Ipparco pur con qualche fatica c’è), lanciato nel 1989 e operativo fino al 1993, ha registrato la posizione di oltre 100.000 stelle con una precisione di pochi millisecondi d’arco, circa 200 volte meglio di quanto precedentemente possibile, e un numero ben superiore di stelle (oltre 2 milioni) con una precisione non altrettanto spinta ma comunque sempre molto migliore di quanto già disponibile.
A dimostrare l’importanza (per la scienza che ne può derivare) di rimisurare con ancor maggior precisione quanto già misurato da Hipparcos (e molto altro ancora), l’ESA ha poi progettato e costruito una seconda missione astrometrica: Gaia (v. “le Stelle” n. 123, pp. 38-44), che sta per iniziare ora la sua avventura. Gaia misurerà – durante i cinque anni di vita previsti – un miliardo di stelle nella nostra galassie e nelle sue vicinanze, così da permettere la costruzione della più precisa mappa tridimensionale della Via Lattea.
La strumentazione di Gaia è costruita per arrivare a una precisione (per le stelle più brillanti della magnitudine 15) di 10-30 microsecondi d’arco e di 300 microsecondi d’arco per quelle più deboli, intorno alla magnitudine 20.
Gaia determinerà anche la magnitudine e il colore delle stelle osservate (con una precisione di qualche millesimo o di qualche decina di millesimi di magnitudine) e, per quelle più brillanti della magnitudine 17, otterrà anche una misura dello spettro e della velocità radiale. Se la scienza primaria di Gaia consiste in una mappatura sopraffina della Galassia che ci permetterà di studiarne la composizione, i processi di formazione e l’evoluzione, i dati che raccoglierà consentiranno anche studi in molti altri campi, dagli esopianeti a nuove verifiche della teoria della relatività, dagli asteroidi del nostro Sistema solare all’evoluzione stellare e, probabilmente, potranno dirci anche qualcosa di interessante sulla distribuzione della materia oscura nella nostra Galassia.
Parafrasando il motto dell’Accademia del Cimento, potremmo dunque dire: misurando e rimisurando…

Tratto da Le Stelle n° 126, gennaio 2014


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Ultrasuoni focalizzati a bassa intensità: un nuovo studio per la ricerca neurologica

Gli ultrasuoni focalizzati a bassa intensità (LIFU) sono una promettente tecnologia che potrebbe consentire di superare la barriera emato-encefalica e migliorare il trattamento di malattie neurologiche. Un nuovo lavoro indaga cosa avvenga nel cervello a seguito del trattamento, per analizzare la ripresa della barriera emato-encefalica dopo l’apertura indotta.

Le malattie neurologiche, come l'Alzheimer, il Parkinson e vari tumori cerebrali, sono tra le condizioni più invalidanti a livello globale. Nonostante i progressi della ricerca, i trattamenti efficaci restano ancora limitati: le ragioni sono varie e vanno dalla complessità del cervello alle difficoltà di una diagnosi precoce. Tra gli elementi che rendono difficile il trattamento delle malattie che interessano il cervello vi sono le difese naturali di quest’organo, in particolare la barriera emato-encefalica.