Chiedete a un
amico di contare con la mano fino a cinque; se è americano molto probabilmente inizierà
dall’indice, arriverà al mignolo e poi alzerà il pollice. Se è italiano
inizierà dal pollice per terminare con il mignolo. Entrambi comunque
cominceranno a contare partendo da uno, per finire a mano aperta.
Non ho mai
incontrato qualcuno che, col pugno chiuso, partisse da zero. Se invece vi accingete a misurare quanto
è alta una persona, lungo un tavolo o larga una nicchia nel muro in cui far
inserire degli scaffali fatti a misura da un falegname, allora partite da zero
e fate bene perché così farà anche il falegname, e se voi partiste da uno, alla
fine del lavoro non riuscireste a sistemare gli scaffali che risulterebbero un centimetro troppo lunghi.
Parimenti, siete contenti che la bilancia
del vostro salumiere parta da zero, e se
così non fosse glielo fareste notare o
cambiereste bottega. E sempre da zero, inteso come il momento della vostra nascita, partite per calcolare la vostra età.
Dunque,
per contar giusto si ha da cominciare da zero, tranne forse che nella numerazione
dei “civici” delle strade (a meno che non stiate proprio in quella casa, bella
davvero, in via dei Matti numero zero, resa famosa da uno Zecchino d’oro degli
anni ’60...).
E un
secolo quando incomincia? Abbiamo iniziato un nuovo millennio da pochi anni (noi
che seguiamo il calendario Gregoriano) e certamente ricorderete che le discussioni,
con cui si sono confrontate nel merito due scuole di pensiero, si sono
sprecate.
Ragion vorrebbe che il primo istante del millennio in cui siamo fosse stato
quello successivo alla mezzanotte del 31 dicembre dell’anno 1999, e in effetti
questo è quanto molte persone hanno considerato.
Perché allora altri (e in
particolar modo istituzioni e media) hanno sostenuto che invece l’inizio del
millennio andasse fissato al 1 gennaio 2001? Costoro, ricordando che il
calendario Gregoriano (così come quello Giuliano che andava a sostituire) iniziava
con l’anno uno e considerando che un millennio completo doveva contenere mille
anni e non 999, fanno iniziare il secondo millennio all’inizio del 1001 e
dunque il terzo – il nostro – all’inizio del 2001.
Poco importa che nella riforma si fossero
persi i 10 giorni di ritardo che erano la ragione stessa della riforma del calendario
e che quindi il 1582 sia stato un anno di soli 355 giorni, mancandogli quelli
dal 5 al 14 ottobre (v. “le Stelle” n. 99, p. 68). Il che è come dire che un
errore iniziale non può essere corretto e lo si deve sopportare secolo dopo
secolo, millennio dopo millennio.
Possiamo dunque attribuire l’origine della
confusione al pasticcio dovuto alla mancanza dell’anno zero, peccato di cui si
macchiò originariamente Dionigi il Piccolo quando introdusse una ri-numerazione
degli anni a partire dalla nascita di Cristo (che era riuscito a calcolare in corrispondenza
dell’anno 753 dalla fondazione di Roma), e ripartì da 1. D’altra parte era
difficile che facesse diversamente. Dionigi e i romani, infatti, lo zero proprio
non lo conoscevano; questo numero un po’ particolare venne introdotto in Europa
solo nel secondo millennio.
Se proprio ci tenete ad avere un calendario occidentale
con l’anno zero dovete rivolgervi agli astronomi (i veri Signori del Tempo,
almeno fino all’introduzione degli orologi atomici) che con Cassini definirono
una cronologia che utilizzava il numero zero per indicare l’anno 1 avanti Cristo,
-1 per indicare il precedente e così via, semplificando i calcoli degli intervalli
temporali come ad esempio quelli relativi alla periodicità delle apparizioni della
cometa di Halley. Più usato (dagli astronomi) è però una variante del calendario
Giuliano, introdotta dall’astronomo J. Scaliger nel 1583, che numera progressivamente
i giorni a partire dal mezzogiorno del 1 gennaio 4713 a.C.
Che lo zero sia un numero particolare, forse il meno “naturale” dei numeri naturali
(N) ce lo dicono la sua storia e alcune sue strane proprietà. Gli antichi
romani – appunto – non lo conoscevano e utilizzavano un sistema abbastanza complesso
per la numerazione basato sulla combinazione di sette simboli I, V, X, L, C, D
e M (1, 5, 10, 50, 100, 500 e 1000, rispettivamente) eventualmente soprassegnati
una o due volte per moltiplicarne il valore per mille o per un milione. Già è a
volte impegnativo leggere una data scritta in numeri romani, figuratevi fare i calcoli. Ciò nonostante
erano abili architetti e bravi ingegneri e molte opere romane – acquedotti,
mura, archi – sono ancora in piedi.
Chissà se la difficoltà nel fare i calcoli non li portava a semplificare, arrotondando
per eccesso, abbondando in mattoni e sovradimensionando così le costruzioni,
rendendole particolarmente robuste e durature? Fortunatamente, gli arabi
appresero dagli indiani il sistema di numerazione posizionale decimale e lo trasmisero
agli europei nel Medioevo.
E noi ringraziamo Leonardo Pisano, figlio di Bonacci,
meglio noto come Leonardo Fibonacci, che con il suo Liber Abaci contribuì a diffondere
la nuova numerazione decimale posizionale e i calcoli matematici, utilizzando i
numeri da 1 a 9 e anche la cifra 0, che smetteva di essere un semplice
“segnaposto”. Aggiunto alla destra di un qualsiasi intero N (diverso da zero),
lo zero rende il numero più grande di un fattore dieci. Aggiunto alla sinistra
non ha alcun effetto, dunque lì non serve a nulla (tranne forse che per dare un
“tono” al numero di matricola di James Bond, o per aumentare le vincite del
banco alle roulette contenenti lo “00”). Se è facile gestirlo nelle somme e
nelle sottrazioni, lo è meno nei prodotti e nei rapporti. Ogni qual volta lo
zero è presente in una lista di prodotti ne azzera il risultato, e anche 0 x N è
uguale a 0. Tuttavia 0! è uguale a 1, pur essendo l’operazione “fattoriale” una
particolare sequenza di prodotti; così come è uguale a 1 l’operazione N elevato alla 0. Se il
rapporto 0/N è possibile, ed è sempre uguale a zero, N/0 non è permesso, quasi
fosse un rapporto contro natura. Per non parlare poi di 0/0 che rimane
indeterminato.
Furono in molti a confrontarsi con il problema della divisione
per 0, a partire dal matematico indiano Brahmagupta e, successivamente,
Mahavira e Bhaskara, che nella seconda metà del primo millennio si cimentarono
con il tentativo di dare un senso all’aritmetica dello 0. Non ce la fece
Brahmagupta che dopo aver correttamente definito somme, sottrazioni e
moltiplicazioni, si inchiodò sulla divisione per zero, lasciando irrisolto il problema
di dividere per zero un numero qualsiasi, e sostenendo che 0/0 dovesse essere
uguale a zero.
Un paio di secoli dopo Brahmagupta, Mahavira riprende il problema
della divisione per zero e sostiene, in analogia alla sottrazione, che un numero
diviso per zero rimane inalterato. Passano altri tre secoli ed è Bhaskara a riconsiderare
la divisione per zero. Ci ragiona su e conclude che N/0 è uguale a infinito.
Sebbene, come vedremo tra un attimo, vi fosse una certa logica in questo risultato,
l’operazione era comunque formalmente scorretta. Non si può dividere un numero
per 0. Il problema dunque rimaneva e creava non poche difficoltà ai matematici.
Saranno poi Newton e Leibnitz, indipendentemente, a risolverlo circa mille anni
dopo Brahmagupta, con lo sviluppo del calcolo infinitesimale, differenziale e
integrale. Il calcolo infinitesimale, che permette lo studio di come cambiano
le funzioni, si rivelerà uno strumento formidabile per lo studio e lo sviluppo
della fisica e, più in generale, per l’analisi di molti problemi scientifici.
Esso
usa gli infinitesimi, quantità che, pur diverse da zero, gli si avvicinano come
nessun’altra sa fare. Dopo Newton e Leibnitz, N/0 rimane un faux pas, ma diventa
chiaro come trattare N/x, al tendere di x a 0. Ecco dunque che addomesticando lo
0 con il calcolo infinitesimale diventava semplice calcolare velocità
istantanee e aree, così come risolvere i molti paradossi derivanti da somme di
infiniti termini o da divisioni proibite. Oggi, anche a seguito della sua
vicinanza al concetto di assenza (contrapposto a quello di presenza, singola o
multipla, propria degli altri numeri), lo zero – la probabilità
dell’impossibile – è, di gran lunga, la cifra più utilizzata al mondo, insieme
alla cifra 1.
È infatti alla base della digitalizzazione binaria “no-si”
(ovvero 0-1) con cui praticamente tutta l’informazione viene codificata: testi,
musica, immagini, dati, software. Se è vero che la quantità dei contenuti
digitali nel mondo si misura ormai in zettabyte, allora là fuori ci sono più di
1022 cifre, metà delle quali sono degli zero.
Un traguardo di tutto
rispetto per un numero che per molto tempo è stato ignorato, che è stato poi
relegato al ruolo di segnaposto e che infine è stato guardato con una certa diffidenza,
prima di guadagnarsi un posto di eguale con gli altri numeri.
Tratto da Le Stelle n° 135, ottobre 2014