newsletter finesettimana #25
Buon venerdì,
questa settimana parliamo del momento magnetico anomalo del muone, di come regolare algoritmi e dispositivi medici,
dell'internet femminista, della minaccia che gli ftalati rappresentano per la fertilità umana e diamo gli ultimi aggiornamenti su COVID-19.
Raccontiamo poi del documentario Coded Bias, uscito questa settimana su Netflix e diretto dalla regista Shalini Kantayya, che
ripercorre la battaglia
di una serie di ricercatrici e attiviste per portare alla luce le discriminazioni codificate negli algoritmi.
Buona lettura (per segnalare questa newsletter agli amici ecco il link per l'iscrizione) |
|
SEI PEZZI BELLI |
1 Il momento magnetico del muone è più anomalo di quanto pensavamo
L'esperimento Muon g-2 del Fermilab, un laboratorio di fisica delle particelle vicino Chicago, ha reso pubblici mercoledì i
risultati, ottenuti analizzando i primi dati raccolti. Gli oltre 200 scienziati della collaborazione,
tra cui un nutrito gruppo di italiani, hanno misurato con un'accuratezza mai raggiunta prima il momento magnetico del muone
confermando che esiste una differenza statisticamente significativa rispetto al valore previsto dalla teoria, il modello standard.
Muon g-2 conferma quanto era stato osservato vent'anni fa al Brookhaven National Laboratory, ma lo fa con una precisione maggiore.
C'è infatti una probabilità di 1 su 40 000 che la stima ottenuta sia dovuta al caso. La differenza tra valore sperimentale e teorico
potrebbe essere il segnale che esistono nuove particelle elementari che non sono previste dal modello standard, la migliore descrizione
che abbiamo delle interazioni al livello microscopico. Proprio ieri, però, un gruppo di fisici teorici ha pubblicato su Nature una nuova stima
del momento magnetico del muone usando delle tecniche di calcolo diverse e concludendo che la discrepanza potrebbe essere inferiore.
Questa nuova stima teorica, però, deve essere ancora valutata dalla comunità scientifica
[Quantamagazine]
2 L'utilizzo degli algoritmi per il riconoscimento delle emozioni deve essere regolato
La pandemia ha favorito la diffusione di software per la classificazione delle emozioni a partire dall'analisi
delle espressioni facciali. Sono stati usati per controllare gli studenti durante gli esami online, per monitorare
i lavoratori e nei processi di selezione del personale. Eppure, la teoria su cui sono basati è molto controversa e la loro
efficacia non è stata mai dimostrata. Al contrario, è noto che abbiano un pregiudizio nei confronti di alcune categorie, per esempio
individuano più emozioni negative nelle persone nere. Kate Crawford, ricercatrice a Microsoft Research e autrice del libro "Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence",
ribadisce la necessità di formulare delle leggi che ne governino l'utilizzo ispirandosi agli studi clinici per l'approvazione dei farmaci
[Nature]
3 Per avere dispositivi medici più equi impariamo dal dibattito sugli algoritmi
D'altra parte, l'approvazione dei dispositivi medici potrebbe imparare
molto dagli interrogativi che la comunità dell'intelligenza artificiale,
in particolare del machine learning, si sta ponendo.
I dispositivi medici possono essere discriminatori per via del
meccanismo di base su cui è basato il loro funzionamento. Per
esempio l'ossimetro misura la percentuale di ossigeno trasportata
dal sangue tramite luce e funziona meno bene sulle persone con pelle scura.
Questo può causare una maggiore difficoltà di diagnosticare certe patologie
in questo gruppo e dunque uno standard inferiore di cura.
Ma i dispositivi medici possono generare discriminazione anche a
causa dei dati che vengono utilizzati per costruirli, come nel caso delle
protesi d'anca che inizialmente venivano progettate su modelli
anatomici maschili. Infine, possono esserci dei problemi di interpretazione
dei dati generati dai dispositivi medici, come nel caso della spirometria:
la convinzione che la capacità polmonare di neri e asiatici sia inferiore
a quella dei bianchi ha portato a sottostimare le necessità di cura
di questi gruppi
[Science]
4 Un internet femminista è un internet migliore per tutti
La vita delle donne online, soprattutto di quelle che hanno un ruolo pubblico,
è caratterizzata da violenza, minacce e molestie sessuali. A questo si somma la discriminazione
dovuta agli algoritmi usati per animare i social network e i motori di ricerca, progettati
e implementati principalmente da uomini bianchi. Se scriviamo in un motore di ricerca "school boy" e "school girl"
e confrontiamo i risultati, ci rendiamo conto facilmente della proporzione preoccupante del problema.
Ma le cose possono essere anche più sottili, come i sistemi di sorveglianza di Facebook che oscurano foto contenenti
immagini sessuali esplicite o di nudo spesso che cancellano anche quelle delle donne che allattano.
A provare a cambiare le cose finora sono state le iniziative di gruppi di attivisti o di singole donne,
che hanno sviluppato alcuni strumenti per moderare questi fenomeni sui social network. In altri casi,
la proposta di cambiamento è stata più radicale: Herd è un nuovo social network dove non ci sono likes
e si può scrivere un numero limitato di commenti. Ma la vera battaglia si svolge probabilmente sul piano legislativo.
Alla fine della presidenza Obama
era stato formulato l'Algorithmic Accountability Act mai approvato dal Congresso durante i quattro anni di Trump.
Con Biden le cose potrebbero cambiare
[MIT Technology Review]
5 La fertilità, sia maschile che femminile, è in pericolo
È questo il messaggio al centro del libro dell'epidemiologa Shanna Swan e della giornalista Stacey Colino
intitolato "Count Down" e in cui le due autrici
passano in rassegna la letteratura scientifica che ricerca le cause di questo fenomeno.
Swan era diventata famosa nel 2017 pubblicando uno studio
che denunciava come il numero di spermatozoi fosse diminuito del 50%-60% tra il 1973 e il 2011.
A essere in periocolo non è solo la fertilità maschile, ma anche quella femminile e di
molte altre specie animali. Tra le cause che Swan individua, una sembra essere
prominente: l'esposizione ai composti chimici, in particolari gli ftalati, che si trovano
nelle plastiche ma anche nei prodotti per la cura del corpo e la pulizia della casa.
Queste sostanze fanno parte della categoria degli interferenti endocrini che
perturbano i sistemi ormonali. I governi dovrebbero intervenire per limitarne l'utilizzo
in maniera molto più incisiva di quello che hanno fatto finora
[Undark]
6 Aggiornamenti COVID-19
×
L'EMA ha concluso la sua nuova revisione dei circa 90 casi di una rara forma di trombosi
dopo la somministrazione di 25 milioni di dosi del vaccino AstraZeneca sul territorio dell'UE, Islanda,
Norvegia, Svizzera e Regno Unito. Ha concluso che il nesso è probabile e
che questi eventi verranno aggiunti alla lista di effetti collaterali del farmaco
[EMA]
×
Numerosi stati europei hanno deciso di destinare il vaccino ai cittadini sopra 60 anni,
perché la maggioranza degli eventi avversi è stata osservata in persone sotto quella età
[Reuters]
×
Il Regno Unito, invece, ha deciso di offrire agli under 30 un vaccino alternativo
a quello di AstraZeneca, se disponibile nella loro area di residenza
[The Guardian]
×
La variante B.1.1.7 è ora dominante anche negli Stati Uniti
[New York Times]
×
Un gruppo di scienziati di diversi paesi del mondo chiedono
una nuova e più approfondita indagine sull'origine del SARS-CoV-2,
delusi da quella condotta dall'Organizzazione Mondiale della Sanità
[New York Times]
×
Più di un milione di persone nel Regno Unito accusano i sintomi della sindrome post COVID (o long COVID) dice un sondaggio condotto dall'Office for National Statistics
[The Guardian]
×
Gli anticorpi specifici contro SARS-CoV-2 indotti dal vaccino Moderna durano almeno 6 mesi
[NEJM]
×
Gli anticorpi prodotti dopo la somministrazione dei vaccini Moderna e Novavax hanno una capacità
di neutralizzare la variante B.1.429 emersa in California ridotta rispetto a quella osservata
contro le varianti storiche ma paragonabile a quella contro la B.1.1.7. Visto che sul campo questi
vaccini si stanno rivelando altamente efficaci nell'evitare le forme sintomatiche dell'infezione da B.1.1.7,
lo stesso dovrebbe accadere con la B.1.429
[NEJM]
|
CODED BIAS: SULL'IMPORTANZA DI ESSERE INCLUSIVI QUANDO SI PROGETTANO E UTILIZZANO GLI ALGORITMI |
“The more humans share with me, the more I learn”. Una voce metallica pronuncia questa frase all’inizio del documentario Coded Bias, diretto dalla regista Shalini Kantayya e disponibile su Netflix dal 5 aprile. Queste parole riassumono il messaggio centrale del documentario: gli algoritmi sono distorti soprattutto perché “apprendono” dagli esseri umani. Questo è particolarmente vero per i sistemi di machine learning, quelli che sottintendono al funzionamento dei motori di ricerca, dei social media, degli assistenti vocali e di molti altri strumenti tecnologici che usiamo quotidianamente.
Il documentario si concentra in particolare sulla storia di Joy Buolamwini, diventata celebre per aver scoperto e denunciato che gli algoritmi di riconoscimento facciale di società come IBM, Microsoft e Face++, sono molto meno accurati sui volti delle persone con la pelle scura, in particolare donne, rispetto a quanto non lo fossero per i bianchi, in particolare uomini.
Buolamwini era all’inizio del suo dottorato all’MIT Media Lab e lavorava a un progetto chiamato Aspire Mirror, uno specchio dove vedere riflessa un’immagine di sé che rappresentasse le proprie speranze e le proprie aspirazioni. Le tecnologie alla base dell’Aspire Mirror erano una telecamera e un software di riconoscimento facciale. Buolamwini si rese presto conto che il sistema funzionava molto bene per i suoi amici bianchi, ma molto peggio quando era il suo volto a essere inquadrato dalla telecamera. Se, però, Buolamwini indossava una maschera bianca, allora il sistema rilevava la presenza di una faccia nell’immagine.
Il motivo era semplice: i database su cui i software vengono allenati contengono molti più volti di maschi bianchi che di altre categorie.
A quel punto, il progetto cambia nome e diventa Gender shades e Buolamwini decide di fondare la Algorithmic Justice League, un gruppo che vuole portare alla luce il fenomeno della discriminazione algoritmica che lei ama chiamare “the coded gaze”, lo sguardo dell’algoritmo, facendo riferimento al “male gaze” che si usa per fare riferimento al modo in cui la cultura patriarcale e maschilista rappresenta le donne e più in generale il mondo partendo da un punto di vista maschile ed eterosessuale.
Il percorso di Buolamwini è influenzato in particolare dall’incontro con Cathy O’Neil, matematica e attivista, autrice del libro “Weapons of Math Destruction”, che avevamo recensito qui. Nel suo libro O’Neil ha denunciato, fra le prime, l’utilizzo sempre più pervasivo degli algoritmi come sistemi di assistenza alla decisione. I casi descritti da O’Neil non sono complessi sistemi di machine learning o reti neurali profonde come quelle che vengono utilizzate nel riconoscimento facciale. Si tratta piuttosto di modelli matematici che, basandosi sui dati storici formulano delle previsioni sul futuro. Il programmatore sceglie un un obiettivo da massimizzare nei futuri previsti da questi modelli, e chiede all’algoritmo quali scelte nel presente sono funzionali al suo scopo.
Non c’è niente di neutrale in questo processo, a differenza di quello che si potrebbe pensare di modelli matematici basati sui dati. Le previsioni fatte dai modelli vengono formulate sulla base dei dati storici, che, esattamente come i database di allenamento dei sistemi di riconoscimento facciale, sono sbilanciati, spesso in favore dei gruppi sociali più privilegiati. L’obiettivo che il programmatore sceglie di massimizzare, poi, è una scelta che incorpora una serie di valori che possono, più o meno consapevolmente, penalizzare le minoranze.
Il documentario è una conversazione tra le persone che stanno portando avanti con maggiore forza questa battaglia, tutte donne. E il messaggio che sembra essere centrale è proprio l’importanza di includere punti di vista molto diversi tra loro. Lo sviluppo dei sistemi automatici di assistenza alla decisione sta avvenendo soprattutto all’interno delle grandi società tecnologiche, che impiegano per la maggioranza uomini bianchi. La rappresentazione di diversi punti di vista è fondamentale perché la tecnologia non provochi danni e non crei una società ancora più disuguale, e il punto di vista femminile è il primo a essere trascurato, insieme a quello dei gruppi etnici che storicamente sono più svantaggiati.
Poche settimane fa, avevamo parlato della vicenda di Timnit Gebru, co-direttrice del gruppo di etica di Google Research, licenziata per via di un articolo scientifico in cui sottolineava i rischi connessi allo sviluppo di modelli statistici di linguaggio basati su database sempre più grandi. Gebru, che ha supervisionato il progetto Gender shades di Buoamwini nel 2018, era una delle poche donne nere assunte da Google Research.
Il documentario si conclude con l’audizione di Buolamwini al Congresso degli Stati Uniti a maggio del 2019 sull’utilizzo delle tecnologie di riconoscimento facciale. Negli Stati Uniti questi sistemi vengono utilizzati regolarmente da diversi corpi di polizia, ma negli ultimi due anni sono stati diverse le città a bandirne l’utilizzo, anche in conseguenza del lavoro di Buolamwini. La strada che viene indicata, dunque, è quella della regolamentazione da parte dello stato perché anche se il modello della sorveglianza di stato attuato dalla Cina sembra lontano, la sorveglianza operata dalle società private può mettere a rischio i diritti e le libertà in modo altrettanto grave.
|
|
Per suggerimenti e commenti scrivere a: [email protected] |
Per donare alla Newsletter clicca qui |
Se invece non vuoi più ricevere la newsletter clicca qui |
PS: per tenere Scienza in rete fuori dallo spam aggiungi la nostra mail [email protected] tuoi contatti (per Gmail, vai a contacts.google.com e clicca su "crea contatto"). Se Scienza in rete finisce nelle promozioni di Gmail, trascinala nella casella della tua posta in entrata per non perdere mai un numero! |
Segui Scienza in rete |
|
|
By: |
|
|
|
|