fbpx Alla ricerca della cittadinanza scientifica | Scienza in rete

Alla ricerca della cittadinanza scientifica

Primary tabs

--
Tempo di lettura: 1 min

Convegno conclusivo del master MACSIS che si è tenuto all’Università Milano-Bicocca lo scorso 11 novembre, è stata l’occasione per fare il punto su un aspetto particolarmente attuale della società della conoscenza: il rapporto fra cittadini e scienziati. Ispirato alla figura del giornalista e storico della scienza Pietro Greco, scomparso prematuramente nel 2020, l’incontro ha infatti voluto mettere a confronto cittadini, attivisti e ricercatori di diverse discipline, per esplorare il continente della “cittadinanza scientifica”.

00:00:00 Introduzione di Andrea Cerroni
00:11:58 Tavola rotonda: Cosa c'entrano i cittadini con la scienza, l’ambiente e l'innovazione?
01:26:15 Testimonianze di cittadinanza scientifica e citizen science
01:54:48 Social, clima e cielo
02:59:18 Natura ed educazione
04:01:42 Tavola rotonda: Il futuro della Cittadinanza scientifica e della Ricerca e innovazione Responsabile

 


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

L’AI potrebbe aiutarci ad andare d'accordo?

grafica con cervello e chip

L'AI, spesso criticata per la standardizzazione dei suoi contenuti, potrebbe trasformare questo limite in un punto di forza nei dibattiti su temi divisivi. Come hanno mostrato alcuni esperimenti, Chatbot come la Habermas Machine e Debunkbot mostrano risultati promettenti nella mediazione di controversie e nel contrasto alle teorie complottistiche. Pur considerando gli attuali limiti, il futuro di queste tecnologie potrebbe essere non nella sostituzione, ma nel supporto ai processi di decisione umani.

In un loro recente studio, Anderson, Shah e Kreminsky, un ricercatore indipendente e due ricercatori della Santa Clara University, hanno messo in guardia rispetto ai rischi di appiattimento e omogeneizzazione delle idee prodotte con il supporto di un Large Language Model (nel caso di studio, ChatGpt). Il rischio di appiattimento individuato è stato soprattutto semantico e linguistico.