Crediti: Víctor Cebollada/Wikimedia Commons. Licenza: CC BY-SA 4.0
La vita marina merita la massima attenzione, non solo perché rappresenta una risorsa alimentare ma anche perché il suo monitoraggio aiuta a comprendere l'impatto antropico e dei cambiamenti climatici su quest'ambiente. E la tecnologia, in particolare robotica e intelligenza artificiale, può dare un contributo importante all'ecologia marina: si pensi ai robot che, lavorando nei fondali o sulla superficie, sono progettati le valutazioni dell'inquinamento o per gli studi oceanografici. Scienza in Rete ha recentemente raccontato di come l'intelligenza artificiale possa invece essere un valido strumento per il monitoraggio del plancton; ora, uno studio pubblicato sulla rivista Scientific Reports e coordinato dall'Istituto di Scienze Marine del CNR ha validato una metodologia basata su intelligenza artificiale e computer vision per valutare le variazioni temporali di abbondanza di pesci in diverse condizioni operative.
Contare i pesci con l'intelligenza artificiale
«Il nostro studio è volto a dimostrare che la serie temporale di abbondanza estratta automaticamente descrive l'ecosistema nello stesso modo in cui lo farebbe la serie ottenuta analizzando visualmente le immagini, ossia un biologo esperto che conta i pesci contenuti nelle immagini acquisite. Per la descrizione dell'ecosistema abbiamo associato alla raccolta delle fotografie anche parametri ambientali acquisiti dall'osservatorio: la quantità di luce, la temperatura dell'acqua, la quantità di clorofilla e così via», spiega Simone Marini, coordinatore del lavoro. «L'osservatorio di monitoraggio sottomarino Obsea, che si trova al largo di Barcellona ed è gestito dall’Università Politecnica di Catalogna e dal il Consiglio superiore di ricerca scientifica spagnolo (Csic), in collaborazione con i quali è stato svolto lo studio, è equipaggiato con una fotocamera che acquisisce immagini dal 2012 in modo automatico, una ogni mezz'ora, giorno e notte».
Un'acquisizione d'immagini ridotta rispetto a quanto avviene negli studi sul microplancton. La ragione è il diverso contesto sperimentale e le differenti concentrazioni degli organismi investigati: per il microplancton, il campo analizzato è di pochi centimetri cubi d'acqua; per lo studio delle specie ittiche, invece, il campo considerato è di diversi metri cubi. Inoltre, l'utilizzo dei flash (quando manca la luce naturale), disturba e altera l'ecosistema, ad esempio perché può attirare o allontanare i pesci: un'altra ragione per ridurre l'acquisizione d'immagini.
«La possibilità di automatizzare questo tipo di analisi d'immagini permette di analizzare enormi quantità di dati. Ciò, a sua volta, permette di definire delle reti di osservazione molto distribuite spazialmente: nel mare, ad esempio, si può pensare d'installare molti punti di osservazione nelle aree marine protette, da cui acquisire immagini per periodi di tempo molto lunghi, anche nell'ordine di anni», spiega ancora Marini.«Questo può valere anche per aree più ostili o difficili da raggiungere, come i punti più profondi o a temperature estreme. L'enorme quantità di dati così ottenuta, che non può essere analizzata da un biologo, potrà essere analizzata in modo automatico».
L'importanza di un'intelligenza artificiale nel campo dell'ecologia marina non è solo nella capacità di analizzare un'enorme mole di dati o di poter lavorare in ambienti estremi. Le specie ittiche devono essere studiate in situ, e gli osservatori in mare aperto o basati su veicoli autonomi devono a volte trasferire le immagini via satellite o quando, di volta in volta, tornano alla base. È quindi necessario che la quantità di dati sia limitata a quelli rilevanti, e un sistema di discriminazione automatica è in questo di enorme aiuto.
Discriminare i dati rilevanti
«Più che di un computer, dobbiamo parlare di un algoritmo in grado di riconoscere ciò che è rilevante e che noi possiamo addestrare per dire, ad esempio, "informami sulla quantità di pesce", oppure "sull'abbondanza di quella particolare specie di pesce"», spiega Marini. «L'addestramento avviene tramite un insieme di esempi, un po' come si può fare con un bambino piccolo. Per spiegare un concetto complesso, l'esempio può essere attraverso esempi positivi (immagini che contengono pesci) e negativi (immagini che non contengono pesci). Nel nostro lavoro abbiamo usato circa un migliaio di esempi positivi, ossia immagini di pesci acquisite in diverse condizioni ambientali di luce, di torbidità dell'acqua, anche in presenza dei microrganismi che crescono e infestano di solito le scogliere o, in questo caso, la telecamera e così via e circa 27mila esempi negativi, ossia immagini che contengono le situazioni che devono essere discriminate come non rilevanti. Grazie a questi esempi, la tecnologia di machine learning impara a discriminare tra gli esempi negativi e positivi. Anche quando si trova di fronte a un'immagine sconosciuta, che non fa parte dell'addestramento, è comunque in grado di riconoscere, al suo interno, ciò che è rilevante e ciò che non lo è».
Durante l'addestramento, l'algoritmo impara anche ciò che è importante per riconoscere le diverse specie, come quelle che caratterizzano la texture dell'animale, ossia il colore o la forma dei disegni delle sue squame. «Queste informazioni possono essere quantificate da strumenti matematici e nella fase di learning vengono selezionati gli strumenti più efficaci, da cui automaticamente è prodotto il classificatore», spiega il ricercatore. Più difficile valutare taglia e dimensioni, per valutare le quali sono necessari strumenti particolari basati sulla stereoscopia oppure basati sulla scansione laser per avere informazioni sul modello 3D.
«Nella metodologia validata, ad esempio, non abbiamo idea della dimensione del pesce: può essere piccolo perché lontano oppure perché è di piccola taglia. Questo perché ciò che ci interessava era studiare le dinamiche temporali, ossia come varia la quantità di una specie nel tempo, e poi eventualmente correlarla ai parametri ambientali», racconta Marini.
L'occhio dell'intelligenza artificiale
Nello studio del CNR, all'intelligenza artificiale è stato associato l'uso della computer vision, ossia quell'insieme di procedure che servono ad analizzare le immagini e permettono di eliminare il background da ciò che è rilevante, ad esempio facendo riemergere i dettagli che l'occhio perde. «Tramite queste metodologie, il computer ci può mostrare anche ciò che noi non saremmo in grado di vedere. Pensiamo ad esempio a un bagnante che scatta una fotografia in un campo in cui è presente anche uno ctenoforo, un organismo trasparente: noi lo vediamo a malapena ma le tecniche di computer vision possono portarlo alla luce. Ecco perché le tecniche di computer vision, che permettono di tirare fuori dall'immagine tutto il contenuto informativo possibile, sono la premessa dell'intelligenza artificiale, che interverrà poi per stabilire quale è il contenuto rilevante. Associate, le due tecniche sono come il nostro occhio, che compie le operazioni che servono a mettere in risalto tutto il contenuto informativo, e il nostro cervello che ne fornisce l'interpretazione», conclude Marini.