Tracciamento all’indietro (backward) del percorso delle particelle inquinanti nelle falde acquifere del Milanese 2018-07-04T12:29:46+00:00

Project Description

La legge 152/2006 ha adottato i principi della direttiva quadro sull’acqua dell’UE e affida alle regioni il compito di individuare le aree soggette all’inquinamento delle acque sotterranee e di valutare il livello di contaminazione di alcuni solventi clorurati (ad es. Tetracloroethylene, PCE). Le fonti di contaminazione delle acque sotterranee possono essere classificate in due diverse categorie: 1) aree molto ristrette che rilasciano pennacchi di concentrazioni elevate/molto elevate (ad esempio hot-spot) e 2) aree costituite da un serie di piccole sorgenti non identificabili raggruppate in una vasta area, generando una contaminazione diffusa.
A causa dell’incertezza legata all’esatta posizione e intensità di alcune sorgenti, (MODFLOW/MODPATH) è stato implementato un modello numerico in un’area pilota nel settore nord-occidentale della Milano FUA (nell’ambito del progetto europeo CENTRAL INTERREG AMIIGA). La metodologia proposta permette di considerare l’incertezza legata alla massa di contaminanti rilasciata da fonti sconosciute nelle acque sotterranee. Inoltre, i gestori ambientali potrebbero avere uno strumento per segnare le aree non direttamente interessate dai pennacchi Utilizzando il codice di calibrazione inverso, un modello è stato calibrato.
Questo è stato poi utilizzato come input per un processo statistico basato sul null-Space Monte Carlo (NSMC) metodo, che permette di generare insiemi illimitati di campi di conduttività idraulica. Considerando l’eterogeneità, usando MODPATH è STATO POSSIBILE TRACCIARE ALL’INDIETRO i percorsi delle particelle a partire dai pozzi/piezometri più contaminati dell’area (con valori superiori al limite di legge pari a 1.1. ug/l). Al fine di considerare sia la struttura verticale (acquifero superficiale e profondo) sia la contaminazione per ogni pozzo (una particella ogni 10 ug/l), si è generato un buon numero di simulazioni (400), ognuna contenente più di 30000 record.
L’analisi di tale mole di dati è di tipo big data….

In ambito big data l’obiettivo è agevolare il team nella lettura e il trattamento dei vari dati.
Per questo lavoro è stato chiesto un intervento da parte di un addetto all’analisi dati proprio perché ci si chiedeva come fare a leggere i risultati di un’analisi che erano molteplici sia per tipologia sia per numero.
Nel trattamento dei dati è stato scelto Python come strumento principale per l’ETL ed è stato efficace grazie alla sua versatilità.
L’obiettivo oltre al trattamento e alla visualizzazione dei dati è costruire uno script che sia di agevole riutilizzo in previsione delle future simulazioni.

Project Details

Skills Needed: