Ciao a tutti,
questa volta vi scrivo non più da addetto ai lavori di trincea nella Pa locale ma da membro di lavoro del gruppo Agid per il portale
dati.gov.it.
Alert: post lungo
Come sapete sia gli obiettivi del piano triennale che il monitoraggio del maturity report (ho visto alcune email vostre in merito e mi riprometto di aggiungere qualche riflessione appena posso), indicano chiaramente le direzioni qualitative e quantitative dove muovere il sistema dei dati aperti italiani ed europei. Sapete che il piano triennale poi viene adeguato ogni anno per questo motivo.
la strategia dei dati (anche aperti) si è spostata da silos a grandi spazi in cui ci saranno bigdata.
questi possono avere varie finalità di utilizzo: istituzionali , per il riuso ect
la distinzione è fondamentale per capire il ruolo per esempio tra il nuovo PDND e l’attuale scenario del dati aperti italiani.
spesso si fa confusione.
l’interscambio dei dati su fatturazione, sui dati fiscali, anagrafici ect avvengono già in parte (si veda l’appIO ect).
il rafforzamento dell’interscambio dei dati ai fini istituzionali giustifica l’enorme investimento di soldi del PNRR sul Dipartimento della Trasformazione Digitale.
Avrà un compito delicatissimo che spero faccia fare il salto che tutti speriamo da tempo, definendo come vanno strutturati i dati per l’interoperabilità.
Sapete che le linee guida Agid sull’interoperabilità sono ormai finalmente approvate.
Io volevo solo aggiornarvi sul cosa stiamo facendo dentro DatiGov per migliorare i Meta Dati insieme a tantissime amministrazioni locali; stiamo accompagnando grandi produttori di dati aperti ma anche i piccoli comuni, per permettere una pubblicazione che entri in dati gov (e da lì in europa) con i metadati corretti.
Per fare questo abbiamo deciso anche di mettere su un cruscotto di monitoraggio pubblico. non serve solo per gli obiettivi del piano triennale , ma proprio per capire cosa c’è ancora da migliorare e poi individuiamo la singola PA da contattare e accompagnare.
abbiamo anche lavorato nel trovare delle patch sui ckan che per esempio trasformavano una licenza locale in licenza sconosciuta su dati gov ect
Per questo già visivamente vedrete una decrescita su alcune categorie di metadati non corrette. È bastato per esempio capire cosa non andasse su
dati.trentino.it per passare da migliaia di risorse con formato sconosciuto (e quindi centinaia di dataset) a quasi zero.
oggi abbiamo il 3% di datigov con tale casistica. A giugno 2020 quando abbiamo iniziato era oltre il 20%. Il nuovo datigov (che poi non è altro che un ritorno ad un front end drupal e un ckan nel backend) ci ha permesso intraprendere un monitoraggio molto più puntuale.
Molti errori erano di processo, altri di cultura, altri di migrazione verso il dcatapit.
Il passaggio dalla licenza sul dataset a quella sulla singola risorsa, ha scoperto migliaia di dataset con licenze , appunto, sconosciute.
oppure formati di files che da xml o csv diventano ot-dapro cioè non codificati ect.
Aggiungo che il repertorio nazionale dei dati geografici (
geodati.gov.it) come sapete racchiude dati secondo la direttiva Inspire che non hanno la finalità dei dati aperti. Su 20.000 dataset circa 5200 sono con licenza aperta.
questi automaticamente vengono harvestati su datigovit.
Ma inevitabilmente alcuni campi abbiamo dovuto “aggiustarli” ex post.
Ad esempio la licenza che è un “campo libero” sui dati territoriali, l’abbiamo mappata correttamente secondo il profilo dcatapit (esempio ccby4.0 diventa poi un uri corretto relativo alla creative commons 4.0 ect).
Abbiamo poi riusato un validatore semantico di alcuni anni fa, per il profilo europeo Dcat, e personalizzato per il dcdtapit in modo che tante amministrazioni stanno controllando gli errori o warning nel proprio metacatalogo.
errori per i campi obbligatori del dcatapit, warning per i campi raccomandati e opzionali.
dulcis in fundo, abbiamo messo delle faq tecnico operative nate proprio con il confronto e la scoperta degli errori tipici.
Stiamo scrivendo in forma partecipata (con 18 tra PA locali , centrali e Regioni) le nuove linee guida per il recepimento della direttiva PSI 1024/2019 dove dovremo fare un focus sui dati dinamici, i costi marginali e i dataset ad alto valore (sperando che questi ultimi vengano individuati dall’UE in tempo utile per la pubblicazione delle linee guida).
eccovi alcuni link per quello di cui vi ho parlato. Scusate il pippone ma se non dico a voi tutte queste cose, con chi posso farlo? ;)
Piersoft
Inviato da iPhone