In questo periodo sto facendo un po' di esperimenti anche per avvicinare
programmatori classici al mondo dei linked open data, anche in chiave di
apps4italy prossimo venturo, e siam partiti da una cosa utile, e noiosa
magari.
I CAP, codici di avviamento postale.
Sto guardando anche il dataset pubblicato dagli amici di Linked Open
Data[0], costruito sul vocabolario Vcard, oltre che il servizio GeoNames
sul tema.[1]
Ed il dilemma entro il quale sono finito � questo.
Pretendiamo i dati dagli enti, dalle Regioni e dalle pi� sperdute comunit�
pubbliche, e abbiamo il dataset dei CAP chiuso e propriet� di Poste
Italiane?[2]
Segnalato via Twitter da @steccami e poi da Roberto Scano...[3]
A me sembra paradossale.
So che tra settembre ed ottobre mi sembra che il tema fosse emerso, mea
culpa per non essere stato attento .)
Ma la cosa, a quanto pare, � di origine ben pi� antica.[4]
Su questo il concetto di riuso linked dei dati, per alleggerire i
programmatori poveri cristi, sarebbe ben evidente! .)
Vabb� che poi oggi ormai usiamo direttamente i dati di latitudine e di
longitudine, per� ragazzi...
Matt
[0] - http://www.linkedopendata.it/datasets/cap
[1] - http://www.geonames.org/export/ws-overview.html
[2] - http://www.poste.it/en/postali/cap/faq.shtml
[3] - http://twitter.com/#!/steccami/status/75819772499079168
[4] - http://blogs.devleap.com/marco/archive/2005/07/27/5443.aspx
Un saluto a tutti,
una cosa al volo che forse non mi è del tutto chiara.
In questo periodo sto facendo un po' di esperimenti anche per avvicinare
programmatori classici al mondo dei linked open data, anche in chiave di
apps4italy prossimo venturo, e siam partiti da una cosa utile, e noiosa
magari.
I CAP, codici di avviamento postale.
Sto guardando anche il dataset pubblicato dagli amici di Linked Open
Data[0], costruito sul vocabolario Vcard, oltre che il servizio GeoNames
sul tema.[1]
Ed il dilemma entro il quale sono finito è questo.
Pretendiamo i dati dagli enti, dalle Regioni e dalle più sperdute comunità
pubbliche, e abbiamo il dataset dei CAP chiuso e proprietà di Poste
Italiane?[2]
Segnalato via Twitter da @steccami e poi da Roberto Scano...[3]
A me sembra paradossale.
So che tra settembre ed ottobre mi sembra che il tema fosse emerso, mea
culpa per non essere stato attento .)
Ma la cosa, a quanto pare, è di origine ben più antica.[4]
Su questo il concetto di riuso linked dei dati, per alleggerire i
programmatori poveri cristi, sarebbe ben evidente! .)
Vabbè che poi oggi ormai usiamo direttamente i dati di latitudine e di
longitudine, però ragazzi...
I dati comunque derivano da ISTAT importati da GFOSS.it
Qui trovi qualche info
http://geodati.gfoss.it/wiki/index.php/Pagina_principale
Un esempio di interrogazione delle xapi di openstreetmap attraverso il
servizio di mapquest
http://open.mapquestapi.com/xapi/
Es:
questo mi estrae i codici postali dell'area del trentino alto adige e dintorni
http://open.mapquestapi.com/xapi/api/0.6/node%5Bpostal_code=*%5D%5Bbbox=11.00903426211027,45.61613420790987,13.206299887022544,46.47398080782832%5D
Anche io la penso cosi', infatti invito tutti a spingere la P.A. ad
abbracciare la CC0 :)
Grazie Maurizio,
immaginavo ci fosse qualcosa anche su OSM .)
Sarebbe interessante capire come queste fonti stiano interagendo,
intendo i dati di indirizzo di openstreetmap, istat, geonames e via dicendo.
Quello che fa strano � dover ripetere lavori su lavori per dati che gi�
ci sono. E che continuano a cambiare.
Ma questo � un altro discorso. E' un processo che scardina alcune regole
assodate, ben venga che se ne discuta .)
Per� serve anche maggior tracciabilit� degli sforzi open, per non
rischiare di ripetere del lavoro gi� iniziato, o gi� fatto.
Matt
Vediamo di inchiodare qualcosa.
Tutto quello che e' prodotto con soldi pubblici, a meno che non
esistano esigenze particolari di riservatezza, deve essere pubblico.
Giusto?
Sara' poi un problema mio (soggetto che ho interesse ad avere certi
dati o informazioni prodotte o in possesso della PA) pagare le spese
(e solo quelle) per andare a prenderli.
E' anche ovvio che con l'avvento dell'informatica e di internet i
costi connessi alla "messa a disposizione" di dati e informazioni da
parte della PA sono crollati.
Noi paghiamo le tasse perche' la PA faccia certe cose, se nel farle
produce dati e informazioni, queste devono essere a disposizione.
I dati e le informazioni sono un "mezzo" per produrre un certo "fine".
Quindi i dati sono "sottoprodotti" di un "processo di business"
rivolto al cittadino.
Se invece la PA supporta dei costi per produrre dati e informazioni, e
quindi il "processo di business" e' proprio produrre quelle
informazioni e dati, sarebbe meglio che quella PA smettesse subito di
produrre quei dati e informazioni.
Se non servono ai cittadini, che paghiamo le tasse a fare?
Potrebbe anche configurarsi uno "sperpero" di denaro pubblico ...
Riassumendo, se nello svolgere la sua attivita' la PA produce dati,
questi devono essere messi a disposizione.
E oggi con internet questo puo' essere fatto a costi praticamente nulli.
Esempio.
Le ARPA hanno come compito il controllo dell'inquinamento atmosferico
finalizzato alla tutela della salute dei cittadini.
Quindi si attivano reti di monitoraggio che come scopo hanno
verificare se i limiti di legge vengono superati o meno.
Se i limiti vengono superati, le ARPA avvisano chi di dovere
(tipicamente il sindaco) che interviene bloccando la fonte di
inquinamento.
Quindi le banche dati delle reti di monitoraggio sono un
"sottoprodotto" del "processo di business", controllo della qualita'
dell'aria.
Rendere disponibili su internet in modalita' OpenData ha un costo
praticamente nullo.
Lo stesso dicasi per i dati di pioggia e dei livelli dei fiumi.
Allora ditemi perche' questi dati devono essere pagati ...
Secondo me questi dati *devono* essere resi disponibili.
In particolare il livello dei fiumi. Tutti dovrebbero poter
connettersi ad un dato URL e ottenere gratuitamente il livello
idrometrico di un dato fiume. Gratis.
E per un motivo molto semplice. Perche' gia' li paghiamo con le tasse
e non ci sono costi aggiuntivi per il fatto che vengono resi
disponibili, E' solo un problema di organizzazione e volonta' di
farlo.
> In questo caso però (e sospetto anche in moltissimi altri, dove questa
> argomentazione viene utilizzata come rifugio), si tratta di dati
> *essenziali*, di cui il cittadino, e non solo l'impresa, non può fare a
> meno. E se così non fosse, 1000-5000 euro sono un prezzo equo?
Non esiste un prezzo equo.
Al massimo si puo' parlare di conguita' dei costi.
> Chi decide, e su quali basi, quali dati debbano essere gratuiti e quali no?
Lo dovrebbe dire la legge. E dovrebbero essere gratis.
>>"se i dati pubblici vengono venduti e il corrispettivo diventa un'entrata
>> per l'erario si può pensare che le imposte vengano ridotte dell'ammontare
>> corrispettivo"
Se andiamo ad analizzare i costi e facciamo la "contabilita'
industriale" sia del processo di produzione che del processo "metti a
disposizione a pagamento i dati", probabilmente scopri che il gioco
non vale la candela.
Conosco dei casi che a fine anno per una PA costava di piu' il
"processo" connesso alla fatturazione che il corrispettivo incassato
...
luca
Esatto.
Non si e' mai visto un monopolista che favorisca il libero mercato ;-)
Proprio per questo il "libero mercato" e la "libera concorrenza" vanno
promosse e supportate.
Il monopolio e' un danno per il mercato.
> Nota sul "pricing". Avete letto il paper di Pénin (Univ. Strasburgo)?
> In sostanza, arriva anche lui ha dire p=cm, ma in modo curioso, ossia
> sostenendo che vanno allineate le tariffe alla disponibilità a pagare, e
> quest'ultima sarebbe bassa o nulla per i dati grezzi. Non sono
> particolarmente d'accordo con questa impostazione: anzi, a mio avviso è
> proprio nel rilascio delle banche dati, così come sono (dimenticando per un
> attimo i problemi collaterali), che si realizza valore. Ma se Pénin
> applicasse questo concetto risulterebbe una tariffazione alta per i dati
> grezzi (più alta che per i servizi!).
Secondo me la "disponibilita' a pagare" non ha senso, da un punto di
vista concettuale.
Anche perche' la "mano invisibile" del mercato puo' agire solo se
domanda ed offerta sono indipendenti e, per questo tipo di mercato,
non lo sono.
ciao.
luca
Pero' molte volte sono gia' pronti.
E sempre piu' i processi interni alla PA sono informatizzati.
La disponibilita' quindi di dati che nascono gia' informatizzati e
sempre maggiore.
Oramai nella PA qualsiasi processo ha dietro un workfow informatizzato.
Nessuno chiede alla PA di spendere di piu' o di lavorare per rendere
disponibili i dati.
Ma almeno quando sono "gia' pronti" si.
> lo sforzo secondo me sussiste sia nel caso di condivisione proattiva da
> parte della PA sia, a maggior ragione, nel caso in cui la PA stia
> rispondendo alla richiesta di un riutilizzatore: in entrambi i casi, il
> procedimento interno nell'ambito del quale i dati sono stati raccolti non
> prevedeva ab origine la loro "pulitura" per una successiva condivisione.
Sono casi "di scuola" sempre piu' rari.
Sarebbe ora che almeno nell'80% dei casi in cui i dati sono gia'
pronti, questi venissero resi disponibili.
Ma secondo voi e' credibile che non sia gia' informatizzato il dato:
"quante autorizzazioni di un certo tipo sono state rilasciate
nell'ultimo anno da una data PA"?
Ciao.
luca
On Wednesday, June 1, 2011, Matteo Brunati <ma...@blog.dagoneye.it> wrote:
> Il 01/06/11 15:37, Maurizio Napolitano ha scritto:
>
> E' una non risposta.
> ma su openstreetmap trovi questi dati, certo, non sono ancora completi
> ma su altri casi ci trovi cose che mai ti saresti immaginato come
> 12.000 fontane di acqua potabile distribuite sul territorio (e chissa'
> quante altre ancora ce ne sono)
>
> I dati comunque derivano da ISTAT importati da GFOSS.it
> Qui trovi qualche info
> http://geodati.gfoss.it/wiki/index.php/Pagina_principale
>
>
> Un esempio di interrogazione delle xapi di openstreetmap attraverso il
> servizio di mapquest
> http://open.mapquestapi.com/xapi/
>
> Es:
> questo mi estrae i codici postali dell'area del trentino alto adige e dintorni
> http://open.mapquestapi.com/xapi/api/0.6/node%5Bpostal_code=*%5D%5Bbbox=11.00903426211027,45.61613420790987,13.206299887022544,46.47398080782832%5D
>
>
> Grazie Maurizio,
> immaginavo ci fosse qualcosa anche su OSM .)
>
> Sarebbe interessante capire come queste fonti stiano interagendo, intendo i dati di indirizzo di openstreetmap, istat, geonames e via dicendo.
>
> http://3liz.org/geolocation/
>
> Quello che fa strano è dover ripetere lavori su lavori per dati che già ci sono. E che continuano a cambiare.
> Ma questo è un altro discorso. E' un processo che scardina alcune regole assodate, ben venga che se ne discuta .)
> Però serve anche maggior tracciabilità degli sforzi open, per non rischiare di ripetere del lavoro già iniziato, o già fatto.
>
> Matt
>
>
>
--
Maurizio "Napo" Napolitano
http://de.straba.us
Interessante
> Se la necessità è quella di associare "al volo" un CAP a un indirizzo
> o a un comune con un solo CAP si possono usare anche le API di Google
> (es. http://maps.googleapis.com/maps/api/geocode/json?address=via%20mazzini%20100,%20bologna,%20italy&sensor=true)
> C'è però un limite di 2500 chiamate al giorno, il che rende la
> soluzione poco utilizzabile per siti trafficati. Al momento non ho
> idea di come sia eventualmente possibile superare questa limitazione
personalmente preferisco usare servizi con gradi maggiori di liberta
e dove posso gestire i dati.
Pertanto preferisco portare questi dati - sempre se la licenza lo
permette - su openstreetmap o geonames.
Alternative di geocoding a google maps sono comunque offerte da
diversi altri provider.
mapquest, yahoo, bing, ovi maps, map24 .. giusto per citarne qualcuno
Aggiungo anche le API di pagine gialle
http://api.visual.paginegialle.it/tcolnew/mapsapi/pgMaps.html
> Se può servire, con Google Table Fusion ho fatto un merge dei dati
> ISTAT di Comuni e Province/Regioni
> Le fonti sono http://www.istat.it/strumenti/definizioni/comuni/elenco_comuni_italiani_30_giugno_2010.csv
> e http://www.istat.it/strumenti/definizioni/comuni/ripartizioni_regioni_province.csv
Se non erro la licenza istat e' un qualcosa che rientra nella categoria BY
http://www.istat.it/copyright.html
I dati sono accessibili qui
http://www.istat.it/ambiente/cartografia/
in formato ESRI Shapefile (formato pubblico, ma non aperto)
Buoni software liberi per gestirli sono quantum gis, gvsig, grass,
udig, openjump
La comunita' di openstreetmap si e' gia' adoperata per importare questi dati
http://jupiter.hanskalabs.net/osm-istat-2011/osm-istat-2011/
il lavoro e' comunque un lavoro di fino visto che si tratta di
adattarli a quelli gia' importati.
> il risultato è qui: http://www.google.com/fusiontables/DataSource?snapid=S200985HItT
> si può interrogare e esportare, tutto o filtrato. Cliccando l'icona
> che compare nella colonna "Input per Google Maps" si vede la mappa
> relativa al comune
Anche se nel paragrafo sopra appaio scettico (ma questo per mia natura
quando vedo
la grande G mangiare dati), faccio i complimenti per il lavoro svolto.
Grazie