Open Data e CAP, mmm, un matrimonio che non s'ha da fare

522 views
Skip to first unread message

Matteo Brunati

unread,
Jun 1, 2011, 7:32:02 AM6/1/11
to spaghett...@googlegroups.com

Un saluto a tutti,
una cosa al volo che forse non mi � del tutto chiara.

In questo periodo sto facendo un po' di esperimenti anche per avvicinare
programmatori classici al mondo dei linked open data, anche in chiave di
apps4italy prossimo venturo, e siam partiti da una cosa utile, e noiosa
magari.

I CAP, codici di avviamento postale.
Sto guardando anche il dataset pubblicato dagli amici di Linked Open
Data[0], costruito sul vocabolario Vcard, oltre che il servizio GeoNames
sul tema.[1]
Ed il dilemma entro il quale sono finito � questo.

Pretendiamo i dati dagli enti, dalle Regioni e dalle pi� sperdute comunit�
pubbliche, e abbiamo il dataset dei CAP chiuso e propriet� di Poste
Italiane?[2]
Segnalato via Twitter da @steccami e poi da Roberto Scano...[3]

A me sembra paradossale.
So che tra settembre ed ottobre mi sembra che il tema fosse emerso, mea
culpa per non essere stato attento .)

Ma la cosa, a quanto pare, � di origine ben pi� antica.[4]
Su questo il concetto di riuso linked dei dati, per alleggerire i
programmatori poveri cristi, sarebbe ben evidente! .)

Vabb� che poi oggi ormai usiamo direttamente i dati di latitudine e di
longitudine, per� ragazzi...

Matt

[0] - http://www.linkedopendata.it/datasets/cap
[1] - http://www.geonames.org/export/ws-overview.html
[2] - http://www.poste.it/en/postali/cap/faq.shtml
[3] - http://twitter.com/#!/steccami/status/75819772499079168
[4] - http://blogs.devleap.com/marco/archive/2005/07/27/5443.aspx

Michele Barbera

unread,
Jun 1, 2011, 7:54:38 AM6/1/11
to spaghett...@googlegroups.com
Ciao Matteo, ciao tutti,

la mia personale opinione è che in casi come questo sarebbe giustificato ricorrere ad azioni di disobbedienza civile.

Tenendo anche conto del fatto del fatto che Poste è un'azienda "parapubblica" (vedi gli ingenti trasferimenti che riceve dallo stato).
Trovo sinceramente assurdo dover reinventare la ruota <http://fsfe.org/it/projects/cap/cap.it.html>.
Il dataset [0] è basat proprio su questo lavoro di FSF, che per quanto lodevole, è carente, incompleto e passibile di molte migliorie.

Veramente la comunità deve "investire" giorni di lavoro altamente qualificato per liberare quello che già abbiamo pagato con le nostre tasse? Mi piacerebbe sapere a quanto ammontano, per Poste, i ricavi della vendita del "cap professional".

Ciao,
michele


2011/6/1 Matteo Brunati <ma...@blog.dagoneye.it>

Un saluto a tutti,
 una cosa al volo che forse non mi è del tutto chiara.


 In questo periodo sto facendo un po' di esperimenti anche per avvicinare
programmatori classici al mondo dei linked open data, anche in chiave di
apps4italy prossimo venturo, e siam partiti da una cosa utile, e noiosa
magari.

I CAP, codici di avviamento postale.
Sto guardando anche il dataset pubblicato dagli amici di Linked Open
Data[0], costruito sul vocabolario Vcard, oltre che il servizio GeoNames
sul tema.[1]
Ed il dilemma entro il quale sono finito è questo.

Pretendiamo i dati dagli enti, dalle Regioni e dalle più sperdute comunità
pubbliche, e abbiamo il dataset dei CAP chiuso e proprietà di Poste

Italiane?[2]
Segnalato via Twitter da @steccami e poi da Roberto Scano...[3]

A me sembra paradossale.
So che tra settembre ed ottobre mi sembra che il tema fosse emerso, mea
culpa per non essere stato attento .)

Ma la cosa, a quanto pare, è di origine ben più antica.[4]

Su questo il concetto di riuso linked dei dati, per alleggerire i
programmatori poveri cristi, sarebbe ben evidente! .)

Vabbè che poi oggi ormai usiamo direttamente i dati di latitudine e di
longitudine, però ragazzi...

Alberto Cottica

unread,
Jun 1, 2011, 8:23:44 AM6/1/11
to spaghett...@googlegroups.com
A livello personale sono d'accordo con Michele. Però occhio: tutta la retorica della nuova impresa creata a partire dai dati pubblici (vedi la discussione su PSI vs. open data fatta quache settimana fa in mailing list) dice esattamente che non sempre i dati della PA, anche se pagati dal contribuente, devono essere rilasciati in forma gratuita (e questo ha riflessi sul sistema delle licenze). Dal punto di vista contabile può anche starci: se i dati pubblici vengono venduti e il corrispettivo diventa un'entrata per l'erario si può pensare che le imposte vengano ridotte dell'ammontare corrispettivo. Con Poste la cosa è già più sospetta, perchè ha un proprio bilancio ben distinto dall'erario.

Però poi all'atto pratico mi ritrovo a pensare che ha ragione Michele. La mia giustificazione a livello di teoria economica è questa: siccome il costo della duplicazione (costo marginale di fornitura) è quasi zero, il prezzo di equilibrio tende a zero. Per fare sì che non sia zero, devi drogare il mercato, creando una barriera legale all'accesso del dato. Questo distorce l'economia, portandola  a domandare meno dati di quanto farebbe una allocazione non distorta.


2011/6/1 Michele Barbera <barb...@gmail.com>

Michele Barbera

unread,
Jun 1, 2011, 8:44:22 AM6/1/11
to spaghett...@googlegroups.com
In linea di principio sono d'accordo che non sempre i dati prodotti dalla PA debbano essere rilasciati gratuitamente. Il dibattito PSI/OpenData, come dici, ragiona da tempo su questo.

In questo caso però (e sospetto anche in moltissimi altri, dove questa argomentazione viene utilizzata come rifugio), si tratta di dati *essenziali*, di cui il cittadino, e non solo l'impresa, non può fare a meno. E se così non fosse, 1000-5000 euro sono un prezzo equo?
Chi decide, e su quali basi, quali dati debbano essere gratuiti e quali no?

>"se i dati pubblici vengono venduti e il corrispettivo diventa un'entrata per l'erario si può pensare che le imposte vengano ridotte dell'ammontare corrispettivo"

Da un punto di vista di politica economica *potrebbe* comunque non essere una scelta efficiente di allocazione delle risorse. Ma a parte questo, che richiederebbe una riflessione più complessa, sono pronto a scommettere che nella pratica a licenza viene violata quotidianamente migliaia di volte (es. applicazioni web) a danno o dell'erario (che subisce una perdita) o dei cittadini (a cui le imposte non vengono ridotte).

Ciao,
michele


2011/6/1 Alberto Cottica <alb...@cottica.net>

Alberto Cottica

unread,
Jun 1, 2011, 8:49:06 AM6/1/11
to spaghett...@googlegroups.com
Esatto, Michele:
  • non è chiaro come decidere quali dati devono essere gratuiti e quali no
  • l'argomentazione delle imprese che si basano su ati aperti  può venire usata in modo specioso
  • nella pratica le licenze vengono violate alla grandissima
  • il controllo costa
Quindi, da economista, mi viene da dire: nel dubbio, CC0 e via andare.  :-)

A.

2011/6/1 Michele Barbera <barb...@gmail.com>

Maurizio Napolitano

unread,
Jun 1, 2011, 9:37:33 AM6/1/11
to spaghett...@googlegroups.com
E' una non risposta.
ma su openstreetmap trovi questi dati, certo, non sono ancora completi
ma su altri casi ci trovi cose che mai ti saresti immaginato come
12.000 fontane di acqua potabile distribuite sul territorio (e chissa'
quante altre ancora ce ne sono)

I dati comunque derivano da ISTAT importati da GFOSS.it
Qui trovi qualche info
http://geodati.gfoss.it/wiki/index.php/Pagina_principale


Un esempio di interrogazione delle xapi di openstreetmap attraverso il
servizio di mapquest
http://open.mapquestapi.com/xapi/

Es:
questo mi estrae i codici postali dell'area del trentino alto adige e dintorni
http://open.mapquestapi.com/xapi/api/0.6/node%5Bpostal_code=*%5D%5Bbbox=11.00903426211027,45.61613420790987,13.206299887022544,46.47398080782832%5D

Maurizio Napolitano

unread,
Jun 1, 2011, 11:03:31 AM6/1/11
to spaghett...@googlegroups.com
> non è chiaro come decidere quali dati devono essere gratuiti e quali no
> l'argomentazione delle imprese che si basano su ati aperti  può venire usata
> in modo specioso
> nella pratica le licenze vengono violate alla grandissima
> il controllo costa
>
> Quindi, da economista, mi viene da dire: nel dubbio, CC0 e via andare.  :-)

Anche io la penso cosi', infatti invito tutti a spingere la P.A. ad
abbracciare la CC0 :)

Alberto Cottica

unread,
Jun 1, 2011, 12:17:32 PM6/1/11
to spaghett...@googlegroups.com
High five, Napo :-)

2011/6/1 Maurizio Napolitano <napo...@gmail.com>

Raimondo Iemma

unread,
Jun 1, 2011, 12:29:57 PM6/1/11
to spaghett...@googlegroups.com
Ciao, mi inserisco in una discussione che affronta un tema - quello della tariffazione dell'informazione - 
piuttosto complesso e con dinamiche differenti da settore a settore. 
Fermo restando quanto giustamente avete detto sin qui (e, naturalmente non pretendendo di risolvere l'argomento)
aggiungo due elementi: 

(i) di base, prezzo = costo marginale è più che sensato. Attenzione però a questo: non sempre (o forse quasi mai!)
l'organismo deputato alla gestione dei dati e al conseguente rilascio (sostenendone, almeno in parte, i costi)
è lo stesso che riceve gli introiti. Questo disallineamento non crea particolari incentivi all'apertura. 
Inoltre, non tutti gli introiti sono "pagamenti"; in numerosi casi si tratta, ad esempio, di diritti, definiti
a livello centrale (penso al caso dei dati camerali o quello del catasto). In queste situazioni, siamo di fronte
più a "partite di giro" che non ha un meccanismo lineare del tipo "io rilascio i dati e per questo mi paghi tot".

(ii) non so voi, ma io fatico a sentire un riutilizzatore di dati del settore pubblico che auspichi un rilascio libero
e gratuito. Tutto ciò non è sorprendente, naturalmente, ma l'esistenza di rapporti consolidati tra settore pubblico
e alcuni operatori privati (rapporti in alcuni casi giustificati dal mercato, altre volte meno) è a mio avviso uno degli "ostacoli"
a vere politiche open data.

Nota sul "pricing". Avete letto il paper di Pénin (Univ. Strasburgo)?
In sostanza, arriva anche lui ha dire p=cm, ma in modo curioso, ossia sostenendo che vanno allineate le tariffe alla disponibilità a pagare, e quest'ultima sarebbe bassa o nulla per i dati grezzi. Non sono particolarmente d'accordo con questa impostazione: anzi, a mio avviso è proprio nel rilascio delle banche dati, così come sono (dimenticando per un attimo i problemi collaterali), che si realizza valore. Ma se Pénin applicasse questo concetto risulterebbe una tariffazione alta per i dati grezzi (più alta che per i servizi!).

Scusate la mail fiume. 
Ciao,
Raimondo

Matteo Brunati

unread,
Jun 1, 2011, 12:43:39 PM6/1/11
to spaghett...@googlegroups.com
Il 01/06/11 15:37, Maurizio Napolitano ha scritto:

Grazie Maurizio,
immaginavo ci fosse qualcosa anche su OSM .)

Sarebbe interessante capire come queste fonti stiano interagendo,
intendo i dati di indirizzo di openstreetmap, istat, geonames e via dicendo.

http://3liz.org/geolocation/

Quello che fa strano � dover ripetere lavori su lavori per dati che gi�
ci sono. E che continuano a cambiare.
Ma questo � un altro discorso. E' un processo che scardina alcune regole
assodate, ben venga che se ne discuta .)
Per� serve anche maggior tracciabilit� degli sforzi open, per non
rischiare di ripetere del lavoro gi� iniziato, o gi� fatto.

Matt


luca menini

unread,
Jun 1, 2011, 12:53:23 PM6/1/11
to spaghett...@googlegroups.com
Il 01 giugno 2011 14:44, Michele Barbera <barb...@gmail.com> ha scritto:
> In linea di principio sono d'accordo che non sempre i dati prodotti dalla PA
> debbano essere rilasciati gratuitamente. Il dibattito PSI/OpenData, come
> dici, ragiona da tempo su questo.

Vediamo di inchiodare qualcosa.
Tutto quello che e' prodotto con soldi pubblici, a meno che non
esistano esigenze particolari di riservatezza, deve essere pubblico.
Giusto?
Sara' poi un problema mio (soggetto che ho interesse ad avere certi
dati o informazioni prodotte o in possesso della PA) pagare le spese
(e solo quelle) per andare a prenderli.
E' anche ovvio che con l'avvento dell'informatica e di internet i
costi connessi alla "messa a disposizione" di dati e informazioni da
parte della PA sono crollati.
Noi paghiamo le tasse perche' la PA faccia certe cose, se nel farle
produce dati e informazioni, queste devono essere a disposizione.
I dati e le informazioni sono un "mezzo" per produrre un certo "fine".
Quindi i dati sono "sottoprodotti" di un "processo di business"
rivolto al cittadino.
Se invece la PA supporta dei costi per produrre dati e informazioni, e
quindi il "processo di business" e' proprio produrre quelle
informazioni e dati, sarebbe meglio che quella PA smettesse subito di
produrre quei dati e informazioni.
Se non servono ai cittadini, che paghiamo le tasse a fare?
Potrebbe anche configurarsi uno "sperpero" di denaro pubblico ...

Riassumendo, se nello svolgere la sua attivita' la PA produce dati,
questi devono essere messi a disposizione.
E oggi con internet questo puo' essere fatto a costi praticamente nulli.

Esempio.
Le ARPA hanno come compito il controllo dell'inquinamento atmosferico
finalizzato alla tutela della salute dei cittadini.
Quindi si attivano reti di monitoraggio che come scopo hanno
verificare se i limiti di legge vengono superati o meno.
Se i limiti vengono superati, le ARPA avvisano chi di dovere
(tipicamente il sindaco) che interviene bloccando la fonte di
inquinamento.

Quindi le banche dati delle reti di monitoraggio sono un
"sottoprodotto" del "processo di business", controllo della qualita'
dell'aria.
Rendere disponibili su internet in modalita' OpenData ha un costo
praticamente nullo.

Lo stesso dicasi per i dati di pioggia e dei livelli dei fiumi.

Allora ditemi perche' questi dati devono essere pagati ...
Secondo me questi dati *devono* essere resi disponibili.
In particolare il livello dei fiumi. Tutti dovrebbero poter
connettersi ad un dato URL e ottenere gratuitamente il livello
idrometrico di un dato fiume. Gratis.
E per un motivo molto semplice. Perche' gia' li paghiamo con le tasse
e non ci sono costi aggiuntivi per il fatto che vengono resi
disponibili, E' solo un problema di organizzazione e volonta' di
farlo.

> In questo caso però (e sospetto anche in moltissimi altri, dove questa
> argomentazione viene utilizzata come rifugio), si tratta di dati
> *essenziali*, di cui il cittadino, e non solo l'impresa, non può fare a
> meno. E se così non fosse, 1000-5000 euro sono un prezzo equo?

Non esiste un prezzo equo.
Al massimo si puo' parlare di conguita' dei costi.


> Chi decide, e su quali basi, quali dati debbano essere gratuiti e quali no?

Lo dovrebbe dire la legge. E dovrebbero essere gratis.

>>"se i dati pubblici vengono venduti e il corrispettivo diventa un'entrata
>> per l'erario si può pensare che le imposte vengano ridotte dell'ammontare
>> corrispettivo"

Se andiamo ad analizzare i costi e facciamo la "contabilita'
industriale" sia del processo di produzione che del processo "metti a
disposizione a pagamento i dati", probabilmente scopri che il gioco
non vale la candela.
Conosco dei casi che a fine anno per una PA costava di piu' il
"processo" connesso alla fatturazione che il corrispettivo incassato
...

luca

luca menini

unread,
Jun 1, 2011, 1:00:52 PM6/1/11
to spaghett...@googlegroups.com
Il 01 giugno 2011 18:29, Raimondo Iemma <raimond...@gmail.com> ha scritto:
> (ii) non so voi, ma io fatico a sentire un riutilizzatore di dati del
> settore pubblico che auspichi un rilascio libero
> e gratuito. Tutto ciò non è sorprendente, naturalmente, ma l'esistenza di
> rapporti consolidati tra settore pubblico
> e alcuni operatori privati (rapporti in alcuni casi giustificati dal
> mercato, altre volte meno) è a mio avviso uno degli "ostacoli"
> a vere politiche open data.

Esatto.
Non si e' mai visto un monopolista che favorisca il libero mercato ;-)

Proprio per questo il "libero mercato" e la "libera concorrenza" vanno
promosse e supportate.
Il monopolio e' un danno per il mercato.


> Nota sul "pricing". Avete letto il paper di Pénin (Univ. Strasburgo)?
> In sostanza, arriva anche lui ha dire p=cm, ma in modo curioso, ossia
> sostenendo che vanno allineate le tariffe alla disponibilità a pagare, e
> quest'ultima sarebbe bassa o nulla per i dati grezzi. Non sono
> particolarmente d'accordo con questa impostazione: anzi, a mio avviso è
> proprio nel rilascio delle banche dati, così come sono (dimenticando per un
> attimo i problemi collaterali), che si realizza valore. Ma se Pénin
> applicasse questo concetto risulterebbe una tariffazione alta per i dati
> grezzi (più alta che per i servizi!).


Secondo me la "disponibilita' a pagare" non ha senso, da un punto di
vista concettuale.
Anche perche' la "mano invisibile" del mercato puo' agire solo se
domanda ed offerta sono indipendenti e, per questo tipo di mercato,
non lo sono.

ciao.
luca

Donatella Solda-Kutzmann

unread,
Jun 1, 2011, 1:13:35 PM6/1/11
to spaghett...@googlegroups.com
Salve a tutti 

come ho gia' avuto modo di scrivere, il discorso intorno al pricing e' abbastanza complesso  - e l'argomento storicamente forte a favore del costo marginale (che nel caso del dato digitale e' prossimo a zero) e' effettivamente quello dell'aver gia' pagato per quei dati attraverso le tasse.
in un saggio americano di qualche anno fa pero' qualcuno aveva scritto "il fatto che io abbia pagato le tasse, non mi autorizza di certo ad entrare in un ufficio pubblico e prendermi il pc su cui sta lavorando l'impiegato"

l'esempio era ovviamente non calzante perche' l'autore tralasciava le differenze inerenti ai beni materiali/immateriali/digitali (al pari di quelli che paragonavano il file-sharing al furto), pero' forse sarebbe il caso di ricordare che non sempre i dati raccolti per l'ordinario svolgimento delle attivita' amministrative sono pronti per la condivisione
magari il rilascio dei dati e' possibile solo attraverso uno sforzo aggiuntivo della PA, che prima della moda del riuso della PSI si trovava a fronteggiare (al meno nei paesi come l'italia) principalmente richieste di accesso ai documenti amministrativi (soggetti portatori di un interesse legittimo, accesso a particolari documenti).

lo sforzo secondo me sussiste sia nel caso di condivisione proattiva da parte della PA sia, a maggior ragione, nel caso in cui la PA stia rispondendo alla richiesta di un riutilizzatore: in entrambi i casi, il procedimento interno nell'ambito del quale i dati sono stati raccolti non prevedeva ab origine la loro "pulitura" per una successiva condivisione. 

perche' il sistema sia quindi sostenibile, nel mondo ideale io direi
- no diritto d'autore (sui dati, poi, blasfemia!), 
- tariffe amministrative per la copertura dei costi di gestione del dato (per trasformarlo da "interno" a "riutilizzabile") che (e qui cadiamo nell'utopia) calano all'aumentare dell'efficienza del procedimento re-ingegnerizzato (reengineered?) 



sto pubblicando un paper in cui tento di teorizzare il modello, se siete interessati fatemelo sapere

donatella


2011/6/1 luca menini <menin...@gmail.com>



--
Donatella Solda-Kutzmann

Raimondo Iemma

unread,
Jun 1, 2011, 1:19:43 PM6/1/11
to spaghett...@googlegroups.com
Donatella, aggiungo una cosa. Ci sono casi, specie a livello locale, in cui i ricavi dalla "vendita" dei dati non superano i costi cagionati dal rilascio oneroso degli stessi (mi riferisco ai legati alla natura "commerciale" della transazione). Questo sarebbe un argomento molto "pratico" a favore del rilascio gratuito. Per ora abbiamo solo evidenze aneddotiche, ma sto tentando di andare più nel dettaglio.
Raimondo

luca menini

unread,
Jun 1, 2011, 1:40:45 PM6/1/11
to spaghett...@googlegroups.com
Il 01 giugno 2011 19:13, Donatella Solda-Kutzmann
<naty...@gmail.com> ha scritto:

> pero' forse sarebbe il
> caso di ricordare che non sempre i dati raccolti per l'ordinario svolgimento
> delle attivita' amministrative sono pronti per la condivisione
> magari il rilascio dei dati e' possibile solo attraverso uno sforzo
> aggiuntivo della PA, che prima della moda del riuso della PSI si trovava a
> fronteggiare (al meno nei paesi come l'italia) principalmente richieste di
> accesso ai documenti amministrativi (soggetti portatori di un interesse
> legittimo, accesso a particolari documenti).

Pero' molte volte sono gia' pronti.
E sempre piu' i processi interni alla PA sono informatizzati.
La disponibilita' quindi di dati che nascono gia' informatizzati e
sempre maggiore.
Oramai nella PA qualsiasi processo ha dietro un workfow informatizzato.

Nessuno chiede alla PA di spendere di piu' o di lavorare per rendere
disponibili i dati.
Ma almeno quando sono "gia' pronti" si.


> lo sforzo secondo me sussiste sia nel caso di condivisione proattiva da
> parte della PA sia, a maggior ragione, nel caso in cui la PA stia
> rispondendo alla richiesta di un riutilizzatore: in entrambi i casi, il
> procedimento interno nell'ambito del quale i dati sono stati raccolti non
> prevedeva ab origine la loro "pulitura" per una successiva condivisione.

Sono casi "di scuola" sempre piu' rari.
Sarebbe ora che almeno nell'80% dei casi in cui i dati sono gia'
pronti, questi venissero resi disponibili.
Ma secondo voi e' credibile che non sia gia' informatizzato il dato:
"quante autorizzazioni di un certo tipo sono state rilasciate
nell'ultimo anno da una data PA"?

Ciao.
luca

Donatella Solda-Kutzmann

unread,
Jun 1, 2011, 1:45:49 PM6/1/11
to spaghett...@googlegroups.com
Certo Raimondo, un po' come quando il ministro di turno aboliva il ticket per le prestazioni mediche (chi era, la bindi?) sostenendo che i soldi raccolti erano meno di quelli che servivano a far funzionare il sistema di raccolta. 

pero' magari un modo per minimizzare i costi di raccolta delle tariffa si potrebbe trovare, un modo per far contenti tutti, intendo.

come fare a pulire i dati per renderli riutilizzabili?
crowd sourcing, lo escluderei, visto che i dati non possono circolare prima di essere controllati; 
outsourcing o risorse interne dedicate (tipo trading funds inglesi, per dire), mi sembra costoso, e si ritorna al discorso di cui sopra del gioco che non vale la candela;

mi viene da pensare: o aspettiamo che vadano in pensione gli attuali impiegati che un po'/spesso arrancano e ci auguriamo che il ricambio generazionale porti un dinamismo nelle procedure che non richiede ulteriori costi (please non tacciatemi di supponenza o semplicismo, per ragioni familiari e di lavoro ho vissuto dall'interno il funzionamento di molti uffici pubblici) 
oppure si dovrebbe elaborare un meccanismo simile ai progetti di digitalizzazione di google, con salvaguardie effettive rispetto alla sicurezza dei dati da non divulgare. 

entrambe le strade mi sembra pero' che abbiano un'alea troppo ampia..

concordo sui dati "pronti" da rendere riutilizzabili immediatamente. certo e' pero' che solitamente i riutilizzatori (intendo quelli grossi, tipo della PSI Alliance) si lamentano che la PA spaccia i PDF come dati "pronti" al riuso...


donatella



 


2011/6/1 Raimondo Iemma <raimond...@gmail.com>



--
Donatella Solda-Kutzmann
(IT) 0039 328 7470091
(PL) 0048 662 051423

Michele Barbera

unread,
Jun 1, 2011, 1:48:32 PM6/1/11
to spaghett...@googlegroups.com
Se il rilascio deve essere a costi marginali allora vorrei che fosse pubblica anche la metodologia di calcolo dei costi marginali. Altrimenti, conoscendo la PA italiana, mi aspetto, come cittadino, di non aver alcun modo di controllare se sono *davvero* costi marginali.

C'è un'altra considerazione, credo fondamentale, da mettere nel calderone:
se dai dati prodotti dalla PA il mercato può creare ricchezza, allora può anche convenire che la PA supporti un maggior costo, fa parte del ruolo economico dello stato. Questo vale anche nel caso in cui i dati non siano "pronti" e la condivisione richieda un maggior costo (mi viene difficile pensare a casi reali, ma ci credo).

Il rilascio *deve* essere proattivo. La necessità di fare richiesta è una barriera enorme. Ricordo di aver letto un interessantissimo studio (che purtroppo non riesco a recuperare al volo) che mostrava che, nel caso di software-as-a-service, la quantità di utenti era meno influenzata dal prezzo piuttosto che dal fatto di non avere un sistema di pagamenti on-line. Il solo fatto di dover contattare un operatore è una forte barriera per molte SME e professionisti indipendenti.

Ciao,
michele



2011/6/1 Raimondo Iemma <raimond...@gmail.com>

Maurizio Napolitano

unread,
Jun 1, 2011, 2:00:24 PM6/1/11
to spaghett...@googlegroups.com
sul fronte dati e osm avrei da raccontartene così tante che ci scrivo
un paper :)
Al momento mi sto concentrando su valutazione della qualità dei dati
sulla base di come si comportano gli utenti ... ma anche questa è un
altra storia infinita :)

On Wednesday, June 1, 2011, Matteo Brunati <ma...@blog.dagoneye.it> wrote:
> Il 01/06/11 15:37, Maurizio Napolitano ha scritto:
>
> E' una non risposta.
> ma su openstreetmap trovi questi dati, certo, non sono ancora completi
> ma su altri casi ci trovi cose che mai ti saresti immaginato come
> 12.000 fontane di acqua potabile distribuite sul territorio (e chissa'
> quante altre ancora ce ne sono)
>
> I dati comunque derivano da ISTAT importati da GFOSS.it
> Qui trovi qualche info
> http://geodati.gfoss.it/wiki/index.php/Pagina_principale
>
>
> Un esempio di interrogazione delle xapi di openstreetmap attraverso il
> servizio di mapquest
> http://open.mapquestapi.com/xapi/
>
> Es:
> questo mi estrae i codici postali dell'area del trentino alto adige e dintorni
> http://open.mapquestapi.com/xapi/api/0.6/node%5Bpostal_code=*%5D%5Bbbox=11.00903426211027,45.61613420790987,13.206299887022544,46.47398080782832%5D
>
>
> Grazie Maurizio,
>  immaginavo ci fosse qualcosa anche su OSM .)
>
> Sarebbe interessante capire come queste fonti stiano interagendo, intendo i dati di indirizzo di openstreetmap, istat, geonames e via dicendo.
>
> http://3liz.org/geolocation/
>

> Quello che fa strano è dover ripetere lavori su lavori per dati che già ci sono. E che continuano a cambiare.
> Ma questo è un altro discorso. E' un processo che scardina alcune regole assodate, ben venga che se ne discuta .)
> Però serve anche maggior tracciabilità degli sforzi open, per non rischiare di ripetere del lavoro già iniziato, o già fatto.
>
>   Matt
>
>
>


--
Maurizio "Napo" Napolitano
http://de.straba.us

Stefano Durì

unread,
Jun 2, 2011, 1:16:29 PM6/2/11
to Spaghetti Open Data
se ne è parlato anche su FF, nel gruppo "Fatti i dati tuoi", che
amministro (http://friendfeed.com/fatti-i-dati-tuoi) e al quale invito
a partecipare i frenfiddari presenti
Se la necessità è quella di associare "al volo" un CAP a un indirizzo
o a un comune con un solo CAP si possono usare anche le API di Google
(es. http://maps.googleapis.com/maps/api/geocode/json?address=via%20mazzini%20100,%20bologna,%20italy&sensor=true)
C'è però un limite di 2500 chiamate al giorno, il che rende la
soluzione poco utilizzabile per siti trafficati. Al momento non ho
idea di come sia eventualmente possibile superare questa limitazione

Se può servire, con Google Table Fusion ho fatto un merge dei dati
ISTAT di Comuni e Province/Regioni
Le fonti sono http://www.istat.it/strumenti/definizioni/comuni/elenco_comuni_italiani_30_giugno_2010.csv
e http://www.istat.it/strumenti/definizioni/comuni/ripartizioni_regioni_province.csv
il risultato è qui: http://www.google.com/fusiontables/DataSource?snapid=S200985HItT
si può interrogare e esportare, tutto o filtrato. Cliccando l'icona
che compare nella colonna "Input per Google Maps" si vede la mappa
relativa al comune


On 1 Giu, 20:00, Maurizio Napolitano <napoo...@gmail.com> wrote:
> sul fronte dati e osm avrei da raccontartene così tante che ci scrivo
> un paper :)
> Al momento mi sto concentrando su valutazione della qualità dei dati
> sulla base di come si comportano gli utenti ... ma anche questa è un
> altra storia infinita :)
>
>
>
>
>
>
>
>
>
> On Wednesday, June 1, 2011, Matteo Brunati <m...@blog.dagoneye.it> wrote:
> > Il 01/06/11 15:37, Maurizio Napolitano ha scritto:
>
> > E' una non risposta.
> > ma su openstreetmap trovi questi dati, certo, non sono ancora completi
> > ma su altri casi ci trovi cose che mai ti saresti immaginato come
> > 12.000 fontane di acqua potabile distribuite sul territorio (e chissa'
> > quante altre ancora ce ne sono)
>
> > I dati comunque derivano da ISTAT importati da GFOSS.it
> > Qui trovi qualche info
> >http://geodati.gfoss.it/wiki/index.php/Pagina_principale
>
> > Un esempio di interrogazione delle xapi di openstreetmap attraverso il
> > servizio di mapquest
> >http://open.mapquestapi.com/xapi/
>
> > Es:
> > questo mi estrae i codici postali dell'area del trentino alto adige e dintorni
> >http://open.mapquestapi.com/xapi/api/0.6/node%5Bpostal_code=*%5D%5Bbb...

Maurizio Napolitano

unread,
Jun 2, 2011, 4:54:59 PM6/2/11
to spaghett...@googlegroups.com
2011/6/2 Stefano Durì <stefan...@aster.it>:

> se ne è parlato anche su FF, nel gruppo "Fatti i dati tuoi", che
> amministro (http://friendfeed.com/fatti-i-dati-tuoi) e al quale invito
> a partecipare i frenfiddari presenti

Interessante

> Se la necessità è quella di associare "al volo" un CAP a un indirizzo
> o a un comune con un solo CAP si possono usare anche le API di Google
> (es. http://maps.googleapis.com/maps/api/geocode/json?address=via%20mazzini%20100,%20bologna,%20italy&sensor=true)
> C'è però un limite di 2500 chiamate al giorno, il che rende la
> soluzione poco utilizzabile per siti trafficati. Al momento non ho
> idea di come sia eventualmente possibile superare questa limitazione

personalmente preferisco usare servizi con gradi maggiori di liberta
e dove posso gestire i dati.
Pertanto preferisco portare questi dati - sempre se la licenza lo
permette - su openstreetmap o geonames.

Alternative di geocoding a google maps sono comunque offerte da
diversi altri provider.
mapquest, yahoo, bing, ovi maps, map24 .. giusto per citarne qualcuno
Aggiungo anche le API di pagine gialle
http://api.visual.paginegialle.it/tcolnew/mapsapi/pgMaps.html


> Se può servire, con Google Table Fusion ho fatto un merge dei dati
> ISTAT di Comuni e Province/Regioni
> Le fonti sono http://www.istat.it/strumenti/definizioni/comuni/elenco_comuni_italiani_30_giugno_2010.csv
> e http://www.istat.it/strumenti/definizioni/comuni/ripartizioni_regioni_province.csv

Se non erro la licenza istat e' un qualcosa che rientra nella categoria BY
http://www.istat.it/copyright.html

I dati sono accessibili qui
http://www.istat.it/ambiente/cartografia/
in formato ESRI Shapefile (formato pubblico, ma non aperto)
Buoni software liberi per gestirli sono quantum gis, gvsig, grass,
udig, openjump

La comunita' di openstreetmap si e' gia' adoperata per importare questi dati
http://jupiter.hanskalabs.net/osm-istat-2011/osm-istat-2011/
il lavoro e' comunque un lavoro di fino visto che si tratta di
adattarli a quelli gia' importati.

> il risultato è qui: http://www.google.com/fusiontables/DataSource?snapid=S200985HItT
> si può interrogare e esportare, tutto o filtrato. Cliccando l'icona
> che compare nella colonna "Input per Google Maps" si vede la mappa
> relativa al comune

Anche se nel paragrafo sopra appaio scettico (ma questo per mia natura
quando vedo
la grande G mangiare dati), faccio i complimenti per il lavoro svolto.

Grazie

Stefano Durì

unread,
Jun 3, 2011, 10:34:51 AM6/3/11
to Spaghetti Open Data
Più che altro l'ho fatto come esercizio su Google Table Fusion (e
anche per esigenze di lavoro).
Con le questioni relative alle licenze di dati pubblici - posto che
nel mio caso sono fuori discussione obbiettivi commerciali - confesso
di avere spesso problemi interpretativi.
In questo caso, ad esempio, quello che ho fatto è il merge di due
tavole liberamente scaricabili da ISTAT. Ho aggiunto (e in effetti
avrei dovuto farlo subito) la corretta attribution nelle due tabelle
che ho poi fuso in quella che vedete (più qualche calcolo aggiuntivo).
Il fatto che i dati così ottenuti siano liberamente esportabili
configura una violazione del copyright? Non credo, ma chiedo lumi.
Per quanto riguarda Google: capisco perfettamente il punto di vista di
chi deve effettuare elaborazioni complesse sui dati, ci mancherebbe.
Aggiungo che non ho una particolare competenza sui dati
georeferenziati, né la necessità di utilizzarli in modo fine per
lavoro. L'accoppiata Google Refine + GTF mi sembra però uno strumento
semplice, abbastanza potente ed efficiente, sia per effettuare alcune
manipolazioni standard sia per commentare, visualizzare e rendere
rapidamente (ri)utilizzabili i dataset.
Penso ad esempio ai dati di bilancio di un Comune, che potrebbero
essere resi con GTF scaricabili in .csv ma anche visualizzabili con
commenti relativi alle singole voci (commento di riga: ad es.
spiegazione del significato della voce), ai singoli anni (commento di
col, ad es. indicazione della giunta in carica) e al valore di una
voce in un anno (commento di cella: ad es. "eliminazione dell'ICI
sulla prima casa"), il tutto senza richiedere grandi competenze
informatiche al personale del Comune

On 2 Giu, 22:54, Maurizio Napolitano <napoo...@gmail.com> wrote:
> 2011/6/2 Stefano Durì <stefano.d...@aster.it>:
>
> > se ne è parlato anche su FF, nel gruppo "Fatti i dati tuoi", che
> > amministro (http://friendfeed.com/fatti-i-dati-tuoi) e al quale invito
> > a partecipare i frenfiddari presenti
>
> Interessante
>
> > Se la necessità è quella di associare "al volo" un CAP a un indirizzo
> > o a un comune con un solo CAP si possono usare anche le API di Google
> > (es.http://maps.googleapis.com/maps/api/geocode/json?address=via%20mazzin...)
> > C'è però un limite di 2500 chiamate al giorno, il che rende la
> > soluzione poco utilizzabile per siti trafficati. Al momento non ho
> > idea di come sia eventualmente possibile superare questa limitazione
>
> personalmente preferisco usare servizi con  gradi maggiori di liberta
> e dove posso gestire i dati.
> Pertanto preferisco portare questi dati - sempre se la licenza lo
> permette - su openstreetmap o geonames.
>
> Alternative di geocoding a google maps sono comunque offerte da
> diversi altri provider.
> mapquest, yahoo, bing, ovi maps, map24 .. giusto  per citarne qualcuno
> Aggiungo anche le API di pagine giallehttp://api.visual.paginegialle.it/tcolnew/mapsapi/pgMaps.html
>
> > Se può servire, con Google Table Fusion ho fatto un merge dei dati
> > ISTAT di Comuni e Province/Regioni
> > Le fonti sonohttp://www.istat.it/strumenti/definizioni/comuni/elenco_comuni_italia...
> > ehttp://www.istat.it/strumenti/definizioni/comuni/ripartizioni_regioni...
>
> Se non erro la licenza istat e' un qualcosa che rientra nella categoria BYhttp://www.istat.it/copyright.html
>
> I dati sono accessibili quihttp://www.istat.it/ambiente/cartografia/
> in formato ESRI Shapefile (formato pubblico, ma non aperto)
> Buoni software liberi per gestirli sono quantum gis, gvsig, grass,
> udig, openjump
>
> La comunita' di openstreetmap si e' gia' adoperata per importare questi datihttp://jupiter.hanskalabs.net/osm-istat-2011/osm-istat-2011/
Reply all
Reply to author
Forward
0 new messages