Ciao a tutti,
A giugno 2017 prenderà il via la sesta edizione di BIG DIVE (
www.bigdive.eu), il corso di formazione organizzato da TOP-IX per aspiranti Data Scientist.
Durante le 5 settimane gli studenti alterneranno lezioni teoriche ed un intenso lavoro progettuale in Team... Da qui la motivazione dietro questo post.
Sebbene per l'economia del corso è infatti importante la presenza di "data sponsor" paganti, laddove possibile ci piace mantenere uno spazio per dataset "open di rilievo".
Trattandosi di un corso in ambito BIG DATA, le dimensioni del dataset devono essere tali da giustificare l'utilizzo di strumenti "non tradizionali" quali tecniche di data mining, machine learning, processing distribuito, map-reducing sui dati grezzi...
Oltre alle caratteristiche tecniche è importante la contestualizzazione, da intendersi prevalentemente come connessione ad una "challenge" concreta da risolvere attraverso l'analisi dati (costruzione di un modello previsionale, studio delle correlazioni, studio della rete di connessioni, ecc.)
Eventuali suggerimenti in tal senso (dataset open con challenge annessa) sono pertanto più che ben accetti ed in anticipo vi ringrazio!
Christian ed il Team Organizzatore di BIG DIVE.