fbpx

Il Master in Data Management & Business Analytics è un percorso altamente multidisciplinare e, tra gli argomenti toccati dalle lezioni in questi mesi, c’è stato anche il metodo di lavoro agile…

Questa chiusura degli atenei, la necessità – per partecipanti e corpo docente – di rivedere calendari e modalità didattiche ci ha permesso di metterne alla prova una versione abbastanza estrema.

Ma siamo presenti anche questa settimana, ricca di temi e incontri interessanti.

Il venerdì mattina inizia con l’intervento in aula di Oneydata, società partner del Master fin dai suoi esordi e che quest’anno mette a disposizione un Premio di Studio del valore di 2500€.

Incontriamo il Dott. Filippo Manfroni, Data Scientist & BI, che racconta all’Aula la storia di Oneydata e il suo ruolo nel team.

Analizziamo, quindi, il tema della segmentazione ponendoci una domanda fondamentale:

Perché segmentare gli scontrini e non i clienti fisici?

Prima dello sviluppo di un qualsiasi programma fedeltà (magari proprio in funzione di crearne uno efficiente) non abbiamo informazioni di sorta in merito ai nostri clienti.

Questo è precisamente il punto di partenza del Project Work che Filippo sta consegnando ai partecipanti di quest’anno:

un’analisi che parte da dati scontrino e che vuole ricondurre alla Shopping Mission dei clienti

Perché i nostri clienti fanno la spesa?
Quali sono le possibili attività di marketing e comunicazione implementabili per venire incontro alla nostra utenza specifica?

A queste domande risponderanno i Progetti dei gruppi di lavoro, che verranno presentati a Luglio in aula (si spera).

Dopo la pausa, incontriamo nuovamente il Prof. Francesco Della Beffa che, con il suo intervento, vuole stimolare i partecipanti alla riflessione critica sugli argomenti trattati fino ad oggi e lo fa partendo da una citazione:

“If you torture the data long enough it will confess”

Ci prepariamo, quindi, a confrontare i metodi con cui statistica, machine learning e data mining torturano i dati per comprenderne punti deboli e di forza.

Innanzitutto dal punto di vista del rapporto tra interpretabilità e accuratezza delle diverse metodologie:

Dopodiché, ecco una domanda cruciale approfondire strumenti e natura della Predictive Analytics:

Che cosa significa, alla luce di questa disamina, che il Machine Learning apprende esclusivamente dai dati?

Una differenza fondamentale tra statistica e machine learning è la presenza, nella prima, di un’ipotesi sulle relazioni tra dati che va messa alla prova.

Ma l’ipotesi di una continuità tra passato e futuro ha un fondamento?

Forse si può fare a meno delle teorie da verificare e affidarsi esclusivamente ai dati che abbiamo…

È pur vero però che, come ci aveva mostrato anche il Prof. Bruno Sfogliarini, l’unico modo per poter approcciare l’Analisi Predittiva è quello di farsi carico della natura paradossale del futuro che non esiste ancora eppure vogliamo conoscere per lo meno in termini di probabilità.

Le considerazioni critiche del venerdì pomeriggio si alternano a momenti più pratici in cui con il Dott. Francesco Ranucci impostiamo il lavoro per il workshop di fine modulo.

Iniziamo con qualche ultima nozione in merito alle reti neurali e poi lanciamo Orange, il nostro strumento di lavoro principale a questo punto del percorso.

Abbiamo dataset nuovi che ci introducono all’analisi dei contenuti di un sito per stabilire quali, con maggiore probabilità, saranno i più condivisi e di successo.

Sabato mattina accogliamo nell’aula virtuale la Dott.ssa Nora Schmitz, Service Line Head Audience presso Ipsos, che ci sfida con un cambio di paradigma, per quanto riguarda l’analisi dei dati ma non solo.

Dal Ricercatore al Ragionatore: una questione di lampadine accese

La lampadina accesa è il pensiero critico che deve sempre guidare l’analisi del dato, a prescindere dalla metodologia utilizzata.
L’unico strumento per provare con serietà a distinguere tra i fenomeni che misuriamo e il rumore di fondo.

Ci permette, ad esempio di:

  • Tenere gli occhi aperti sul Bias di coverage
  • Ricordarci che siamo alla ricerca di risultati generalizzabili, validi al di là dello specifico dataset
  • Tentare di distinguere tra errore di misura e di campionamento
  • Prestare attenzione a non entusiasmarci per risultati casuali

La Dott.ssa Schmitz prosegue la lezione illustrandoci metodi, difficoltà e trattamento dei dati in una case history davvero monumentale, sotto diversi punti di vista: il caso Auditel.

Ora capiamo sul serio quel che Nora ci ha detto a inizio lezione:

“Sono qui a rompere un po’ le uova nel paniere…”

Di fatto, la statistica può trattare efficacemente anche una mole vastissima di dati.
È strumento fondamentale e necessario per quanto riguarda l’analisi dei Big Data.

Sappiamo, dalla prima lezione del Master DMBA, che sarà necessario sviluppare competenze trasversali per essere un ottimo Data Scientist e per avere una marcia in più nell’universo vasto e complesso dei Big data.

Se il concetto non fosse sufficientemente chiaro, però, a rimarcarlo è il consiglio di lettura della settimana: Thinking Fast and Slow di Daniel Kahneman, Psicologo E Premio Nobel per l’Economia.

 

 

 

 

 

 

Richiedi la Ricerca

Indagine sul livello di adozione e utilizzo dell'Intelligenza Artificiale in Italia

Privacy Policy

You have Successfully Subscribed!