Le vendite proseguono nel nuovo sito https://www.deeplearningitalia.com/
Oggi giorno assistiamo alla disponibilità di una grande mole di dati, dovuta principalmente all’avvento su larga scala dei computer e alla conseguente digitalizzazione di gran parte di processi aziendali, terapie mediche, fenomeni fisici etc. Ciò ha contribuito ad un notevole interesse verso tecniche di analisi dati e Data Mining, per estrarre informazioni. In particolare, uno dei campi più in auge al momento è quello del Machine Learning: algoritmi matematici che permettono di processare moltissime informazioni, fornendo previsioni spesso molto accurate. Nella vasta gamma di modelli di Machine Learning, tra i più noti ricordiamo le Reti Neurali, modelli basati sui Kernel (SVM, Kernel Regression, etc) e modelli basati su Alberi Decisionali. In questo corso parleremo approfonditamente dei modelli basati sugli Alberi Decisionali. La prima parte del corso si focalizzerà sul modello matematico di base: analizzeremo l’idea degli Alberi Decisionali sia in contesti di regressione sia in classificazione. Verrà mostrato il funzionamento dal punto di vista algoritmico (mostrando le formule matematiche per permettono di ottenere una buona previsione) e mostrando l’importante intuizione geometrica che sta alla base di tutto il Machine Learning e quindi anche dei modelli basati su Alberi. Nella seconda parte tratteremo tipologie di modelli più complessi, partendo dal Bagging (Boostrap AGGRegating). Questo metodo costituisce la base dei modelli Random Forest, esaminati nel seguito. Infine ci concentreremo sui modelli di Gradient Boosting che utilizzano come base learner i Decision Tree. La parte teorica comprende slides che spiegano nel dettaglio il funzionamento matematico, e illustrazioni (create tramite codice Python e R) per mostrare il funzionamento delle formule illustrate e come questi modelli siano in grado di approssimare potenzialmente ogni superficie sul piano geometrico (teorema di approssimazione universale, valido anche per le Reti Neurali). Ogni argomento verrà anche illustrato tramite Notebook scritti in linguaggio Python, mostrando in maniera semplice e concisa come allenare tutti i modelli trattati e spiegando quali siano le “best practices”. L'unico prerequisito richiesto è una conoscenza base di Python, è utile (ma assolutamente non necessaria) una conoscenza sommaria dei concetti base dei modelli di previsione (Machine Learning).
Il tuo istruttore
Giorgio Visani è esperto di Machine Learning e tecniche di spiegazione. Ha maturato anni di esperienza come Data Scientist presso Crif SpA, dove si occupa di sviluppo di tecniche di Artificial Intelligence e delle relative tecniche di spiegazione, legate all'ambito bancario. Oltre all'esperienza professionale, è attualmente Dottorando presso l'Università di Bologna, dipartimento di Ingegneria Informatica, dove si occupa principalmente dei seguenti ambiti: metodi di spiegazione per tecniche di Artificial Intelligence, studio della Causalità nelle basi di dati e metodi per imporre le strutture causali nei modelli di Machine Learning. Precedentemente si è laureato in Scienze Statistiche all'Università di Bologna ed è stato ricercatore presso lo stesso ateneo.
Argomenti
-
InizioIntroduzione al Decision Tree (7:31)
-
InizioRegression Classification (7:05)
-
InizioSplitting Criteria 1 (14:29)
-
InizioSplitting Criteria 2 (3:08)
-
InizioSplitting Criteria 3 (3:33)
-
InizioSplit Variables 1 (8:51)
-
InizioSplit Variables 2 (4:09)
-
InizioEncoding Categories (8:46)
-
InizioBias Variance Trade-off (13:27)
-
InizioAvoid Overfitting (9:22)
-
InizioNotebook Decision Tree (24:15)
-
InizioBagging (14:32)
-
InizioRandom Forest (16:36)
-
InizioNotebook Random Forest (16:36)
-
InizioBoosting in General (9:46)
-
InizioLosses 1 (14:26)
-
InizioLosses 2 (10:47)
-
InizioBase Learners 1 (12:52)
-
InizioBase Learners 2 (6:54)
-
InizioNotebook Gradient Boosting (31:57)
-
InizioConclusions (7:33)
Domande frequenti
"Il corso approfondisce sia le basi teoriche sia le tecniche pratiche per utilizzare algoritmi basati sugli alberi decisionali, costruendo un solido background per l'applicazione di metodologie di bagging e boosting a casi reali. Il docente è molto chiaro nelle spiegazioni e fornisce numerosi esempi dei concetti affrontati, dando anche preziose indicazioni derivanti dalla sua esperienza nell'utilizzo delle librerie citate."
- Elisa Piccin, xTech Expert Data Scientist at BIP