Tree-Based Machine Learning: Random Forest, Gradient Boosting

   Guarda Promo

Oggi giorno assistiamo alla disponibilità di una grande mole di dati, dovuta principalmente all’avvento su larga scala dei computer e alla conseguente digitalizzazione di gran parte di processi aziendali, terapie mediche, fenomeni fisici etc. Ciò ha contribuito ad un notevole interesse verso tecniche di analisi dati e Data Mining, per estrarre informazioni. In particolare, uno dei campi più in auge al momento è quello del Machine Learning: algoritmi matematici che permettono di processare moltissime informazioni, fornendo previsioni spesso molto accurate. Nella vasta gamma di modelli di Machine Learning, tra i più noti ricordiamo le Reti Neurali, modelli basati sui Kernel (SVM, Kernel Regression, etc) e modelli basati su Alberi Decisionali. In questo corso parleremo approfonditamente dei modelli basati sugli Alberi Decisionali. La prima parte del corso si focalizzerà sul modello matematico di base: analizzeremo l’idea degli Alberi Decisionali sia in contesti di regressione sia in classificazione. Verrà mostrato il funzionamento dal punto di vista algoritmico (mostrando le formule matematiche per permettono di ottenere una buona previsione) e mostrando l’importante intuizione geometrica che sta alla base di tutto il Machine Learning e quindi anche dei modelli basati su Alberi. Nella seconda parte tratteremo tipologie di modelli più complessi, partendo dal Bagging (Boostrap AGGRegating). Questo metodo costituisce la base dei modelli Random Forest, esaminati nel seguito. Infine ci concentreremo sui modelli di Gradient Boosting che utilizzano come base learner i Decision Tree. La parte teorica comprende slides che spiegano nel dettaglio il funzionamento matematico, e illustrazioni (create tramite codice Python e R) per mostrare il funzionamento delle formule illustrate e come questi modelli siano in grado di approssimare potenzialmente ogni superficie sul piano geometrico (teorema di approssimazione universale, valido anche per le Reti Neurali). Ogni argomento verrà anche illustrato tramite Notebook scritti in linguaggio Python, mostrando in maniera semplice e concisa come allenare tutti i modelli trattati e spiegando quali siano le “best practices”. L'unico prerequisito richiesto è una conoscenza base di Python, è utile (ma assolutamente non necessaria) una conoscenza sommaria dei concetti base dei modelli di previsione (Machine Learning).



Il tuo istruttore


Giorgio Visani
Giorgio Visani

Giorgio Visani è esperto di Machine Learning e tecniche di spiegazione. Ha maturato anni di esperienza come Data Scientist presso Crif SpA, dove si occupa di sviluppo di tecniche di Artificial Intelligence e delle relative tecniche di spiegazione, legate all'ambito bancario. Oltre all'esperienza professionale, è attualmente Dottorando presso l'Università di Bologna, dipartimento di Ingegneria Informatica, dove si occupa principalmente dei seguenti ambiti: metodi di spiegazione per tecniche di Artificial Intelligence, studio della Causalità nelle basi di dati e metodi per imporre le strutture causali nei modelli di Machine Learning. Precedentemente si è laureato in Scienze Statistiche all'Università di Bologna ed è stato ricercatore presso lo stesso ateneo.



Domande frequenti


Come funziona il corso di Tree-Based Machine Learning: Random Forest, Gradient Boosting?
Il corso è pensato per far specializzare gli studenti in temi riguardanti Tree-Based Machine Learning: Random Forest, Gradient Boosting. Si consiglia di aquistare anche i moduli di base per un ripasso di matematica e programmazione in python. Gli argomenti verrànno affrontati in maniera sempre più complessa. Ad ogni modulo ci saranno domande e esercitazioni.
Il corso è in lingua Italiana?
Si, tutti i corsi sono in lingua Italiana. Le slide però, sono scritte in inglese, per rendere più facile allo studente la ricerca degli argomenti, termini e altri esempi su internet.
Rilasciate una certificazione a fine corso?
Al termine del corso si potrà ricevere la certificazione in due modi. Il primo è complentando i quiz all'interno del corso. Il secondo tramite un progetto finale che sarà corretto dai docenti. Una volta concluso il progetto, verrà rilasciata la certificazione. Il costo della certficiazione con progetto finale è di 100 euro in più rispetto al costo del corso. Per altre info guardare il video del progetto finale o scrivere a [email protected]
Entro quanto tempo bisogna completare il corso?
Il corso sarà visibile all'interno della piattafoma in base al piano che avete acquistato che può essere mensile o annuale. La certificazione, verrà rilasciata una volta completati gli esercizi o consegnato il final project.
La mia società può comprare un pacchetto di corsi?
Per le società abbiamo degli sconti in base al numero di certificazione che intende comprare. Inoltre, si possono organizzare dei corsi on-site in aggiunta al corso in e-learning. Per ulteriori info contattare: [email protected]

"Il corso approfondisce sia le basi teoriche sia le tecniche pratiche per utilizzare algoritmi basati sugli alberi decisionali, costruendo un solido background per l'applicazione di metodologie di bagging e boosting a casi reali. Il docente è molto chiaro nelle spiegazioni e fornisce numerosi esempi dei concetti affrontati, dando anche preziose indicazioni derivanti dalla sua esperienza nell'utilizzo delle librerie citate."

- Elisa Piccin, xTech Expert Data Scientist at BIP


inizia ora