Metodi matematici di ottimizzazione per il machine learning
Algebra lineare, Calcolo Differenziale e Ottimizzazione
Guarda Promo
Le vendite proseguono nel nuovo sito https://www.deeplearningitalia.com/
In questo corso si introducono gli elementi dell'algebra lineare, del calcolo differenziale multivariato e della teoria dell'ottimizzazione su essi basata che sono necessari al machine learning e al deep learning. L'esposizione sarà informale ma rigorosa e corredata da esempi, illustrati anche per mezzo di semplici programmi Python. Dopo una introduzione alla teoria degli spazi vettoriali reali e degli operatori lineari, si affronteranno la teoria spettrale e le sue applicazioni al calcolo scientifico, con particolare riferimento alle questioni numeriche. La parte di calcolo differenziale prevede una esposizione della topologia degli spazi cartesiani e una introduzione alle funzioni continue e differenziabili in questi spazi, per poi passare alla teoria dei massimi e minimi per funzioni di più variabili per funzioni differenziabili. Nella parte di ottimizzazione si darà una introduzione da zero alle tecniche di ottimizzazione utili nella computer science, per poi esporre le tecniche lineari nel dettaglio e passare all'ottimizzazione convessa. Si analizzeranno poi gli algoritmi specifici per il machine e deep learning, la discesa gradiente e le sue variazioni, con particolare accento sugli aspetti algoritmici e implementativi. Infine si esporrà la teoria ormai classica dell'ottimizzazione vincolata multivariata. I prerequisiti per il corso consistono in una conoscenza sicura della matematica elementare e delle nozioni di base della geometria analitica e dell'analisi in una singola variabile, per esempio impartite nel corso introduttivo di DLI.
Il tuo istruttore
Dopo aver conseguito la laurea e il dottorato di ricerca in matematica si è occupato per qualche anno di ricerca pura e docenze universitarie (facoltà di Ingegneria) per poi passare al mondo dell’industria, prima come consulente IT, poi come quantitative analyst nel campo della finanza e del risk management, per tornare infine al mondo IT come project manager, business analyst, consulente su metodologie, tecnologie, innovazione e formazione. Ha pubblicato due libri di storia della matematica (AlphaTest), un testo universitario di matematica (UAM) e diversi articoli scientifici, divulgativi e didattici su riviste di vario tipo. Tiene conferenze su argomenti fra matematica, IT e data science. Si occupa anche di formazione ed educazione, tenendo corsi sia in ambito professionale che come docente a contratto presso la facoltà di Ingegneria dell’Università “La Sapienza”.
Argomenti
-
InizioIntroduzione alle tecniche di Ottimizzazione (25:18)
-
InizioOttimizzazione Lineare (71:34)
-
InizioOttimizzazione Convessa (40:27)
-
InizioMetodi iterativi (52:35)
-
InizioTecniche di Discesa del Gradiente (30:14)
-
InizioOttimizzazione Vincolata parte 1 (54:22)
-
InizioOttimizzazione Vincolata parte 2 (68:48)
-
InizioOttimizzazione Vincolata parte 3 (37:59)