Le vendite proseguono nel nuovo sito https://www.deeplearningitalia.com/
Nel corso NLP Hands-On 3 impareremo a capire i transformers networks per un uso pratico e con un occhio di riguardo alle risorse necessarie per addestrarli. Nella prima parte ci avvicineremo ad applicazioni approfondendo il concetto di transformer for longer sequences, in modo da poter capire quali sono i punti deboli di questa classe di modelli e come la comunità scientifica si è mossa per potervi porre rimedio. In particolare andremo ad indagare applicazioni che richiedono un contesto importante e che difficilmente possono essere spezzate in sub tasks. Il passaggio successivo sarà quello di capire se veramente è sempre necessario allenare completamente un transformer sulla nostra task, e quanto beneficio ci porta l’allocazione di tutte le risorse necessarie. Una volta terminata questa prima parte del corso ci concentreremo nell’analizzare che cosa effettivamente impara un transformer e quali giovamenti ne possiamo trarre, infatti impareremo a creare una knowledge base in modo non supervisionato grazie solamente alla capacità del language model di imparare pattern semantici in modo autonomo grazie ad una grossa fonte di dati in input. Nell’ultima parte del corse ci dedicheremo allo studio di una particolare task, molto importante nelle pipeline di NLP, ossia la Summarization. Investigheremo una serie di modelli e ne calcoliamo le performance sul dataset TLDR. Il tutto è stato pensato per incoraggiare lo studente ad essere molto critico nei confronti delle tecnologie che si decidono di utilizzare ed al contempo fornirgli degli strumenti di decision making all’interno dei propri progetti.
Il tuo istruttore
Calogero Zarbo è un ricercatore di biologia computazionale, che lavora su Medicina di precisione, Drug Discover & Relocation. Come appassionato di tecnologie all'avanguardia, ha lavorato al Quantum Computing, portando questo argomento all'attenzione degli Stati Uniti e della FDA presso NCTR Lab. Come hobby personale, lavora su una serie di applicazioni di deep learning utilizzando anche tecnologie blockchain come BigChainDB. Al momento, lavora in Docebo JSC e ha co-fondato la società Algoritmica.ai, il cui prodotto si basa sull'analisi predittiva del rischio dei portafogli di prestiti utilizzando il Deep Learning applicato al più grande database europeo.
Argomenti
-
InizioIntroduzione ai Reformer (30:56)
-
InizioReformer Hands-on code (30:16)
-
InizioNeural Machine Translation con Reformer (10:30)
-
InizioSinkhorn Optimization Strategy (24:48)
-
InizioNeural Machine Translation con Sinkhorn (Hands-On Code) (31:16)
-
InizioLa teoria BigBird (34:35)
-
InizioBigBird Hands-On Code (13:38)
-
InizioUniversal Computational Engines (58:34)
-
InizioKnowledge Graphs e Language Models (20:33)
-
InizioSummarization con Human Feedbacks (20:34)
-
InizioSummarization code e model comparison (20:34)