IAML Blog


PyTorch è un framework di deep learning, sviluppato principalmente dal Facebook AI Research (FAIR) group, che ha guadagnato una enorme popolarità fra gli sviluppatori grazie alla combinazione di semplicità ed efficienza. Questi tutorial sono dedicati ad esplorare la libreria, partendo dai concetti più semplici fino alla definizione di modelli estremamente sofisticati.

In questa terza parte vediamo come implementare nuovi moduli all'interno della libreria con un esempio pratico: Swish, una fu…

Continue Reading...


In questo tutorial vediamo come implementare un algoritmo di multi-task learning in TensorFlow, imparando a predire simultaneamente più aspetti da un'unica foto di un volto in input. Nel corso dell'implementazione introdurremo numerosi moduli avanzati di TF, tra cui le librerie tf.data e tf.image per elaborare cartelle di immagini, i custom estimator per definire il modello (una rete convolutiva), e la nuovissima Head API (al momento in cui scrivo ancora in developer's preview) per la logica del multi-task …

Continue Reading...


PyTorch è un framework di deep learning, sviluppato principalmente dal Facebook AI Research (FAIR) group, che ha guadagnato una enorme popolarità fra gli sviluppatori grazie alla combinazione di semplicità ed efficienza. Questi tutorial sono dedicati ad esplorare la libreria, partendo dai concetti più semplici fino alla definizione di modelli estremamente sofisticati.

In questa seconda parte, introduciamo alcuni elementi avanzati della libreria per costruire ed ottimizzare reti neurali e ges…

Continue Reading...


PyTorch è un framework di deep learning, sviluppato principalmente dal Facebook AI Research (FAIR) group, che ha guadagnato una enorme popolarità fra gli sviluppatori grazie alla combinazione di semplicità ed efficienza. Questi tutorial sono dedicati ad esplorare la libreria, partendo dai concetti più semplici fino alla definizione di modelli estremamente sofisticati.

Nella prima parte, introduciamo gli elementi di base di PyTorch (tensori e gradienti), ed implementiamo un primo modello di r…

Continue Reading...


Un'esigenza comune per qualsiasi data scientist è quella di combinare in sequenza diverse operazioni sui dati, quali ad esempio normalizzazioni, ripulitura dei valori mancanti, riduzione della dimensionalità, ed ovviamente classificazione. Le pipeline sono un modulo di scikit-learn che permette di automatizzare questo processo, creando algoritmi estremamente sofisticati dalla combinazione di oggetti di base della libreria.

In questo tutorial vediamo co…

Continue Reading...