“AI – livello avanzato” – corso in presenza in tre moduli

12-13-14 marzo
presso MUG, via Emilia Levante 9/f (BO)

Executive summary

Il corso ha lo scopo di fornire una panoramica del mondo del Deep Learning (DL), ormai sempre più legato ai supercalcolatori visto il crescente numero di dati e bisogno di potenza di calcolo. Il primo modulo sarà volto a fornire una panoramica generale sulle principali architetture di reti neurali per diverse applicazioni tra cui la classificazione di immagini, affiancando alla spiegazione teorica sessioni pratiche di esercizi allo scopo di rendere i partecipanti autonomi nell’uso di tali algoritmi. Nel secondo modulo verranno fornite le conoscenze di base per l’utilizzo di una macchina HPC al fine di comprenderne le potenzialità e la necessità nell’allenare reti con grandi moli di dati. Successivamente verranno forniti alcuni casi d’uso per motivare l’utilizzo di HPC in ambito DL, come ad esempio reti di grandi dimensioni che possono essere adattate a use case specifici. In una sessione pratica verranno implementati alcuni modelli di DL su infrastruttura HPC utilizzando tecniche di parallelizzazione. L’ultimo modulo sarà dedicato all’esplorazione di diverse architetture per l’analisi di serie temporali e al fine-tuning di Large Language Models per casi d’uso specifici.

Topics

  • Principali problemi legati ai dati
  • Principali architetture di reti neurali
  • Concetti base di HPC
  • Parallelizzazione di reti neurali
  • Fine-tuning di reti neurali
  • Reti neurali per analisi di serie temporali
  • Large Language Models

Destinatari del corso

Persone con background tecnico-scientifico, competenze base di linguaggi di programmazione, familiarità con sistema operativo Linux e con i concetti base del Machine Learning, interessate a vedere e provare tecniche avanzate di Deep Learning utilizzando HPC.

Giornate di lezione

  • 12/03/2024 Orario 9:00-13:00
  • 12/03/2024 Orario 14:00-17:00
  • 13/03/2024 Orario 9:00-13:00
  • 13/03/2024 Orario 14:00-17:00
  • 14/03/2024 Orario 9:00-13:00
  • 14/03/2024 Orario 14:00-17:00

Modalità di fruizione

Il Corso prevede 3 giornate in presenza.

Docenti

Ha conseguito un dottorato di ricerca in matematica con una tesi sulle decomposizioni tensoriali e matriciali per la classificazione delle immagini. Attualmente lavora nel Dipartimento HPC di CINECA, concentrandosi sull’utilizzo delle tecnologie HPC in progetti di intelligenza artificiale.

Recentemente laureata in matematica con tesi magistrale focalizzata su tecniche di compressione dati applicate all’ambito dei Digital Twin. Attualmente è impegnata in un tirocinio presso il Dipartimento HPC di CINECA, dove sta concludendo gli studi sulla compressione e contribuisce allo sviluppo di tecnologie HPC all’interno di progetti di intelligenza artificiale.

Ha conseguito un dottorato di ricerca in Ingegneria Informatica presso l’Università di Modena e Reggio Emilia. Attualmente è Data Scientist e consulente di AI presso NVIDIA, dove supervisiona anche l’NVIDIA AI Technology Center per l’Italia, una collaborazione tra NVIDIA, CINI e CINECA per accelerare la ricerca accademica nel campo dell’intelligenza artificiale. Per più di 14 anni ha lavorato come specialista HPC presso il CINECA fornendo supporto per elaborazione dati su larga scala.

Ha conseguito la laurea magistrale in Artificial Intelligence, presentando una tesi di ricerca in computer vision sulle tecniche di deep learning per la stima della profondità monoculare su immagini ad alta risoluzione. Attualmente collabora con CINECA e Leonardo SpA, concentrandosi nello sviluppo di tecnologie di intelligenza artificiale nel settore HPC.

Ha conseguito il master in High Performance Computing alla SISSA di Trieste e ha lavorato come ricercatore HPC presso OGS nel campo dell’oceanografia. Successivamente ha iniziato a lavorare in CINECA, dove oggi ricopre il ruolo di consulente per le applicazioni industriali e project manager tecnico per i progetti di trasferimento tecnologico verso le industrie e in particolare le SME.

Andrea Pilzer è un Solution Architect di NVIDIA presso il NVIDIA AI Technology Center in Italia. È stato postdoc presso l’Università di Aalto, lavorando sulla stima dell’incertezza per il deep learning. Ha lavorato presso Huawei Irlanda e ha conseguito il dottorato di ricerca in informatica presso l’Università di Trento con il Prof. Nicu Sebe e la Prof.ssa Elisa Ricci.

Ha conseguito la laurea magistrale in Artificial Intelligence con una tesi di ricerca sull’applicazione delle Graph Neural Networks in ambito NLP per ottimizzare le performance di sentence classification. Attualmente collabora con CINECA e Leonardo SpA, concentrandosi nello sviluppo di tecnologie di intelligenza artificiale nel settore HPC.

Programma del corso

Orario 9:00-17:00

Obiettivi
Il primo modulo sarà dedicato all’introduzione dei concetti legati al deep learning e alle principali architetture di reti neurali, nonché all’implementazione dei modelli descritti in linguaggio python.

Contenuti
Introduzione alle principali problematiche relative ai dati Descrizione dell’architettura di alcuni modelli di reti neurali Esercitazione in linguaggio python sui modelli descritti.

Orario 9:00-17:00

Obiettivi
Nella prima parte verranno fornite alcune conoscenze di base in ambito HPC. In una sessione pratica verrà mostrato come interagire con un supercomputer (login, caricamento dati, esecuzione del codice).

Nella seconda parte verranno descritti alcuni casi d’uso per motivare l’uso di HPC in ambito DL.

In una sessione pratica verrà mostrato come parallelizzare reti neurali su infrastruttura HPC e verrà mostrato come effettuare il fine-tuning per adattare una rete pre-allenata al proprio use case.

Contenuti
Introduzione all’HPC Esercitazione in ambiente HPC Esercitazione su parallelizzazione di modelli di deep learning in ambiente HPC Fine-tuning di reti neurali.

Orario 9:00-17:00

Obiettivi
La prima parte sarà dedicata alla presentazione di diverse architetture di reti neurali per l’analisi di serie temporali (es. anomaly detection). La seconda parte si focalizzerà sui modelli di linguaggio analizzando la loro architettura e mostrando il workflow per il fine-tuning di un LLM.

Contenuti
Analisi di serie temporali con diverse archittetture di reti neurali Introduzione a modelli LLM Fine-tuning di LLM.