Disponibile nella cartella condivisa il programma del corso con la descrizione della prova d'esame, un esempio di prova d'esame, e le prove degli appelli precedenti.
Punteggi Esercitazioni
Risultati Primo Appello
Risultati Secondo Appello
CODICE OPIS: ZMQR46K8
Date appelli d'esame (prova scritta):
4 Febbraio 2025 - Aula F del Dipartimento di Matematica "Guido Castelnuovo", ore 09:00 - 12:00
20 Febbraio 2025 - Aula G del Dipartimento di Matematica "Guido Castelnuovo", ore 13:00 - 16:00
27 Giugno 2025: nessuno studente registrato.
21 Luglio 2025: ore 15:30, aula Levi Civita.
16 Settembre
Lezioni:
Giovedì 10:15 - 12:00 Aula G, Dipartimento di Matematica "Guido Castelnuovo"
Venerdì 08:25 - 10:00 Aula G, Dipartimento di Matematica "Guido Castelnuovo"
Materiale corso (appunti, testi, esercizi...)
Lezione 1 (ven 27/9/2024): Significato di "probabilità in alta dimensione", motivazione, temi trattati nel corso, aspetti organizzativi, disuguaglianze di concentrazione, richiami, disuguaglianza di Hoeffding.
Lezione 2 (gio 3/10/2024): dimostrazione disuguaglianza di Hoeffding per variabili casuali di Rademacher e Bernoulli, enunciato disuguaglianza di Hoeffding per variabili casuali limitate, applicazione: potenziamento di algormit aleatori. Definizione di variabili casuali subgaussiane, dimostrazione che la gaussiana è subgaussiana, proprietà equivalenti per variabili casualli subgaussiane.
Esercizi assegnati: 1 e 2 eserciziario.
Nota: parte degli appunti mancanti per problemi tecnici in aula.
Lezione 3 (ven 4/10/2024): dimostrazione proprietà di equivalenza delle v.c. subgaussiane (proposizione 2.5. [V]), norma subgaussiana, proprietà della norma subgaussiana. Enunciato: lo spazio delle variabili casuali subgaussiane è normato.
Assegnazione esercizi 3, 4, 5, 6 eserciziario
Lezione 4 (giov 10/10/2024):
Dimostrazione del fatto che lo spazio delle variabili casuali subgaussiane è normato. Espressione delle 5 proprietà equivalenti per v.c. subgaussiane in termini della norma subgaussiana. Disuguaglianza di Hoeffding per somma di variabili casuali subgaussiane indipendenti a media nulla.
Assegnazione esercizi 7, 8.
Nota: parte degli appunti mancanti per problemi tecnici in aula.
Lezione 5 (ven 11/10/2024):
"Centering" per variabili subgaussiane.Disuguaglianza di Hoeffding per somma di variabili casuali subgaussiane indipendenti a media non nulla. Approfondimento: spazio di Orlicz. Dimostrazione implicazione 5->1 in proposizione di equivalenza. Variabili casuali sigma-subgaussiane e definizione equivalente di vc. subgaussiane. Disuguaglianza di Hoeffding per somma di variabili casuali sigma-subgaussiane.
Il caso del quadrato della v.c. gaussiana standardizzata. Definizione di v.c. subesponenziali.
Assegnazione esercizi 9, 10, 11, inoltre dimostrare che la somma di v.c. sigma-subgaussiane con parametri sigma_1, sigma_2, ... sigma_N è sigma-subgaussiana con sigma^2 = (sigma_1)^2 + (sigma_2)^2 + ... + (sigma_N)^2.
Lezione 6 (giov 17/10/2024):
stima di chernov per v.c. subesponenziali, somma di v.c. subesponenziali, stima di chernov per somma di v.c. subesponenziali. Lemma di Johnson Lindenstrauss: enunciato e prima parte dimostrazione.
Lezione 7 (ven 18/10/2024):
Lemma di Johnson Lindenstrauss: fine dimostrazione. V.c. subesponenziali e subgaussiane: il prodotto o il quadrato di v.c. subgaussiane è subesponenziale. Correzione esercizi.
Esercizi assegnati: 12, 13.
Lezione 8 (giov 24/10/2024):
correzione esercizi. Motivazione per epsilon net.
Lezione 9 (ven 25/10/2024):
Definizione di epsilon net, coverning number, epsilon separato, packing number. Lemma su epsilon separato massimale e epsilon net. Relazione tra packing number e covering number. Stime quantitative per packing number e covering number su R^n.
Esercizi assegnati: 14 e 15.
Lezione 10 (gio 7/11/2024)
correzione esercizi 14 e 15, definizione e lipschitzianità della norma operatoriale, numero di ricoprimento della sfera. Concentrazione per la norma operatoriale di una matrice con entrate subgaussiane a media nulla e corollario sul caso simmetrico.
Esercizio assegnato: 16
Lezione 11 (ven 8/11/2024)
fine dimostrazione teorema e corollario su matrici simmetriche.
Teorema di Courant Fisher solo enunciato, disuguaglianza di Weyl (solo enunciato), conseguenza del teorema di Davis-Kahn.
Esercizio assegnato: 17
Lezione 12 (gio 14/11/2024)_
correzione esercizi 16 e 17. Definizione di Stochastic Block Model. Definizione del problema community detection. Matrice di adiacenza di un grafo. Matrice della media di A, D, per modello stochastic block. Lemma sugli autovalori e autovettoeri di D.
Lezione 13 (ven 15/11/2024)
Considerazioni su valori specifici di p e q nel modello di stochastic block. Conclusione dimostrazione lemma. La funzione delta per valutare la bontà della partizione proposta. Definizione spectral clustering algorithm. Teorema sullo spectral clustering algorithm.
Assegnazione esercizi 18 e 19.
Esercitazione 1 (Lunedì 18 Novembre)
Esercitazione su proiezione dimensionale con Johnson Lindenstrauss.
Lezione 14 (giov 21/11/2024)
Fine dimostrazione teorema sul numero di vertici classificati male nell'algoritmo spectral clustering. Cluster Analysis: setting generale. Algoritmo k-means: funzione obiettivo.
Lezione 15 (ven 22/11/2024)
Algoritmo k-means: funzione obiettivo. Proprietà della funzione obiettivo e scelta del quadrato della distanza euclidea come funzione di dissimilarità. Definizione dell'algoritmo k-means.
Esercitazione 2 (Lunedì 25 Novembre)
Esercitazione su stochastic block model e spectral clustering.
Lezione 16 (giov 28/11/2024)
Spectral cluster algorithm: partizione di Voronoi, evoluzione dell'algoritmo, minimi locali.
Da spectral clustering a community detection: il grafo di similarità.
Lezione 17 (ven 29/11/2024)
partecipazione sciopero
Esercitazione 3 (Lunedì 2 Dicembre)
Esercitazione su spectral clustering.
Lezione 18 (giov 5/12/2024)
definizione operatore Laplaciano, autovettori del nucleo dell'operatore Laplaciano, definizione dell'algoritmo "unnormalized laplacian spectral clustering".
Lezione 19 (ven 6/12/2024)
considerazioni sull'algoritmo "unnormalized laplacian spectral clustering".
legge forte dei grandi numeri, givenko cantelli, disuguaglianza DKW, misura empirica.
Esercizi assegnati: 20 e 21.
Lezione 20 (lun 9/12/2024)
Classi di funzioni Givenko-Cantelli, complessità di Rademacher. Dimensione VC.
Esercizi assegnati: 23, 24, 25, 26.
Esercitazione 4 (giov 12/12/2024)
Esercitazione su unnormalized Laplacian
Lezione 21 (19/12/2024)
statistical learning theory
Slides non disponibili per problemi tecnici in aula.
Lezione 22 (20/12/2024)
discussione su prova d'esame, correzione esercizi.